Thế giới trước đòi hỏi chủ động kiểm soát rủi ro từ Trí tuệ nhân tạo
29/11/2023
21 Lượt xem
Các nhà phát triển AI hàng đầu trên thế giới đã nhất trí hợp tác với các chính phủ thử nghiệm mọi mô hình AI trước khi phát hành, nhằm quản lý nguy cơ tiềm ẩn từ sự phát triển của AI.
Ảnh minh họa.(Nguồn: GettyImages)
Trong cuộc làm việc với Giám đốc Trung tâm An ninh mạng Canada Sami Khoury tại Ottawa (Canada) ngày 27/11, bà Jen Easterly, Giám đốc Cơ quan An ninh Mạng và An ninh Cơ sở hạ tầng Mỹ, cho rằng những nguy cơ tiềm ẩn từ sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) đồng nghĩa với việc các biện pháp bảo mật cần phải được tích hợp vào hệ thống ngay từ đầu, thay vì tìm cách xử lý hậu kỳ.
Phát biểu với báo giới sau cuộc hội đàm, bà Easterly nêu rõ, trong một thế giới mà các sản phẩm công nghệ ra đời với rất nhiều lỗ hổng, người tiêu dùng được kỳ vọng sẽ là người 'vá' những lỗ hổng đó. Tuy nhiên, điều này cần phải thay đổi khi công nghệ AI quá mạnh và phát triển quá nhanh.
Quan chức Mỹ cho biết các cơ quan từ 18 quốc gia, bao gồm cả Mỹ, đã tán thành các khuyến nghị do Anh soạn thảo về an ninh mạng liên quan đến AI, trong đó đề cập việc thiết kế, phát triển và sử dụng công nghệ này một cách an toàn.
Đầu tháng này, các nhà phát triển AI hàng đầu trên thế giới đã nhất trí hợp tác với các chính phủ thử nghiệm mọi mô hình AI trước khi chính thức phát hành, nhằm quản lý nguy cơ tiềm ẩn từ sự phát triển nhanh chóng của công nghệ này.
Bà Easterly đánh giá các nước trên thế giới hiện đã nỗ lực tối đa, gắn kết với công ty công nghệ nhằm phát triển các công nghệ theo cách an toàn nhất có thể./.