Nâng cao hợp tác quản lý trí tuệ nhân tạo trước nguy cơ về bảo mật
01/12/2023
33 Lượt xem
Sự phát triển của trí tuệ nhân tạo (AI) là con dao hai lưỡi đối với bảo mật, cần có những quy định cụ thể nhằm kiểm soát những nguy cơ do AI đem đến. Điều này đang được nhiều nước trên thế giới quan tâm đặc biệt là châu Âu và Mỹ.
Ảnh minh hoạ
Việc tích lũy và sử dụng dữ liệu lớn (Big Data) cùng những cải tiến đáng kể về sức mạnh số, các đổi mới trong các phương pháp học máy (Machine Learning), công nghệ AI đã có những phát triển vượt bậc. Các lĩnh vực như nhận dạng hình ảnh, nhận dạng giọng nói, và xử lý ngôn ngữ tự nhiên đang trở nên ngày càng hiệu quả.
Cùng với sự tiến bộ, AI cũng tạo ra tác động đáng kể đối với bảo mật. Nếu một mặt, AI được sử dụng để xây dựng hệ thống phòng thủ, phát hiện phần mềm độc hại, và cảnh báo về các đợt tấn công mạng, thì ở mặt khác, có nguy cơ AI bị khai thác để tạo ra các cuộc tấn công, bị tin tặc thao túng với ý đồ xấu.
Trong bối cảnh này, châu Âu đã đi trước Mỹ về các quy định liên quan đến AI. Các nhà lập pháp ở châu Âu đã thảo luận và đạt thỏa thuận về các quy tắc về AI. Pháp, Đức, và Italia đã là những quốc gia đầu tiên đạt thỏa thuận về cách quản lý AI.
Bà Jen Easterly, Giám đốc Cơ quan An ninh Mạng và An ninh Cơ sở hạ tầng Mỹ, khẳng định rằng chúng ta không thể tiếp tục sống trong một thế giới nơi các sản phẩm công nghệ được tung ra với nhiều lỗ hổng, và sau đó người tiêu dùng phải "vá" những lỗ hổng đó. Với công nghệ AI mạnh mẽ và phát triển nhanh chóng, biện pháp bảo vệ cần được tích hợp từ đầu.
Theo đó, các cơ quan từ 18 quốc gia, bao gồm Mỹ, đã đồng thuận với các khuyến nghị của Anh về an ninh mạng liên quan đến AI. Các nhà phát triển AI hàng đầu thế giới cũng hợp tác với các chính phủ để thử nghiệm mô hình AI trước khi chính thức triển khai, nhằm quản lý nguy cơ tiềm ẩn.
Thỏa thuận quốc tế mới đưa ra những hướng dẫn chi tiết đầu tiên về cách bảo đảm công nghệ AI được sử dụng một cách an toàn. Các công ty công nghệ được hối thúc tạo ra các hệ thống AI an toàn ngay từ bước thiết kế. Những thỏa thuận này không mang tính ràng buộc mà chủ yếu đưa ra khuyến nghị chung, như giám sát hành vi lạm dụng AI và bảo vệ dữ liệu.
Không những thế, nhóm các nước công nghiệp phát triển (G7) cũng thống nhất Bộ Quy tắc ứng xử 11 điểm dành cho các công ty phát triển AI, hướng dẫn quản lý những hệ thống AI tiên tiến nhất và hệ thống AI tạo sinh. Và Tổng Thư ký Liên hợp quốc Antonio Guterres công bố thành lập Ban cố vấn AI quy tụ 39 thành viên là các giám đốc công ty, quan chức chính phủ và các học giả, với nhiệm vụ đưa ra hướng quản lý AI ở tầm quốc tế.
Có thể thấy, quản lý AI ngày càng trở thành một vấn đề được quan tâm khi các hội nghị liên tục được tổ chức để thảo luận về vấn đề này và đưa ra các quy định liên quan. Hội nghị cấp cao đầu tiên về an toàn AI đã tổ chức tại Anh, với mục tiêu đánh giá nguy cơ từ AI và thảo luận về cách giảm những nguy cơ này thông qua hợp tác quốc tế.
Đối với nỗ lực quản lý AI, sự hợp tác quốc tế rộng rãi hơn là cần thiết để bảo đảm tính ưu việt của AI và ngăn chặn nguy cơ tiềm ẩn khi siêu công nghệ này được ứng dụng trong nhiều lĩnh vực.