Vòng tròn đạo đức với AI
Tiếp nối thành công của Hội nghị thượng đỉnh toàn cầu về trí tuệ nhân tạo (AI) do Hàn Quốc và Anh đồng tổ chức tại Seoul vào tháng 5 vừa qua, Hội nghị Mạng lưới quốc tế các viện an toàn trí tuệ nhân tạo (AI) vừa khép lại tại “trung tâm đầu não của AI” - thành phố San Francisco (Mỹ) - với cam kết tạo lực đẩy cho hợp tác toàn cầu và giải quyết những thách thức do công nghệ tiên tiến này gây ra.
Được xây dựng dựa trên Tuyên bố Seoul về việc thúc đẩy AI an toàn, sáng tạo và toàn diện, sáng kiến trên đánh dấu sự khởi đầu của giai đoạn hợp tác mới về vấn đề an toàn AI.
Kết quả nổi bật của hội nghị San Francisco là sự ra đời của Mạng lưới quốc tế các viện an toàn AI nhằm thúc đẩy tính an toàn, nghiên cứu, thử nghiệm và định hướng về AI. Mạng lưới tập hợp các tổ chức kỹ thuật chuyên thúc đẩy vấn đề an toàn AI, giúp chính phủ và xã hội hiểu rõ hơn về những rủi ro do hệ thống AI gây ra và đề xuất các giải pháp cụ thể để giảm thiểu những rủi ro này. Các thành viên nhấn mạnh hợp tác quốc tế nhằm thúc đẩy sự an toàn, bảo mật, tính toàn diện và sự tin cậy của AI có vai trò quan trọng để giải quyết những rủi ro, thúc đẩy đổi mới, sáng tạo có trách nhiệm và tăng khả năng tiếp cận các lợi ích của AI trên toàn thế giới. Ngoài việc giải quyết các tác hại tiềm ẩn, các viện và văn phòng liên quan sẽ định hướng xây dựng và triển khai hệ thống AI một cách có trách nhiệm.
Theo đó, mạng lưới tập trung vào 4 lĩnh vực ưu tiên gồm nghiên cứu, thử nghiệm, định hướng và tăng cường sự tham gia của các bên vào khoa học về an toàn AI. Giới chuyên gia lưu ý các biện pháp an toàn cuối cùng vẫn hỗ trợ sáng tạo nhờ gia tăng niềm tin và đẩy nhanh việc ứng dụng công nghệ thông minh.
Tại hội nghị, các đại biểu tiếp tục nêu ra những cơ hội và thách thức do AI tạo ra. Nhiều chuyên gia trong lĩnh vực này, như Geoffrey Hinton – người được mệnh danh là “cha đẻ” AI hiện đại, lo ngại nếu trí tuệ nhân tạo tổng quát (AGI) phát triển, con người có thể không kiểm soát được dẫn đến tai họa thảm khốc. Cùng chia sẻ quan điểm, Giám đốc điều hành Anthropic Dario Amodei, người tin các hệ thống tương tự AGI có thể xuất hiện từ năm 2026, đánh giá rủi ro “mất kiểm soát” là mối lo ngại nghiêm trọng, bên cạnh những rủi ro như lợi dụng các mô hình có năng lực mạnh hơn trong tương lai để tiến hành khủng bố sinh học hoặc gây tổn hại an ninh mạng.
Sự trỗi dậy của công nghệ AI, đặc biệt là deepfake, đặt ra những thách thức nghiêm trọng đối với an ninh và xã hội, khi có thể bị lợi dụng để cung cấp thông tin sai lệch, lừa đảo hoặc đánh cắp thông tin cá nhân cũng như nhiều hoạt động độc hại khác. Hội nghị đã thống nhất cách tiếp cận để giảm thiểu rủi ro liên quan đến deepfake. Đây là bước quan trọng để xây dựng mạng lưới toàn cầu nhằm thúc đẩy sự an toàn của AI. Thông qua hợp tác, các bên có thể chuẩn hóa các giao thức để phát hiện và ngăn chặn việc lợi dụng nội dung do AI tạo ra cho mục đích xấu. Bằng cách chia sẻ những hiểu biết sâu sắc và chiến lược, các nước tham gia muốn tạo ra các khuôn khổ giúp các xã hội trên toàn thế giới nâng cao khả năng chống chịu trước các mối đe dọa do AI gây ra. Thứ trưởng Bộ Thông tin và Phát triển Kỹ thuật số Singapore, ông Hong Yuen Poon nhấn mạnh khi nói đến an toàn AI, “tư duy giúp đỡ lẫn nhau” rất quan trọng giữa các quốc gia, kể cả với các quốc gia đang phát triển có thể không đủ nguồn lực để nghiên cứu vấn đề này.
Trên thực tế, cộng đồng quốc tế đang tích cực phối hợp trong vấn đề an toàn AI. Đầu tuần này, các viện an toàn AI (AISI) của Mỹ và Anh chia sẻ báo cáo sơ bộ chung đánh giá mô hình Claude 3.5 Sonnet của công ty Anthropic trước khi triển khai. Báo cáo tập trung đánh giá những năng lực của mô hình AI tiên tiến này và hiệu quả của các biện pháp bảo vệ được tích hợp trong mô hình để ngăn mô hình đáp ứng các yêu cầu gây hại. Cả hai viện đều phát hiện ra rằng những hàng rào bảo vệ này thường bị phá vỡ, phù hợp với các nghiên cứu trước đó cho thấy các biện pháp bảo vệ của những hệ thống AI khác vẫn còn lỗ hổng.
Trước hội nghị, nhóm các cơ quan chính phủ và tổ chức từ thiện, trong đó có Hàn Quốc và Quỹ Knight công bố tài trợ 11 triệu USD để hỗ trợ nghiên cứu cách thức giảm thiểu rủi ro do các nội dung giả mạo do máy tính tạo lập như tạo và phát tán tài liệu lạm dụng tình dục trẻ em, thúc đẩy hành vi lừa đảo và mạo danh.
Trong nước, AISI của Mỹ cũng công bố một nhóm đặc trách mới của chính phủ tập trung vào những rủi ro của công nghệ đối với an ninh quốc gia. Nhóm Đặc trách về rủi ro thử nghiệm AI đối với an ninh quốc gia (TRAINS) gồm đại diện của Bộ Quốc phòng, Năng lượng, An ninh Nội địa, Y tế và Dịch vụ Nhân sinh. Nhiệm vụ của nhóm là xác định, đánh giá và kiểm soát những tác động của công nghệ AI đối với an ninh quốc gia và an toàn công cộng, đặc biệt tập trung vào an ninh hạt nhân và bức xạ, an ninh hóa học và sinh học, an ninh mạng, cơ sở hạ tầng quan trọng và năng lực quân sự thông thường.
Dù còn những thách thức về chính trị, song với sự hợp tác tích cực của cộng đồng quốc tế, triển vọng xây dựng khuôn khổ quản trị AI vẫn đầy hứa hẹn. Sự tin cậy lẫn nhau và các biện pháp an toàn toàn diện sẽ tiếp tục định hình các chiến lược AI toàn cầu, tiềm năng tác động đến tăng trưởng kinh tế, sự hòa hợp xã hội và mối quan hệ chính trị trên toàn thế giới.
Cộng đồng quốc tế đang tiếp tục tìm cách cân bằng phương trình phức tạp giữa một bên là thúc đẩy sáng tạo và một bên là đảm bảo an toàn AI. Khi các nước tăng cường gắn kết và hợp tác kỹ thuật, sự đổi mới AI an toàn, bảo mật và đáng tin cậy được kỳ vọng sẽ đem lại lợi ích rộng rãi, cho phép nhân loại nhận ra đầy đủ tiềm năng to lớn của AI. Như Bộ trưởng Thương mại Mỹ Gina Raimondo khẳng định: “Sự an toàn tốt cho đổi mới. An toàn tạo nên niềm tin. Niềm tin giúp tăng tốc độ ứng dụng. Việc ứng dụng thúc đẩy sự đổi mới hơn nữa. Đó là vòng tròn đạo đức mà chúng ta cần”.