Giới chuyên gia kêu gọi dừng phát triển AI trong 6 tháng
Theo một thư ngỏ, tỷ phú Elon Musk và một nhóm các chuyên gia về trí tuệ nhân tạo (AI) cũng như các giám đốc công ty đang kêu gọi dừng trong 6 tháng việc phát triển các hệ thống mạnh hơn thế hệ thứ tư của mô hình ngôn ngữ đa phương thức (GPT-4) mà OpenAI mới công bố, do những rủi ro đối với xã hội.
Đầu tháng này, OpenAI, công ty khởi nghiệp mà Microsoft có vốn đầu tư, đã ra mắt GPT-4, với khả năng đối thoại như con người, soạn nhạc và tóm tắt các văn bản dài.
Trong thư ngỏ do Future of Life Institute công bố nói trên, những người kêu gọi cho rằng các hệ thống AI mạnh chỉ nên được phát triển nếu các tính năng là tích cực và những rủi ro có thể kiểm soát.
Ông Musk nói ông lo ngại về AI. Ông là một trong số các nhà sáng lập OpenAI và hãng sản xuất xe điện của ông sử dụng AI cho hệ thống tự lái. Ông muốn các nhà chức trách đảm bảo rằng việc phát triển AI là vì lợi ích của cộng đồng.
Lá thư trên đã hối thúc việc dừng phát triển AI tiên tiến cho đến khi các giao thức an toàn được xây dựng và kêu gọi các công ty phối hợp với các nhà hoạch định chính sách trong vấn đề quản trị.
Lá thư có chữ ký của trên 1.000 người, trong đó có ông Musk. Giám đốc điều hành (CEO) OpenAI, Sam Altman, đã không ký. CEO của Alphabet và Microsoft là các ông Sundar Pichai và Satya Nadella cũng không ký vào lá thư.
Trong số những người khác đã ký có CEO của Stability AI, Emad Mostaque, các nhà nghiên cứu tại DeepMind (thuộc sở hữu của Alphabet) và các chuyên gia về AI là ông Yoshua Bengio, người được biết đến là một trong những "cha đẻ" của AI và ông Stuart Russell, người đi tiên phong trong nghiên cứu về lĩnh vực này.
AI gây lo ngại khi hộp thoại ChatGPT do OpenAI phát triển thu hút sự chú ý của Quốc hội Mỹ, do có nguy cơ tác động đến an ninh quốc gia và giáo dục.
Cơ quan cảnh sát châu Âu ngày 27/3 đã cảnh báo về tình trạng lạm dụng AI trong các cuộc tấn công giả mạo, phản thông tin và tội phạm công nghệ cao.
Trong khi đó, Chính phủ Anh đã công bố các đề xuất về cơ chế quản lý với AI.