Các chatbot AI phổ biến có thể dễ dàng được lập trình để trả lời sai lệch các câu hỏi về sức khỏe với giọng điệu thuyết phục, thậm chí kèm theo trích dẫn giả từ những tạp chí y khoa uy tín. Đây là cảnh báo do các nhà nghiên cứu Australia đưa ra trong bài đăng trên tạp chí Annals of Internal Medicine.
Các quan chức Anh cảnh báo các tổ chức cần thận trọng về việc tích hợp các chatbot sử dụng công nghệ Trí tuệ nhân tạo (AI) vào hoạt động kinh doanh của họ. Các nghiên cứu ngày càng chỉ ra rằng họ có thể bị lừa thực hiện các nhiệm vụ có hại.
Bà mẹ này đã nhờ 5 chatbot AI khác nhau làm nhiệm vụ viết thư mắng con mình.
Công ty con DeepMind của Google cho biết họ có thể sớm ra mắt đối thủ ChatGPT – và chatbot của họ hứa hẹn sẽ là một loại trợ lý AI an toàn hơn.
Sự xuất hiện của các chatbot ứng dụng trí tuệ nhân tạo cho thấy, khả năng trò chuyện trôi chảy và tự nhiên của chúng đang dần trở nên khó phân biệt với người thật.