Cảnh báo: Một ứng dụng nhạy cảm quay lại ám ảnh phụ nữ, nạn nhân bị "lột đồ" theo đơn đặt hàng!
Khi hàng loạt công cụ AI thế hệ mới giúp việc đưa khuôn mặt ai đó vào ảnh, video có sẵn càng trở nên dễ dàng, tính thật giả càng khó phân biệt và càng ảnh hưởng nghiêm trọng đến cuộc sống nạn nhân.
Tháng 6/2019, một nhóm nhà phát triển ẩn danh trên Internet đã ra mắt DeepN*de, một công cụ sử dụng Deepfake để tạo ra ảnh khỏa thân giả mạo từ bức ảnh gốc của nạn nhân. Sau nhiều phản hồi tiêu cực từ cộng đồng, ứng dụng đã bị gỡ bỏ chỉ trong một thời gian ngắn sau khi xuất hiện.
Tuy nhiên, theo The Verge, các phần mềm với chức năng "lột đồ" phụ nữ tương tự DeepN*de vẫn âm thầm sinh sôi sau khi phiên bản chính chủ bị gỡ bỏ. Những công cụ này thậm chí còn được kẻ gian sử dụng để "lột đồ" theo đơn đặt hàng nhằm trục lợi cá nhân.
Ác mộng khi ảnh đăng trên mạng biến thành ảnh khỏa thân
Mothership đưa tin, nữ TikToker có tên Rachel đã trở thành nạn nhân mới nhất của công cụ "lột đồ"
Đăng tải trên kênh TikTok có hơn 49,6 ngàn người theo dõi, Rachel vừa khóc vừa kể lại sự việc đáng sợ xảy ra với cô
Kể trong nước mắt, Rachel cho biết cô đã nhận được một tin nhắn gửi đến từ người lạ mặt. Nội dung tin nhắn là loạt ảnh khỏa thân giả mạo của Rachel.
Theo nữ TikToker, các bức ảnh này được chỉnh sửa từ những hình ảnh bình thường mà cô đã đăng lên tài khoản Instagram của mình trước đó. Những hình ảnh được ghép và chỉnh sửa một cách chân thật đến mức nếu không phải là nhân vật trong ảnh, Rachel cũng không thể nhận ra đó chỉ là giả mạo.
Rachel tin rằng kẻ xấu đã sử dụng ứng dụng "lột đồ" để tạo ra những bức ảnh ghép này.
"Tôi không biết tại sao điều này lại xảy ra với mình. Đó là những bức ảnh bình thường mà tôi đăng lên Instagram. Tôi mặc quần áo bình thường và chúng đã sử dụng công cụ để biến tôi trở thành khỏa thân", Rachel chia sẻ trong nước mắt. "Đó đều là những bức ảnh đã được chỉnh sửa".
Thậm chí, nữ TikToker còn nhận được tin nhắn với lời đe dọa tống tiền, nếu không kẻ lạ mặt sẽ phát tán những hình ảnh giả mạo này lên mạng xã hội.
"Xin hãy dừng hành động này lại ngay!", Rachel gửi lời khẩn cầu đến những kẻ lạ mặt, đồng thời kêu gọi sự giúp đỡ của cộng đồng mạng. Đoạn video của Rachel đã thu hút hơn 1,4 triệu lượt xem trên mạng xã hội TikTok. Nhiều người đã bày tỏ sự cảm thông và phẫn nộ với tình cảnh mà cô gái này đang gặp phải.
Nạn nhân bị "lột đồ" theo đơn đặt hàng
Deepfake bắt đầu gây chú ý từ 2017 sau hàng loạt video 18+ mạo danh người nổi tiếng như Gal Gadot, Scarlett Johansson, Emma Watson, hay Daisy Ridley. Gần đây, nhiều nghệ sĩ Việt Nam cũng trở thành nạn nhân của Deepfake khi một tài khoản Twitter đăng tải hình ảnh khỏa thân, được chỉnh sửa bằng AI của nhiều sao nam.
Không chỉ người nổi tiếng, bất kỳ ai cũng dễ dàng trở thành nạn nhân của Deepfake
Không chỉ người nổi tiếng, bất kỳ ai cũng dễ dàng trở thành nạn nhân của Deepfake, nhất là khi hàng loạt công cụ AI thế hệ mới giúp việc đưa khuôn mặt ai đó vào nội dung 18+ càng trở nên dễ dàng và khó phân biệt thật giả.
Theo thống kê của Sensity, công ty chuyên về AI, gần 96% nội dung Deepfake là khiêu dâm, Và hầu hết trong số đó sử dụng khuôn mặt phụ nữ trái phép. Thậm chí, trên một số diễn đàn, các thành viên còn hướng dẫn cách sử dụng AI để xóa bỏ quần áo của các cô gái hoặc cách sử dụng Stable Diffusion tạo ảnh khỏa thân của những phụ nữ ngoài đời thực mà không có sự đồng ý của họ cho mục đích trục lợi cá nhân.
NBC News cho biết, hình ảnh khiêu dâm Deepfake của "những cô gái" được rao bán trên mạng với giá 5 USD (khoảng 120.000 đồng).
Tại Việt Nam, dịch vụ tạo ảnh khỏa thân cũng được báo chí ghi nhận thời gian gần đây. Trên ứng dụng nhắn tin Telegram có nhiều nhóm được lập ra để rao bán các dịch vụ này. Những nhóm kín này quảng cáo bảng giá lột đồ là 25.000 đồng/ảnh. Không chỉ cung cấp dịch vụ "lột đồ", những nhóm chat thế này còn cung cấp nhiều dịch vụ đồi trụy khác, bảng giá dao động 20.000-50.000 đồng.
Adam Dodge, người sáng lập công ty chống lạm dụng công nghệ EndTAB, cho rằng mối nguy hại từ bạo lực tình dục trực tuyến, nội dung 18+ Deepfake và hình ảnh khỏa thân giả mạo sẽ còn tồn tại chừng nào việc tạo ảnh Deepfake còn dễ dàng.