Những ngày qua, một bóng ma vô hình mang tên Deepfake đang bao trùm toàn bộ Hàn Quốc. Nữ sinh và nhiều phụ nữ ẩn toàn bộ hình ảnh, khóa tài khoản MXH... sau khi một đường dây phòng chat Telegram với khoảng 212.000 thành viên bị phát hiện lan truyền hình ảnh nhạy cảm của phụ nữ, trong đó có video ghép khuôn mặt của các nữ idol Kpop vào phim người lớn.
Yoona (SNSD) bị tạo ảnh Deepfake khiêu dâm và rất nhiều phụ nữ tại Hàn Quốc cũng có thể trở thành nạn nhân của công nghệ nguy hiểm này |
Không chỉ thế, điều đáng sợ hơn là nếu muốn tham gia nhóm chat Telegram này, người dùng phải gửi hình chụp và thông tin cá nhân của một người phụ nữ. Qua đó, hàng trăm nghìn tài khoản phụ nữ Hàn Quốc có thể đã rơi vào tay kẻ xấu và họ hoàn toàn có thể gặp tình trạng sáng thức dậy và phát hiện mình bị Deepfake ghép vào những hình ảnh, video khiêu dâm, nhạy cảm. Một nỗi sợ vô hình cứ thế bao trùm lên toàn bộ đất nước này, đặc biệt là phụ nữ.
Deepfake là từ ghép giữa "deep learning" (học sâu) và "fake" (giả). Đây là quá trình AI (trí tuệ nhân tạo) dùng phương pháp kỹ thuật số để thay thế chân dung của người này bằng chân dung của người khác. Thậm chí, Deepfake có thể tái tạo cả cử chỉ và giọng nói.
Làm thế nào để phòng tránh Deepfake?
Trên thực tế, Deepfake khiêu dâm là một vấn nạn cực kỳ nguy hiểm và bất cứ ai cũng có thể là nạn nhân của công nghệ gây nhiều tranh cãi này. Tại Hàn Quốc, nữ sinh và phụ nữ nước này đồng loạt ẩn/ xóa ảnh selfie, ảnh chân dung của bản thân trên MXH đồng thời khóa MXH. Điều này sẽ giúp họ tránh được rủi ro trở thành nạn nhân bị tội phạm Deepfake nhắm vào và tạo ra các hình ảnh, video Deepfake.
Ảnh minh họa |
Theo các chuyên gia công nghệ, có một số cách để phòng tránh Deepfake:
Không truy cập vào các đường link lạ: Đây rất có thể là cái bẫy được giăng ra để tội phạm mạng lấy được thông tin cá nhân trên các tài khoản trực tuyến của bạn. Từ đó, chúng có thể lấy được các thông tin như tên, tuổi, ảnh và video trên MXH của người dùng... Do đó đừng vội truy cập vào các đường link không rõ nguồn gốc.
Hạn chế quyền truy cập vào giọng nói và hình ảnh: Yêu cầu để Deepfake có thể tạo ra các hình ảnh, video giả mạo là chúng phải có nguồn dữ liệu để "học sâu". Vậy nên việc ngăn chặn dữ liệu của bạn bị sao chép, hạn chế sự hiện diện của bạn trên mạng xã hội hoặc đặt tài khoản của bạn ở chế độ riêng tư, chỉ chấp nhận yêu cầu từ những người bạn tin tưởng cũng chính là cách để bảo đảm an toàn trên không gian mạng và phòng tránh Deepfake.
Tăng cường bảo mật tài khoản, bảo vệ hình ảnh và thông tin cá nhân trên MXH là cách để tránh tội phạm Deepfake |
Ngoài ra, trước tình hình căng thẳng bởi vấn nạn Deepfake, Chính phủ Hàn Quốc trước đó đã thành lập Trung tâm Hỗ trợ nạn nhân bị lạm dụng tình dục trực tuyến (ACOSAV) và tổ chức này đã triển khai hệ thống hỗ trợ xóa nội dung do trung tâm phát triển, được gọi là "Hệ thống DNA". Hệ thống này có khả năng phát hiện các nội dung vi phạm như video quay lén và Deepfake với độ chính xác hơn 99%. Tuy nhiên, công tác ứng phó còn gặp khó khăn trong việc xử lý các trường hợp liên quan đến các nền tảng ở nước ngoài.
Dấu hiệu cuộc gọi video deepfake lừa đảo
Đối với các cuộc gọi deepfake như hiện nay, bằng mắt thường vẫn có thể nhận ra một số dấu hiệu như thời gian gọi thường rất ngắn chỉ vài giây, "nhân vật chính" xuất hiện trong video có khuôn mặt thiếu cảm xúc và "trơ" khi nói, tư thế lúng túng, hướng đầu và cơ thể không nhất quán.