Cảnh báo chiêu lừa đảo bằng trí tuệ nhân tạo

Các đối tượng lừa đảo sử dụng công nghệ Deepfake để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video giống hệt người thân nạn nhân để lừa chuyển tiền.

Trước đó, chị Nguyễn Thị T (ngụ phường Linh Tây, TP. Thủ Đức, TP.HCM) bị lừa mất 20 triệu đồng với hình thức gọi video qua Facebook, theo báo Vietnamnet. 

Theo đó, chị Th. đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook hỏi mượn 20 triệu đồng để đủ tiền đáo hạn ngân hàng. Nghi ngờ Facebook người bạn bị chiếm tài khoản, lừa đảo nên chị T đã gọi video để kiểm chứng.

Phía bên kia bắt máy, mở video cho chị T thấy mặt bạn nhưng hình ảnh mờ, chập chờn và nói đang cần tiền gấp. Khi chị T hỏi sao hình ảnh mờ thì bên kia trả lời "đang vùng sóng yếu". Chị T tin tưởng, chuyển 20 triệu đồng vào số tài khoản theo yêu cầu.

Sau khi chuyển tiền được 30 phút, chị T dùng điện thoại gọi cho cô bạn hỏi thăm thì mới biết mình đã bị lừa.

Sử dụng công nghệ Deepfake AI giả giọng nói để lừa đảo - Ảnh 1.

Tương tự nhiều trường hợp đã bị lừa đảo ở các địa phương khác nhau. Theo Công an tỉnh Tuyên Quang, gần đây, trên không gian mạng xuất hiện một phương thức lừa đảo chiếm đoạt tài sản rất tinh vi đó là, các đối tượng lừa đảo sử dụng công nghệ Deepfake (là công nghệ ứng dụng trí tuệ nhân tạo AI), để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả người ngoài đời thực với độ chính xác rất cao.

Theo cảnh sát, các đối tượng xấu sẽ thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí, hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…

Cơ quan công an cho hay, để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả; có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Nếu nạn nhân cẩn thận gọi video để kiểm tra thì chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

Trước tình trạng trên, Công an tỉnh Tuyên Quang khuyến cáo đây là thủ đoạn lừa đảo rất mới, rất tinh vi. Cơ quan công an đề nghị mọi người nâng cao cảnh giác khi nhận bất kỳ tin nhắn, cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội.

Ngoài ra, người dân cũng cần bình tĩnh, sau đó gọi điện thoại trực tiếp cho người thân để xác minh (không gọi qua các ứng dụng như Zalo, Messenger, Viber, Telegram…). Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản thì người dân cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.

HÀ MY