Nếu nhận được cuộc gọi diễn ra chớp nhoáng, hình ảnh và âm thanh chập chờn, chuyển động mắt, khuôn mặt thiếu tự nhiên từ người thân, hãy hết sức cảnh giác vì bạn có thể bạn đang là nạn nhân mà kẻ gian nhắm đến.
Nắm bắt được tâm lý người dùng mạng xã hội cảnh giác hơn với các thủ đoạn nhắn tin nhờ chuyển tiền, tội phạm công nghệ cao hiện nay đã lợi dụng phần mềm ghép mặt và giọng nói (Deepfake AI) giống hệt người quen của nạn nhân để tạo ra những video giả mạo nhằm thực hiện hành vi lừa đảo.
"Bắt bài" thủ đoạn dùng công nghệ video Deepfake để lừa đảo
Theo Ngân hàng TMCP Việt Nam Thịnh Vượng (VPBank), kẻ gian thường chiếm đoạt tài khoản Zalo, Facebook hoặc tạo tài khoản giống hệt người thân của nạn nhân, tiếp đó thu thập hình ảnh, giọng nói và dùng công nghệ Deepfake tạo ra video giả mạo.
Sau đó, chúng sẽ dùng tài khoản giả hoặc các tài khoản mạng xã hội chiếm được để nhắn tin mượn tiền hoặc nhờ chuyển tiền hoặc thông báo người thân của nạn nhân gặp nguy hiểm cần tiền gấp...
Tội phạm công nghệ cao hiện nay đã lợi dụng phần mềm ghép mặt và giọng nói (Deepfake AI) giống hệt người quen của nạn nhân để tạo ra những video giả mạo nhằm thực hiện hành vi lừa đảo (Ảnh minh hoạ)
Chiêu thức này tuy không mới nhưng đã trở nên tinh vi hơn khi kẻ gian đồng thời thực hiện cuộc gọi video mạo danh, phát video giả nhằm xác thực thông tin cho tài khoản giả, tăng độ tin cậy để thực hiện trót lọt hành vi lừa đảo. Các video này có thể khiến người xem tin rằng họ đang nhìn thấy và nghe thấy người thật đang nói chuyện.
VPBank cảnh báo video giả mạo có độ tương đồng tương đối cao so với dung mạo của người bị giả mạo. Để nhận biết video ứng dụng Deepfake, người dùng có thể dựa vào các yếu tố như đó có phải là video dựng sẵn hay không, nội dung trả lời có trực tiếp vào câu hỏi không hay nội dung chung chung, không phù hợp với ngữ cảnh thực tế giao tiếp.
Để che lấp những khuyết điểm có thể dễ phát hiện trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét, giống như một cuộc gọi video có tín hiệu chập chờn, được thực hiện trong khu vực sóng di động hoặc WiFi yếu...
Tại cuộc họp báo thường kỳ tháng 5 của Bộ Thông tin và Truyền thông (TT&TT) ngày 5/5, ông Trần Quang Hưng, Phó Cục trưởng Cục An toàn thông tin cho biết, đối với các cuộc gọi Deepfake có thể nhận diện bằng mắt thường.
Một số dấu hiệu điển hình như thời gian gọi thường rất ngắn, chỉ vài giây, khuôn mặt người gọi thiếu tính cảm xúc và khá "trơ", tư thế lúng túng, không tự nhiên, hướng đầu và cơ thể của người gọi trong video không nhất quán với nhau.
"Ngoài ra, màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên. Ngoài ra, kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu... Các cuộc gọi lừa đảo deepfake thường xảy ra tình huống, người gọi đề nghị chuyển tiền vào tài khoản không phải của người đang thực hiện cuộc gọi", ông Hưng chỉ rõ.
"Tóm lại, các yếu tố kỳ lạ như trên là báo hiệu đỏ của Deepfake. Người dân nên luôn cảnh giác và tuyệt đối bình tĩnh", đại diện Bộ TT&TT nhấn mạnh.
Để tránh trở thành nạn nhân của công nghệ Deepfake, VPBank khuyến cáo người dùng thiết bị công nghệ cao và các ứng dụng công nghệ hạn chế chia sẻ hình ảnh, video có giọng nói thật, thông tin cá nhân trên mạng xã hội.
Đặc biệt nâng cao cảnh giác với các cuộc gọi hỏi vay mượn tiền, phải chú ý kiểm tra kỹ thông tin tài khoản nhận tiền, gọi vào số điện thoại mà mình biết để xác minh với người thân trước khi chuyển tiền.
Cần làm gì khi bị lừa đảo bởi công nghệ Deepfake?
Nếu nghi ngờ hoặc là nạn nhân bị lừa đảo bởi công nghệ Deepfake, người sử dụng cần thông báo ngay lập tức cho những người người thân quen biết để hạn chế tối đa thiệt hại. Đồng thời, ngay lập tức báo với cơ quan công an gần nhất, đường dây nóng ngân hàng hoặc phòng giao dịch ngân hàng gần nhất để được hỗ trợ.
Ngoài ra, theo Trung tâm Giám sát An toàn không gian mạng quốc gia (NCSC) – Cục An toàn thông tin (Bộ Thông tin và Truyền thông), nếu chia sẻ video hay clip trên mạng nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice, để tránh kẻ xấu biết giọng nói thật.
Trong trường hợp bị làm giả thông tin, hình ảnh, video, người dùng nên thông báo ngay lập tức cho mọi người biết và báo lên cơ quan chức năng tại canhbao.ncsc.gov.vn hay báo lên dự án chongluadao tại địa chỉ https://chongluadao.vn.
NCSC cũng cung cấp các thông tin nhằm nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại: dauhieuluadao.com.
Tags