Đầu dây bên kia là giọng nói quen thuộc của mẹ bạn, người nhờ bạn gửi tiền vào một tài khoản lạ. Tin tưởng vào thanh âm gần gũi kia, bạn chuyển tiền mà không biết rằng mình đã bị lừa bởi công nghệ deepfake - giả mạo giọng nói như thật.
Deepfake giọng nói
Bạn vừa trở về nhà sau một ngày dài làm việc và chuẩn bị ngồi xuống ăn tối thì đột nhiên điện thoại rung lên. Ở đầu bên kia là một người thân yêu, có thể là cha mẹ, con cái hoặc một người bạn thời thơ ấu, đang cầu xin bạn gửi tiền cho họ ngay lập tức.
Bạn đặt câu hỏi cho họ để tìm hiểu xem chuyện gì đang xảy ra. Có điều gì đó không ổn về câu trả lời từ đầu dây bên kia, mơ hồ, khác thường, và đôi khi có độ trễ kỳ lạ, như thể họ đang suy nghĩ hơi chậm.
Tuy nhiên, bạn chắc chắn rằng đó người thân yêu của mình đang nói. Đó là giọng thân quen thường nghe và số điện thoại quen thuộc hiện lên. Cảm thấy lo lắng trước lời thỉnh cầu, bạn gửi tiền vào tài khoản ngân hàng mà họ cung cấp cho bạn.
Ngày hôm sau, bạn gọi lại để đảm bảo rằng mọi thứ đều ổn. Nhưng người thân không biết bạn đang nói về cái gì. Đó là bởi vì họ chưa bao giờ gọi cho bạn. Hóa ra, bạn đã bị lừa bởi công nghệ deep fake giọng nói. Hàng nghìn người đã bị lừa theo cách này vào năm 2022.
Những tiến bộ không ngừng trong thuật toán học sâu, kỹ thuật và chỉnh sửa âm thanh cũng như tạo giọng nói tổng hợp đang giúp quá trình mô phỏng giọng nói của một người nào đó ngày càng trở nên tinh vi.
Tệ hơn nữa, các chatbot như ChatGPT đang bắt đầu tạo các kịch bản thực tế với phản hồi ngay tức thì. Bằng cách kết hợp các công nghệ này với nhau, một giọng nói giả có thể trở thành một hình hài sống động, có thể trò chuyện qua điện thoại một cách thuyết phục.
Tạo ra một deepfake chất lượng cao dù là video hay âm thanh không phải là điều dễ dàng thực hiện. Điều này đòi hỏi nhiều sự khéo léo, kỹ năng, phần cứng mạnh mẽ và một mẫu giọng tốt.
Đó là câu chuyện của trước kia. Ngày nay, càng có nhiều dịch vụ cung cấp bản sao giọng nói có chất lượng trung bình đến cao có tính phí, và một số công cụ giả mạo giọng nói chỉ cần một mẫu giọng dài một phút hoặc thậm chí vài giây để tạo ra bản sao giọng nói đủ khả năng tạo sự tin tưởng và đánh lừa ai đó.
Dự án DeFake của Viện Công nghệ Rochester, Đại học Mississippi và Đại học Bang Michigan, cùng các nhà nghiên cứu khác đang nỗ lực tìm ra cách thức có thể phát hiện các video và âm thanh deepfake cũng như hạn chế tác hại mà chúng gây ra.
Ngoài ra, có những phương thức đơn giản mà bạn có thể thực hiện để bảo vệ chính mình.
Giả mạo bằng giọng nói có thể gặp phải trong cuộc sống hàng ngày, cả ở nơi làm việc và ở nhà.
Vào năm 2019, một công ty năng lượng đã bị lừa 243.000 USD khi bọn tội phạm mô phỏng giọng nói của ông chủ công ty mẹ để ra lệnh cho một nhân viên chuyển tiền cho một nhà cung cấp.
Vào năm 2022, công chúng đã bị lừa ước tính khoảng 11 triệu USD vì giọng nói mô phỏng.
Phòng tránh thế nào?
Hãy chú ý đến các cuộc gọi bất ngờ, ngay cả từ những người bạn biết rõ. Ngoài ra, đừng dựa vào nhận dạng trên điện thoại của người gọi vì thứ này cũng có thể bị làm giả.
Ví dụ: nếu bạn nhận được cuộc gọi từ người tự xưng là đại diện ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận tính hợp pháp của cuộc gọi.
Ngoài ra, hãy cẩn thận với thông tin nhận dạng cá nhân, như số bảo hiểm xã hội, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái và thú cưng.
Những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn với các ngân hàng, người môi giới và những người khác, làm giàu cho bản thân trong khi khiến bạn phá sản hoặc hủy hoại tín dụng của bạn.
Một trong những lời khuyên quan trọng khác là hãy hiểu rõ chính mình. Cụ thể, hãy biết rõ những vấn đề đang gặp phải để tránh bị người khác thao túng. Những kẻ lừa đảo thường tìm cách nói về một điểm yếu hay rắc rối nào đó có thể trúng tim đen, khiến bạn hoang mang và làm theo lời chúng.
Sự cảnh giác cũng là một biện pháp bảo vệ hợp lý. Deepfake có thể được sử dụng để lợi dụng sự tin tưởng của bạn về ai đó.
Nếu nghe thấy giọng của người quan trọng nói điều gì đó có vẻ không bình thường, hãy thận trọng và kiểm tra lại.
Tags