Trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra

(PLO)- Mặc dù nâng cao trải nghiệm người dùng, nhưng AI cũng bị kẻ gian lạm dụng tấn công deepfake, mở ra nhiều hình thức lừa đảo tinh vi chưa từng có. 

Báo cáo Identity Fraud năm 2025 cho biết, trung bình cứ 5 phút lại có một cuộc tấn công deepfake xảy ra.

Diễn đàn Kinh tế Thế giới (World Economic Forum) dự báo, đến năm 2026, có thể tới 90% nội dung trực tuyến sẽ được tạo ra bằng AI. Thoạt nghe, nhiều người có thể cho rằng mục tiêu chính của các cuộc tấn công deepfake và phishing AI là những người nổi tiếng hay các nhân vật có tiếng tăm. Tuy nhiên, mục tiêu và động cơ chính vẫn không khác gì so với các vụ lừa đảo từ trước tới nay.

3 cách AI đang được sử dụng để đánh cắp dữ liệu của bạn

Phishing là một hình thức lừa đảo trên Internet nhằm dụ dỗ nạn nhân tiết lộ thông tin đăng nhập, hoặc chi tiết thẻ ngân hàng.

Hình thức này có thể nhắm tới cả cá nhân lẫn doanh nghiệp và được thực hiện trên diện rộng, hoặc cá nhân hóa theo từng đối tượng.

Tin nhắn phishing thường giả danh thông báo từ ngân hàng, nhà cung cấp dịch vụ, hệ thống thanh toán điện tử, hoặc các tổ chức khác.

Trong trường hợp lừa đảo theo hình thức phishing nhắm mục tiêu cụ thể, kẻ lừa đảo thậm chí còn giả mạo người quen biết của nạn nhân.

Trước đây, các nội dung phishing thường sơ sài, đầy lỗi sai với nội dung thiếu thuyết phục. Giờ đây, các mô hình ngôn ngữ lớn (LLM) cho phép kẻ tấn công tạo ra các tin nhắn và trang web cá nhân hóa, đưa ra thông điệp thuyết phục, với ngữ pháp chính xác, cấu trúc logic, và các đoạn văn mượt mà.

Ngày nay, khi phishing trở thành mối đe dọa toàn cầu, những kẻ tấn công còn có thể nhắm đến các cá nhân sử dụng ngôn ngữ mà chúng không thành thạo, nhờ vào khả năng sáng tạo nội dung của AI.

Thêm vào đó, chúng có thể sao chép phong cách viết của cá nhân cụ thể, chẳng hạn như đối tác kinh doanh hay đồng nghiệp bằng cách phân tích bài đăng mạng xã hội, hoặc các nội dung khác liên quan đến cá nhân đó.

Hơn nữa, trong thời đại số hiện đại, công nghệ AI còn cho phép tạo ra các hình ảnh bắt mắt hoặc thậm chí dựng toàn bộ Landing Page một cách dễ dàng. Đáng nói, những công cụ này cũng bị tội phạm mạng lợi dụng để sản xuất các tài liệu đầy tính thuyết phục nhằm phục vụ cho việc lừa đảo theo hình thức phishing.

Tấn công deepfake ngày càng phổ biến dưới nhiều hình thức.

Tấn công Deepfake âm thanh

Deepfake âm thanh là công nghệ sử dụng trí tuệ nhân tạo để tạo ra những đoạn âm thanh giả mạo giọng nói của người khác một cách chân thực.

Chỉ với vài giây ghi âm giọng nói, AI có thể tạo ra các bản audio y hệt giọng nói của ai đó thân quen, chẳng hạn như bạn bè hoặc người thân.

Hãy tưởng tượng, kẻ tấn công chiếm được tài khoản trên một ứng dụng nhắn tin của bạn, sau đó sử dụng các đoạn tin nhắn thoại trong cuộc trò chuyện để tạo ra bản ghi âm giả mạo giọng nói của bạn. Chúng có thể gửi các tin nhắn này đến bạn bè hoặc người thân của bạn.

Điều đáng sợ là, với công nghệ ngày càng phát triển, những cuộc tấn công này hoàn toàn có thể xảy ra. Kẻ tấn công có thể lợi dụng giọng nói của bạn để yêu cầu chuyển tiền khẩn cấp hoặc cung cấp thông tin nhạy cảm, dựa vào sự tin tưởng giữa các cá nhân để thực hiện hành vi lừa đảo ở cả cấp độ cá nhân lẫn doanh nghiệp.

Tấn công Deepfake video

Kẻ tấn công còn có thể sử dụng công cụ AI để tạo ra các đoạn video giả mạo deepfake chỉ từ một bức ảnh duy nhất. Nếu bạn nghĩ rằng điều này chỉ có thể xuất hiện trong các bộ phim khoa học viễn tưởng với công nghệ CGI phức tạp, đòi hỏi kiến thức chuyên sâu về khoa học máy tính, bạn sẽ bất ngờ khi đọc tiếp.

Chỉ với vài hướng dẫn cơ bản, bạn có thể sử dụng dễ dàng những phần mềm phức tạp, để hoán đổi khuôn mặt trong video, đồng bộ chuyển động môi, tinh chỉnh các lỗi AI tạo ra, và thêm giọng nói chân thực cho nhân vật.

Với những công cụ này trong tay, kẻ tấn công có thể nghĩ ra những âm mưu tưởng chừng như không thể, chẳng hạn như tạo ra các quảng cáo giả mạo, thực hiện các cuộc gọi lừa đảo. Những hành vi này gây ra tổn thất tài chính nghiêm trọng cho các nạn nhân.

Thực tế đáng báo động: Từ hình thức phishing AI đến deepfake các nhân vật nổi tiếng

Kaspersky đã quan sát và phát hiện ra rằng, tội phạm mạng đang sử dụng các mô hình ngôn ngữ lớn (LLM) để tạo nội dung cho các cuộc tấn công phishing và lừa đảo quy mô lớn.

Những cuộc tấn công này thường để lại dấu vết đặc trưng của AI, chẳng hạn như các cụm từ “Là một mô hình ngôn ngữ AI…” hoặc “Mặc dù tôi không thể làm chính xác điều bạn muốn, nhưng tôi có thể thử điều gì đó tương tự.” Những dấu hiệu trên đã tiết lộ nội dung giả mạo đó được tạo ra bởi LLM.

Việc ứng dụng LLM để tạo nội dung, khiến kẻ xấu dễ dàng tự động hóa tạo ra hàng chục, thậm chí hàng trăm trang web phishing và lừa đảo với nội dung thuyết phục, khiến các cuộc tấn công này càng trở nên khó phát hiện hơn.

Ngoài việc tấn công theo hình thức phishing, đã có nhiều bài học về các vụ lừa đảo sử dụng công nghệ deepfake. Đơn cử, một nạn nhân đã “rơi vào bẫy” sau khi nhận được thông báo rằng họ được Elon Musk chọn để đầu tư vào một dự án mới và được mời tham gia một cuộc họp trực tuyến.

Đến giờ hẹn, một deepfake của Elon Musk đã trình bày chi tiết về dự án với một nhóm người tham dự, sau đó kêu gọi đóng góp tài chính, từ đó gây thiệt hại lớn cho nạn nhân.

Deepfake không chỉ dừng lại ở các vụ lừa đảo đầu tư tài chính. Một ví dụ khác là các vụ lừa đảo tình cảm (AI romantic scams), trong đó deepfake được sử dụng để tạo ra các nhân vật hư cấu, tương tác với nạn nhân thông qua các cuộc gọi video.

Sau khi lấy được lòng tin của nạn nhân, kẻ lừa đảo sẽ yêu cầu chuyển tiền để giải quyết các tình huống khẩn cấp, chi phí đi lại, hoặc các khoản vay.

Gần đây, một nhóm hơn hai chục người liên quan đến các vụ lừa đảo kiểu này đã bị bắt sau khi chiếm đoạt 46 triệu USD từ các nạn nhân tại Singapore, Ấn Độ…

Giọng nói giả mạo (voice fakes) cũng đã được sử dụng trong các vụ lừa đảo nhắm vào cá nhân, cũng như trong các cuộc tấn công nhằm vào các ngân hàng sử dụng hệ thống xác thực bằng giọng nói.

Làm thế nào để tự bảo vệ bản thân trước các mối đe dọa an ninh mạng sử dụng AI?

Khi công nghệ AI ngày càng phát triển, các biện pháp phòng thủ cũng cần được nâng cấp. Các biện pháp này có thể chia thành hai nhóm chính: kỹ thuật và phi kỹ thuật.

Về mặt kỹ thuật, các mô hình ngôn ngữ lớn (LLM) trong tương lai có thể sẽ tích hợp các ký hiệu chìm (watermark). Những ký hiệu này không thể nhận biết được bằng mắt thường nhưng có thể được phát hiện bằng thuật toán, giúp xác định và gắn nhãn nội dung do AI tạo ra trên môi trường trực tuyến.

Tuy nhiên, điều quan trọng cần lưu ý là phương pháp này chủ yếu hiệu quả với các mô hình lớn được phát triển bởi các tập đoàn công nghệ lớn.

Nếu kẻ xấu không sử dụng các mô hình có sẵn mà tự phát triển mô hình riêng, chúng sẽ không bị ảnh hưởng bởi những dấu hiệu nhận diện này và có thể dễ dàng né tránh hoặc "lách luật”.

Một công nghệ đầy hứa hẹn khác là các công cụ phát hiện deepfake. Các công cụ này được thiết kế để nhận diện các đặc điểm bất thường trong hình ảnh chỉnh sửa, sự dao động bất thường trong giọng nói, cách dùng từ không tự nhiên trong văn bản và các dấu hiệu khác cho thấy có sự can thiệp của AI.

Tuy nhiên, thách thức lớn nhất là các công cụ này phải liên tục được cải tiến để theo kịp tốc độ phát triển nhanh chóng của công nghệ AI tạo sinh (generative AI), đảm bảo tính hiệu quả lâu dài.

Thay vì lo sợ, chúng ta nên tập trung vào việc nâng cao nhận thức và cải thiện hiểu biết về an ninh mạng. Mỗi cá nhân có thể tự bảo vệ mình bằng cách luôn cập nhật thông tin, cảnh giác và cẩn trọng trong các tương tác trực tuyến.

Đọc thêm

Đọc nhiều
Tiện ích
Tin mới