Bí quyết để tránh bị lừa đảo bởi các cuộc gọi video AI

0:00 / 0:00
0:00
  • Nữ miền Bắc
  • Nam miền Nam

(PLO)- Những năm gần đây, cuộc gọi video AI đã xuất hiện như một mối đe dọa mới trong thế giới số, lừa nạn nhân chia sẻ thông tin cá nhân hoặc thực hiện các giao dịch tài chính trái phép.

Sự phát triển của trí tuệ nhân tạo (AI), đặc biệt là AI tạo sinh, đang mở ra nhiều tiềm năng ứng dụng trong nhiều lĩnh vực khác nhau, từ giáo dục đến giải trí và kinh doanh. Tuy nhiên, như bất kỳ công nghệ mới nào, AI cũng đi kèm với những mặt trái, và một trong số đó là việc kẻ gian lợi dụng nó để thực hiện các vụ lừa đảo tinh vi.

Hiện nay, một trong những hình thức lừa đảo qua mạng đáng lo ngại nhất là cuộc gọi video AI, hay còn gọi là deepfake. Vậy loại hình lừa đảo này hoạt động ra sao, làm thế nào để nhận biết và phòng tránh?

Lừa đảo bằng cuộc gọi video AI là gì?

Về cơ bản, lừa đảo bằng cuộc gọi video AI sử dụng công nghệ deepfake để mạo danh một người nào đó, nhằm dụ dỗ hoặc tiết lộ những người liên quan tiết lộ thông tin cá nhân hoặc thậm chí là tiền bạc.

Công nghệ deepfake cho phép kẻ gian tạo ra những video hoặc hình ảnh chân thực đến mức người xem khó nhận ra sự giả mạo. Những hình ảnh này thường mô phỏng chính xác gương mặt và giọng nói của một người thật, khiến nạn nhân dễ tin tưởng rằng họ đang trò chuyện với người quen hoặc người có thẩm quyền.

Lừa đảo bằng cuộc gọi video AI đang nổi lên như một hình thức mới. Ảnh: Shutterstock
Lừa đảo bằng cuộc gọi video AI đang nổi lên như một hình thức mới. Ảnh: Shutterstock

Deepfake là gì và chúng hoạt động như thế nào?

Deepfake là sự kết hợp của hai từ "deep learning" (học sâu) và "fake" (giả mạo). Công nghệ deepfake sử dụng các mô hình AI, chủ yếu là mạng nơ-ron nhân tạo, để học hỏi và sao chép một cách chính xác các đặc điểm khuôn mặt, giọng nói và hành vi của một người. Kết quả là các video hoặc hình ảnh tạo ra bởi deepfake có thể trông rất chân thật, đến mức khiến nhiều người bị đánh lừa.

Ban đầu, deepfake được phát triển cho mục đích giải trí và nghệ thuật, chẳng hạn như việc tạo ra các meme hoặc video giả mạo hài hước. Tuy nhiên, cùng với sự phát triển của công nghệ, deepfake đã bị lợi dụng để phục vụ cho các mục đích xấu, bao gồm lừa đảo bằng cuộc gọi video, phát tán thông tin sai lệch và bôi nhọ danh tiếng của người khác.

Mục tiêu chính của các vụ lừa đảo qua deepfake thường là thông tin cá nhân và tiền bạc.

Cách nhận biết chiêu trò lừa đảo bằng cuộc gọi video AI

Dù công nghệ deepfake ngày càng phát triển và khó phân biệt, nhưng vẫn có những dấu hiệu giúp chúng ta nhận biết đâu là cuộc gọi video giả mạo được tạo bằng AI.

- Biểu cảm khuôn mặt không tự nhiên: Trong một số trường hợp, video deepfake thường gặp vấn đề trong việc sao chép chính xác biểu cảm khuôn mặt. Điều này có thể dẫn đến việc người giả mạo có nét mặt cứng nhắc, thiếu tự nhiên hoặc biểu cảm không khớp với ngữ cảnh.

- Giọng nói không khớp hoặc đều đều: Giọng nói của deepfake thường có âm điệu không tự nhiên, thiếu cảm xúc hoặc đều đều, khác với giọng điệu linh hoạt của con người thật.

- Bối cảnh video thay đổi kỳ lạ: Nếu bối cảnh phía sau người gọi thay đổi một cách bất thường hoặc có hiện tượng giật hình, đây có thể là dấu hiệu của deepfake. Các công nghệ hiện tại thường gặp khó khăn trong việc giữ ổn định khi người giả mạo di chuyển hoặc thay đổi tư thế đột ngột.

- Hành động không khớp với ngữ cảnh: Những cử chỉ như đứng lên, giơ tay lên đầu hoặc di chuyển tự nhiên thường không được các video deepfake mô phỏng chính xác.

Tuy nhiên, cần lưu ý rằng công nghệ deepfake đang phát triển rất nhanh, do đó, những cách nhận diện kể trên có thể sẽ sớm lỗi thời trong tương lai.

Cách bảo vệ bản thân trước các vụ lừa đảo bằng deepfake

Để phòng tránh các cuộc lừa đảo bằng deepfake, bạn nên tuân theo các nguyên tắc bảo mật thông tin dưới đây:

- Xác minh danh tính của người gọi: Trước khi chia sẻ bất kỳ thông tin quan trọng nào, hãy xác minh rằng người gọi là người thật. Bạn có thể kiểm tra số điện thoại, địa chỉ email hoặc yêu cầu người đó thực hiện một hành động mà chỉ người thật mới có thể làm, chẳng hạn như gửi tin nhắn hoặc thực hiện cuộc gọi khác từ một ứng dụng khác.

- Trò chuyện về những chi tiết mà chỉ người thật biết: Nếu bạn cảm thấy nghi ngờ, hãy thử hỏi những câu hỏi liên quan đến những chi tiết cá nhân mà chỉ người bạn thật sự biết mới có thể trả lời. Những kẻ lừa đảo thường lúng túng khi gặp phải các câu hỏi bất ngờ hoặc yêu cầu phải nhớ lại sự kiện trong quá khứ.

- Không chia sẻ thông tin nhạy cảm qua cuộc gọi video: Không chia sẻ thông tin cá nhân nhạy cảm như số tài khoản ngân hàng, mật khẩu, thẻ tín dụng… cho bất kì ai thông qua các cuộc gọi video.

- Sử dụng cụm từ bí mật: Mọi người nên tự đặt ra một “cụm từ bí mật” chỉ có người thân hoặc bạn bè thân thiết biết. Cụm từ này có thể được sử dụng để xác minh danh tính khi trò chuyện, đặc biệt là khi có liên quan đến tiền bạc. Ví dụ nếu ai đó mượn tiền của bạn nhưng không biết được cụm từ an toàn, rất có thể đó là kẻ giả mạo danh tính.

Công nghệ AI và deepfake đang tạo ra những cơ hội mới, nhưng đồng thời cũng mang lại những thách thức lớn trong việc bảo mật thông tin cá nhân. Để tránh trở thành nạn nhân của các trò lừa đảo tinh vi, hãy luôn cảnh giác, xác minh danh tính người gọi, và không bao giờ cung cấp thông tin nhạy cảm qua cuộc gọi video.

Đọc thêm