Chuyên gia chia sẻ 7 cách nhận diện video giả mạo khuôn mặt

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

(PLO)- Công nghệ Deepfake hiện đang bị tội phạm mạng lợi dụng để tạo ra các video giả mạo khuôn mặt nhằm lừa đảo người dùng.

Deepfake là gì?

Deepfake là công nghệ sử dụng trí tuệ nhân tạo (AI) để thay thế chân dung của người này bằng người khác, giả mạo khuôn mặt trong video và các phương tiện kỹ thuật số khác.

Trong bối cảnh các tiến bộ công nghệ liên tục định hình mạng xã hội và phương tiện truyền thông đại chúng, Deepfake đang trở thành mối quan ngại lớn khi số lượng những vụ lừa đảo bằng công nghệ này ngày càng gia tăng.

Sau khi nghiên cứu trên diễn đàn darknet (darknet forum), nơi các tội phạm công nghệ thường xuyên hoạt động, Kaspersky cho biết tội phạm mạng hiện đang sử dụng Deepfake để lừa đảo, đến mức nhu cầu sử dụng vượt xa nguồn cung các phần mềm Deepfake hiện có trên thị trường.

Khi cầu vượt cung, các chuyên gia bảo mật dự đoán các vụ lừa đảo bằng Deepfake sẽ tăng cao với nhiều hình thức đa dạng và tinh vi hơn. Từ cung cấp một video giả mạo khuôn mặt chất lượng cao cho đến việc sử dụng hình ảnh người nổi tiếng trong luồng phát trực tuyến giả mạo (fake livestream) trên mạng xã hội.

Deepfake đang bị lạm dụng để tạo ra các video giả mạo khuôn mặt.
Deepfake đang bị lạm dụng để tạo ra các video giả mạo khuôn mặt. Ảnh: Kaspersky

“Deepfake đã trở thành cơn ác mộng đối với phụ nữ và xã hội. Tội phạm mạng hiện đang khai thác trí tuệ nhân tạo (AI) để ghép khuôn mặt nạn nhân vào ảnh và video khiêu dâm. Hình thức này nhằm mục đích thao túng dư luận bằng cách phát tán thông tin sai lệch, hoặc thậm chí gây tổn hại đến danh tiếng của tổ chức hoặc cá nhân,” bà Võ Dương Tú Diễm, Giám đốc khu vực Việt Nam của Kaspersky chia sẻ.

Deepfake đã trở thành mối đe dọa đối với an ninh mạng Việt Nam, nơi tội phạm mạng thường sử dụng các cuộc gọi video giả mạo khuôn mặt một cá nhân và vay mượn người thân, bạn bè của họ những khoản tiền lớn.

Cách nhận biết các cuộc gọi video giả mạo khuôn mặt

Nếu biết cách nhận diện các video giả mạo khuôn mặt, bạn sẽ phần nào hạn chế rơi vào bẫy của kẻ gian. Dưới đây là một số khuyến cáo từ các chuyên gia an ninh mạng Kaspersky:

- Sử dụng các công cụ phát hiện nội dung AI: Những phần mềm phát hiện nội dung do AI tạo ra sử dụng thuật toán tiên tiến để phân tích và xác định mức độ bị chỉnh sửa của hình ảnh, video, âm thanh.

- Video, hình ảnh có watermark (dấu chìm): Đây là một dấu hiệu để nhận biết nội dung được tạo bởi AI, không phải người thật hoặc video thật.

- Nhân vật trong video thường không bao giờ chớp mắt (hoặc chớp liên tục), không tự nhiên.

- Tóc, da và khuôn mặt có vẻ mờ hơn so với môi trường xung quanh, nhân vật trông mềm mại một cách bất thường.

- Thông thường, các thuật toán Deepfake sẽ giữ lại ánh sáng của các clip được sử dụng làm mẫu cho video giả, và ánh sáng này thường không phù hợp.

- Âm thanh có thể không khớp, đặc biệt nếu video bị làm giả nhưng âm thanh gốc không được chỉnh sửa cẩn thận.

Anh Ngô Minh Hiếu (Hiếu PC), kỹ sư tại trung tâm Giám sát An toàn Không gian mạng Quốc gia (NCSC - Bộ TT&TT) cho biết để tránh bị lừa tiền, bạn đọc nên gọi video hoặc FaceTime ít nhất một phút, hoặc gọi qua số điện thoại cá nhân của người mượn. Đồng thời Kiểm tra bằng cách hỏi một số câu hỏi để nghe giọng nói đó là của người thật hay do AI tạo ra.

Đọc thêm