Ngân hàng Anh tiết lộ 28% người dùng đã trở thành nạn nhân của trò lừa sao chép giọng nói bằng AI

(PLO)- Tội phạm đang sử dụng AI để sao chép giọng nói và lừa mọi người cung cấp tiền hoặc thông tin cá nhân.

AI là gì?

AI (Trí tuệ nhân tạo) là công nghệ giúp máy móc thực hiện các nhiệm vụ mà thông thường chỉ con người mới làm được, chẳng hạn như nhận diện hình ảnh, hiểu ngôn ngữ, hoặc ra quyết định. AI có thể học từ dữ liệu và cải thiện hiệu suất theo thời gian mà không cần sự can thiệp của con người. Các ứng dụng phổ biến của AI hiện nay bao gồm trợ lý ảo, hệ thống đề xuất, và robot tự hành.

Mới đây, ngân hàng Starling (Anh) đã lên tiếng cảnh báo về sự gia tăng của các vụ lừa đảo sử dụng AI để sao chép giọng nói, lừa người dùng chia sẻ thông tin nhạy cảm hoặc chuyển tiền.

Ngân hàng Starling (Anh) vừa kêu gọi người dùng cảnh giác và thực hiện các biện pháp phòng ngừa để bảo vệ bản thân khỏi những mối đe dọa này. Ảnh: Pexels

Phía ngân hàng cho biết hiện tại họ đang xử lý hàng trăm vụ việc như vậy, và các hoạt động gian lận này có khả năng nhắm vào những cá nhân có tài khoản mạng xã hội.

Dựa trên dữ liệu gần đây do ngân hàng Starling công bố cho thấy, có đến 28% người lớn ở Anh tin rằng họ đã trở thành mục tiêu của một vụ lừa đảo sao chép giọng nói bằng AI trong năm qua. Tuy nhiên, gần một nửa (46%) người lớn ở Anh không biết về sự tồn tại của loại hình lừa đảo này.

Sự gia tăng của các vụ lừa đảo sao chép giọng nói bằng AI

Các báo cáo cho thấy tội phạm mạng hiện có thể sao chép giọng nói của một người chỉ bằng đoạn âm thanh mẫu dài khoảng 3 giây. Để nâng cao nhận thức về các vụ lừa đảo sao chép giọng nói bằng AI, ngân hàng Starling đã phát động chiến dịch Safe Phrases và Stop! Think Fraud của chính phủ.

Lisa Grahame, giám đốc an ninh thông tin tại ngân hàng Starling, cho biết: "Mọi người thường xuyên đăng nội dung trực tuyến có ghi âm giọng nói của mình mà không hề nghĩ rằng điều này khiến họ dễ bị lừa đảo hơn".

Chiến dịch Safe Phrases của Starling gợi ý rằng mọi người nên thiết lập một “cụm từ an toàn" duy nhất mà chỉ bạn bè thân thiết và gia đình của họ biết. Cụm từ này có thể được sử dụng để xác minh tính xác thực sự của họ trong các cuộc trò chuyện.

Thiết lập cụm từ an toàn để hạn chế trở thành nạn nhân của trò lừa đảo sao chép giọng nói bằng AI. Ảnh: Pexels

Ví dụ, bạn có thể thỏa thuận với vợ/chồng hoặc người thân trong gia đình bằng một biệt danh chỉ có hai người biết, ví dụ như “pepsicola”. Nếu một người nào đó liên lạc với bạn để mượn tiền, tự xưng là người thân hoặc bạn bè nhưng không biết được cụm từ an toàn thì bạn nên nghi ngờ rằng đó có thể là kẻ giả mạo.

Một trường hợp được báo vào năm ngoái tại Arizona (Hoa Kỳ), liên quan đến một người phụ nữ bị những kẻ lừa đảo sử dụng AI để sao chép giọng nói của cô con gái 15 tuổi, yêu cầu khoản tiền chuộc 1 triệu đô la Mỹ. Tình huống này có thể sẽ được ngăn chặn một phần nếu họ thiết lập cụm từ an toàn.

Tội phạm gian lận tài chính ở Anh và xứ Wales đang gia tăng do việc tiếp cận các công cụ AI ngày càng dễ. Theo UK Finance, tội phạm dạng này đã tăng 46% vào năm ngoái.

Nguy cơ của việc bị sao chép giọng nói bằng AI

Năm ngoái, có báo cáo rằng những kẻ lừa đảo đã tạo ra các quảng cáo việc làm gian lận, nhắm mục tiêu cụ thể đến những người tìm việc ở Anh. Những người này sau đó đã bị lừa bán sản phẩm trực tuyến, và cuối cùng những kẻ lừa đảo đã bỏ trốn cùng với số tiền chiếm đoạt được.

Tình trạng lừa đảo, mời gọi bán hàng online việc nhẹ lương cao cũng khá phổ biến tại Việt Nam. Đơn cử như trường hợp của anh L.A (quận 4), mỗi ngày phải nhận hàng chục cuộc gọi quấy rối, lừa đảo giao hàng, bán hàng online…

Nghiên cứu của ngân hàng Starling cho thấy trung bình một người lớn ở Anh đã bị lừa đảo 5 lần trong 12 tháng qua. Ảnh minh họa

"Những kẻ lừa đảo chỉ cần ba giây âm thanh mẫu để sao chép giọng nói của bạn, nhưng chỉ mất vài phút cùng gia đình và bạn bè để tạo cụm từ an toàn nhằm ngăn chặn chúng. Vì vậy, điều quan trọng hơn bao giờ hết là mọi người phải nhận thức được những kiểu lừa đảo này, cách bảo vệ bản thân và những người thân yêu khỏi trở thành nạn nhân", Lisa Grahame, Giám đốc An ninh thông tin tại Starling cho biết.

Bà cho biết, "Hy vọng rằng thông qua các chiến dịch như thế này, chúng tôi có thể cung cấp cho công chúng những thông tin họ cần để giữ an toàn cho bản thân. Chỉ cần có một cụm từ an toàn với bạn bè và gia đình, bạn có thể dễ dàng xác minh được ai đang ở đầu dây bên kia điện thoại."

Để khởi xướng chiến dịch, ngân hàng Starling đã mời diễn viên nổi tiếng James Nesbitt tham gia. Giọng nói của anh đã được nhân bản bằng công nghệ AI, nhấn mạnh sự dễ dàng mà bất kỳ ai cũng có thể trở thành nạn nhân của những vụ lừa đảo như vậy.

Đọc thêm

Đọc nhiều
Tiện ích
Tin mới