Deepfakes: Ai cũng có thể là nạn nhân phim khiêu dâm
(PL)- “Deepfakes” tấn công vào những phụ nữ nổi tiếng với mục đích ban đầu nhằm thu hút lượt xem cho các video khiêu dâm nhưng…

Nhờ vào sự phát triển đạt đến mức tinh vi của công nghệ đồ họa, ngay lập tức hiện tượng “deepfakes” (tạm hiểu là: bộ công cụ dựa trên trí thông minh nhân tạo để hoán đổi gương mặt nhân vật trong phim khiêu dâm với gương mặt của bất kỳ ai) nổi lên như một làn sóng.

“Deepfakes” tấn công dữ dội vào những phụ nữ nổi tiếng với mục đích ban đầu nhằm thu hút lượt xem cho các video khiêu dâm. Tuy nhiên, không dừng lại ở đó, hệ lụy của các tin giả ngày càng trở nên khó lường.

Lắp ghép diễn viên nổi tiếng vào phim khiêu dâm

Tờ Washington Post gần đây đăng tải phản ứng của nữ diễn viên Scarlett Johansson - một trong những nạn nhân của các video khiêu dâm giả mạo. Scarlett Johansson đã được ghép vào hàng chục cảnh sex lan truyền trên mạng trong năm qua: Một video, được ghi chú là cảnh quay thật bị rò rỉ, đã được xem trên một trang web khiêu dâm lớn hơn 1,5 triệu lần. Nữ diễn viên này nói rằng: “Có lẽ đã quá muộn để phụ nữ và trẻ em tự bảo vệ mình trước vực thẳm gần như vô luật pháp (trên Internet)”.

“Không có gì ngăn được ai đó cắt và dán hình ảnh của tôi hoặc của bất kỳ ai lên một cơ thể khác và khiến nó trông như thật. Thực tế việc cố gắng bảo vệ bản thân khỏi Internet và sự đồi trụy của nó về cơ bản là một thất bại... Internet là một lỗ hổng lớn của sự tối tăm và làm hại con người” - nữ diễn viên nói với tờ Washington Post.

Ngôi sao của Avengers - Scarlett Johansson không phải là người duy nhất bị nhắm đến. Tờ Fox News còn đưa ra nhận định có một sự khác biệt rõ ràng trong cách sử dụng hình ảnh của các ngôi sao nam và nữ: Hình ảnh người nổi tiếng nam thường không được sử dụng cho mục đích khiêu dâm, với một đoạn clip nổi tiếng có khuôn mặt siêu phàm của Donald Cage vì sự hài hước, không phải để giật gân. Vì vậy, các video khiêu dâm giả mạo đã trở thành vũ khí để chống lại phụ nữ, làm mất uy tín, sỉ nhục, hay nói cách khác là quấy rối và lạm dụng tình dục. Các video khiêu dâm giả mạo đó ngày càng tinh vi, được đăng tải phổ biến trên các trang web khiêu dâm và ngày càng khó để phân biệt thật và giả.

Deepfakes: Ai cũng có thể là nạn nhân phim khiêu dâm - ảnh 1
Scarlett Johansson trong lễ công bố phim Avengers: Infinity War ở Los Angeles, Mỹ.  Ảnh: Jordan Strauss/Invision/AP

“Deepfakes” được tạo ra như thế nào?

Tờ BBC cũng cho biết một phần mềm thường được sử dụng để tạo các video này đã được tải xuống hơn 100.000 lần kể từ khi được công bố cách đây chưa đầy một tháng.

Giờ đây, các video giả có thể được tạo bằng cách sử dụng một kỹ thuật học máy được gọi là mạng đối lập sản sinh (generative adversarial network) hay được gọi là GAN.

Ian Goodfellow, một sinh viên mới tốt nghiệp đã phát minh ra GAN vào năm 2014 như một cách để tạo ra thuật toán các loại dữ liệu mới từ các bộ dữ liệu hiện có. Chẳng hạn, một GAN có thể nhìn vào hàng ngàn bức ảnh của Barack Obama và sau đó tạo ra một bức ảnh mới gần đúng với những bức ảnh đó mà không phải là bản sao chính xác của bất kỳ bức ảnh nào, như thể nó đã xuất hiện một bức chân dung hoàn toàn mới (mặc dù thực tế là ông Obama chưa từng chụp bức ảnh này). GAN cũng có thể được sử dụng để tạo âm thanh mới từ âm thanh hiện có hoặc văn bản mới từ văn bản hiện tại - đó là một công nghệ đa dụng.

Việc sử dụng kỹ thuật này hầu như chỉ giới hạn trong cộng đồng nghiên cứu AI (trí tuệ nhân tạo) cho đến cuối năm 2017, khi một người dùng Reddit đã kết hợp kỹ thuật này với những thông tin giả tạo để tạo thành “deepfakes”. Anh ta đang xây dựng GAN bằng cách sử dụng TensorFlow và phần mềm tải từ nguồn dữ liệu mở miễn phí của Google để làm lắp ghép khuôn mặt của những người nổi tiếng trên cơ thể phụ nữ trong các bộ phim khiêu dâm.

Hành vi trộm cắp danh tính

Tờ Washington Post cũng nhìn nhận rằng các nạn nhân của deepfakes có rất ít công cụ để chống trả. Các chuyên gia pháp lý cho biết các tác phẩm đó thường quá khó để điều tra và tồn tại trong một vùng xám pháp lý: Được xây dựng trên các bức ảnh công cộng, chúng là những sáng tạo mới thực sự, có nghĩa là chúng có thể được bảo vệ dưới dạng tự do ngôn luận.

Những người ủng hộ dân quyền đang theo đuổi các hoạt động pháp lý để trấn áp những gì họ gọi là khiêu dâm không có ý thức, sử dụng các chiến lược để chống quấy rối trực tuyến, tấn công mạng và trả thù bằng hành động tạo ra các video khiêu dâm giả mạo. Các luật sư cho biết trường hợp này có thể áp dụng các quy định pháp luật về quấy rối hoặc phỉ báng, đưa ra các lệnh cấm hoặc thông báo gỡ xuống trong trường hợp có đủ thông tin về danh tính hoặc kỹ thuật của người tạo ra deepfakes. Vào năm 2016, một người đàn ông ở California (Mỹ) đã bị buộc tội khi ghép gương mặt của vợ cũ vào hình ảnh khiêu dâm trực tuyến, các công tố viên ở đó buộc tội anh ta với 11 tội trộm cắp danh tính.

Hệ lụy không chỉ dừng lại trong các trò khiêu dâm

Tờ The Guardian đưa ra nhận định ở diện rộng hơn, công nghệ này có thể trở thành một làn sóng mới trong mặt trận tin giả. Không chỉ dừng lại ở các phương diện văn hóa giải trí, công nghệ “deepfakes” này đã tấn công đến các nguyên thủ quốc gia. Hai video giả mạo ông Barack Obama và Donald Trump như là dấu hiệu dự báo trước về mức độ trầm trọng.

Khi Danielle Citron, giáo sư luật tại ĐH Maryland (Mỹ), lần đầu tiên biết đến những bộ phim khiêu dâm giả mạo, ban đầu cô bị sốc bởi cách họ vi phạm một cách trực quan quyền riêng tư của những phụ nữ này. Cô nhận ra rằng nếu chúng lan rộng ra ngoài những trang mạng Reddit, chúng có thể còn nguy hiểm hơn. Chúng thậm chí có thể được vũ khí hóa theo cách làm suy yếu kết cấu của chính xã hội dân chủ. Không loại trừ trường hợp những “deepfakes” sẽ được sử dụng cho mục đích chính trị, gây chia rẽ sắc tộc, đảng phái…

KIM NGUYÊN