Một trong những kịch bản tồi tệ nhất mà con người có thể tưởng tượng được về trí tuệ nhân tạo (AI) là nó sẽ tạo ra các robot sát thủ rình rập trên chiến trường, dùng thuật toán tấn công và giết hại người khác. Thực tế, điều này có vẻ như đang xảy ra, thậm chí còn rối rắm hơn tưởng tượng, theo tờ Financial Times.
Xung đột tại Gaza là ví dụ. Nó cho thấy nhân loại có thể đang dần phụ thuộc vào AI để xác định mục tiêu trong các cuộc chiến.
Israel dùng AI để tìm chiến binh Hamas
Một báo cáo được tạp chí trực tuyến +972 (Israel) công bố gần đây nhấn mạnh sự phụ thuộc nghiêm trọng của Lực lượng Phòng vệ Israel vào một hệ thống xác định mục tiêu hàng loạt được AI hỗ trợ. Hệ thống này có tên là Lavender. Điều đáng nói là hệ thống này được sử dụng từ đầu cuộc xung đột.
Theo đó, hệ thống này xác định có 37.000 người Gaza bị nghi ngờ là Hamas. Kết quả là nhiều người bị đánh bom ngay tại nhà của họ, khiến cả gia đình của những người đó thiệt mạng.
Trả lời phỏng vấn +972, một số thành viên cơ quan tình báo Israel tỏ ra bất mãn trước vấn đề này.
Nhiều người cho biết hệ thống này có tỉ lệ lỗi ước tính là 10%, nên có thể xác định sai một số mục tiêu tấn công. Họ cũng tiết lộ rằng thông qua Lavender Lực lượng Phòng vệ Israel có thể cho phép tấn công một chiến binh cấp thấp của Hamas, thậm chí dù điều đó có thể dẫn theo nguy cơ giết chết 15 đến 20 thường dân. Đối với chỉ huy Hamas, nguy cơ thường dân thiệt mạng có thể cao hơn nhiều lần.
Một số nguồn tin cho biết sự tham gia của con người đối với quá trình xác định mục tiêu tự động trên là không nhiều, đôi khi kéo dài không quá 20 giây.
“Trong thực tế, nguyên tắc tỉ lệ về giữa sự tham gia của thuật toán và con người [trong quá trình xác định mục tiêu tại Gaza] là không tồn tại” – một nguồn tin cho biết.
Lực lượng Phòng vệ Israel đã bác bỏ một số khía cạnh của báo cáo này.
Theo đó, Lực lượng Israel cho biết: “Trái ngược với Hamas, Israel cam kết tuân thủ luật pháp quốc tế và hành động phù hợp”. Lực lượng Phòng vệ Israel cho rằng “hệ thống [Lavender]" là cơ sở dữ liệu được con người sử dụng để xác minh các mục tiêu đã xác định trước đó.
Tuy nhiên, sự thiệt hại kinh hoàng về sinh mạng dân thường ở Gaza trong những tuần đầu tiên của xung đột là điều không thể chối cãi. Theo cơ quan quản lý y tế Gaza, khoảng 14.800 người, trong đó có khoảng 6.000 trẻ em và 4.000 phụ nữ, đã bị giết ở Gaza trước lệnh ngừng bắn tạm thời vào ngày 24-11-2023. Đây cũng là thời gian hệ thống Lavender được sử dụng nhiều nhất.
Bà Avi Hasson – giám đốc điều hành của công ty công nghệ Startup Nation Central (Israel) – cho biết: “Nói chung, cuộc chiến ở Gaza mang đến những mối đe dọa nhưng cũng là cơ hội để thử nghiệm các công nghệ mới nổi trong lĩnh vực này. Cả trên chiến trường và trong bệnh viện đều có những công nghệ trước đây chưa từng được sử dụng".
Tranh luận về sử dụng AI trong quân đội
Israel là một trong những quốc gia có công nghệ tiên tiến nhất thế giới. Do đó, cách nước này dùng Lavender và các thiết bị khác đã gây ra cuộc tranh luận toàn cầu về việc sử dụng AI cho quân sự. Cuộc tranh luận này chủ yếu xảy ra giữa những người theo chủ nghĩa hiện thực và những người quan tâm về mặt đạo đức trong việc sử dụng AI.
Những người theo chủ nghĩa hiện thực cho rằng AI là một công nghệ lưỡng dụng, có thể được triển khai theo vô số cách, cả mặt tốt lẫn mặt xấu. Chẳng hạn, rất ít người sẽ phản đối việc sử dụng nó trong vũ khí phòng thủ như hệ thống Vòm Sắt (Iron Dome) của Israel – vốn đã ngăn chặn nhiều cuộc tấn công bằng tên lửa từ Gaza.
Tuy nhiên, ông Tom Simpson – GS triết học tại ĐH Oxford (Anh) – cho rằng hệ thống Lavender dường như đã gây ra thiệt hại “quá mức đáng kể”, mà không thể bào chữa được về mặt đạo đức.
Tuy nhiên, ông Simpson phản đối lệnh cấm hoàn toàn đối với vũ khí tự động gây chết người (LAWS), vì có khả năng các quốc gia ít tuân thủ luật pháp vẫn sẽ sử dụng chúng. Việc thực hiện bất kỳ lệnh cấm nào như vậy sẽ tạo ra “một lỗ hổng chiến lược khủng khiếp. Nếu các nền dân chủ tự do đáng được bảo vệ thì họ phải có những công cụ hiệu quả nhất” – ông nói.
Theo ông Simpson, robot, thường được hướng dẫn làm những công việc buồn tẻ, bẩn thỉu và nguy hiểm. “Nếu chúng ta có thể sử dụng chúng để cứu mạng người thì chúng ta nên làm điều đó” – ông Simpson nêu quan điểm.
Những người quan tâm về mặt đạo đức trong sử dụng AI cho rằng cần vạch ra ranh giới trong việc giao mọi trách nhiệm quân sự cho AI. Kinh nghiệm từ hệ thống Lavender cho thấy nhiều người đã quá tin tưởng vào máy móc.
Bà Mary Ellen O'Connell – GS luật tại ĐH Notre Dame (Mỹ) – cho rằng những người theo chủ nghĩa hiện thực có xu hướng ủng hộ việc thể hiện quyền lực hơn là bảo vệ pháp quyền.
Bà Hasson cũng thừa nhận công nghệ đang gây nên những “vấn đề” tại Gaza.
“Bây giờ chúng ta đang phải đối mặt tình huống tồi tệ về cái chết và đau khổ. Một số nguyên nhân là do công nghệ mới gây ra” – bà Hasson nói.
Financial Times cũng cho rằng nhân loại phải dẫn dắt công nghệ, chứ không nên để công nghệ dẫn dắt con người.