Vai trò AI trong xung đột Trung Đông và các cuộc chiến hiện đại

(PLO)- Trí tuệ nhân tạo (AI) đang khiến các cuộc chiến hiện đại – như xung đột giữa Mỹ và Israel với Iran – diễn ra với tốc độ nhanh hơn, nhưng cũng tạo ra những rủi ro khó kiểm soát hơn.

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

Kể từ khi Israel và Mỹ phát động cuộc tấn công vào Iran hôm 28-2, cuộc xung đột này đã diễn ra với tốc độ chóng mặt.

Theo đài France24, chỉ trong 24 giờ đầu tiên của cuộc xung đột, 1.000 mục tiêu đã bị tấn công. Lãnh tụ Tối cao Iran – ông Ali Khamenei và nhiều quan chức cấp cao khác của Iran đã bị hạ sát trong các cuộc tấn công ngay đầu cuộc xung đột.

Trong một video được đăng tải trên mạng xã hội X hôm 11-3, Đô đốc Brad Cooper – người đứng đầu Bộ Tư lệnh Trung tâm Mỹ (CENTCOM) – cho biết lực lượng Mỹ vào thời điểm đó đã tấn công hơn 5.500 mục tiêu bên trong Iran. Ông Cooper cho rằng thành công của một phần các chiến dịch đó là nhờ các công cụ trí tuệ nhân tạo (AI) tiên tiến.

“Con người sẽ luôn đưa ra quyết định cuối cùng về việc bắn cái gì, không bắn cái gì và khi nào bắn. Nhưng các công cụ AI tiên tiến có thể biến các quy trình từng mất hàng giờ, thậm chí hàng ngày, thành chỉ trong vài giây" – ông nói.

AI-trong-xung-dot.jpg
Khu dinh thự của Lãnh tụ Tối cao Iran – ông Ali Khamenei trước và sau khi bị không kích hôm 28-2. Ảnh: GOOGLE/AIRBUS

Với tuyên bố này, ông Cooper cũng đã cho thấy cái nhìn hiếm hoi về cách AI được sử dụng trong chiến tranh hiện đại.

Lầu Năm Góc và công nghệ AI trước cuộc chiến với Iran

Kể từ khi công bố hợp đồng quốc phòng trị giá 200 triệu USD vào tháng 7-2025, công ty AI Anthropic nhanh chóng có những ảnh hưởng trong hoạt động của quân đội Mỹ. Trong đó, công cụ AI của công ty này, có tên gọi là “Claude”, cũng là một trong những mô hình AI đầu tiên được phê duyệt để hoạt động trên các mạng lưới quân sự mật của Mỹ.

Sau đó, một cuộc tranh cãi công khai đã nổ ra.

Vài ngày trước khi Mỹ mở các cuộc tấn công vào Iran, ban lãnh đạo của Anthropic đã từ chối yêu cầu của Lầu Năm Góc về quyền truy cập “không hạn chế” vào Claude.

Đồng sáng lập Anthropic – ông Dario Amodei tuyên bố rằng Anthropic không thể “với lương tâm trong sáng” chấp thuận các yêu cầu của Lầu Năm Góc.

Theo France24, Anthropic ngụ ý rằng Bộ Quốc phòng Mỹ đang cố gắng sử dụng các mô hình AI của họ cho việc giám sát nội địa quy mô lớn, và cho vũ khí tự động hoàn toàn. Chỉ vài giờ sau khi tuyên bố được đưa ra, một công ty AI khác – OpenAI của ông Sam Altman – đã nhanh chóng thế vị trí của Anthropic để hợp tác với Bộ Quốc phòng Mỹ.

Bộ trưởng Quốc phòng Mỹ Pete Hegseth sau đó đã cấm Anthropic, gọi quyết định từ chối hợp đồng quốc phòng của Lầu Năm Góc với công ty này là “một bài học điển hình về sự kiêu ngạo và phản bội”. Ông cũng cho biết bộ này sẽ xếp Anthropic vào danh sách rủi ro chuỗi cung ứng đối với an ninh quốc gia. Đáp trả, Anthropic đã kiện Bộ Quốc phòng và một số cơ quan liên bang khác.

501953.jpg
Bộ trưởng Quốc phòng Mỹ Pete Hegseth. Ảnh: AFP

AI có hoàn hảo?

Theo các báo cáo, quân đội Mỹ đã sử dụng Hệ thống Thông minh Maven do công ty Palantir và công nghệ của Anthropic phát triển trong các chiến dịch ở Iran. Tờ The Wall Street Journal cũng đưa tin Lầu Năm Góc sử dụng công cụ AI hỗ trợ để bắt giữ Tổng thống Venezuela Nicolas Maduro.

Chi tiết chính xác về việc sử dụng hệ thống này dường như không được công khai. Tiến sĩ Heidy Khlaaf – nhà khoa học AI trưởng Viện AI Now – cho biết vai trò chính của hệ thống này là tối ưu hóa cái gọi là "chuỗi tiêu diệt". Đây là một khái niệm quân sự xác định trình tự của một cuộc tấn công.

"Điều đó bao gồm giám sát, thu thập thông tin tình báo, lựa chọn và cuối cùng là tấn công mục tiêu" – bà Khlaaf nói.

Bà cho biết AI có thể giảm đáng kể thời gian cho mỗi bước và số lượng nhân viên cần thiết để thực hiện các nhiệm vụ. "Ví dụ, Maven – hệ thống công ty AI Palantir – khẳng định rằng công nghệ của họ cho phép một đơn vị chỉ gồm 20 người thực hiện công việc của 2.000 nhân viên. Tốc độ là điều đang được nói đến ở đây".

Theo bà Khlaaf, hầu hết các công cụ AI này thu thập, phân tích và tổng hợp dữ liệu trong "hệ thống hỗ trợ ra quyết định". Về mặt lý thuyết, hệ thống hỗ trợ ra quyết định chỉ đưa ra các khuyến nghị quân sự và cần sự giám sát. Tuy nhiên, bà cho rằng sự giám sát đó có thể không hiệu quả lắm.

“Con người có cái mà chúng ta gọi là thiên kiến ​​tự động hóa, đó là xu hướng con người ưu tiên các đề xuất được đưa ra bởi các hệ thống tự động như AI. Vì vậy, sự giám sát đó thực sự rất hời hợt trong thực tế, đặc biệt là trong lĩnh vực quân sự, nơi thiên kiến ​​tự động hóa là tồi tệ nhất” – bà Khlaaf lập luận.

Thế nhưng, Mỹ không phải là chính phủ duy nhất sử dụng AI để tối ưu hóa chuỗi tiêu diệt mục tiêu.

Trước khi máy bay chiến đấu của Israel bắn tên lửa đạn đạo giết chết ông Ali Khamenei, các cơ quan tình báo Israel đã sử dụng AI từ lâu để giám sát các camera giao thông của Tehran và chặn bắt các cuộc liên lạc.

Nền tảng chính được phía Israel sử dụng hiện nay là một hệ thống AI có tên Habsora, được cho là đã được sử dụng trong xung đột ở Gaza.

Các cựu sĩ quan tình báo mô tả hệ thống này tạo điều kiện “nhà máy ám sát hàng loạt” ở Gaza.

Điều này thậm chí còn đáng lo ngại hơn khi xét đến tỉ lệ không chính xác của AI.

Bà Khlaaf cho biết AI tạo sinh và các mô hình ngôn ngữ lớn (LLM) thường có tỉ lệ chính xác thấp tới 50%. Đối với các hệ thống nhắm mục tiêu, chẳng hạn những hệ thống được điều tra trong các chiến dịch của Israel ở Gaza như Gospel hay Lavender, độ chính xác chỉ thấp tới 25-30% trong một số trường hợp.

Hầu hết mô hình AI được sử dụng trong quân đội đều là các “hộp đen” – hoạt động bên trong của chúng là một bí ẩn đối với người dùng.

1800x1201 (8).jpg
Ai được quân đội nhiều nước tích hợp trong nhiều loại vũ khí. Ảnh: BLOOMBERG

“Đây là một vấn đề lớn vì nó che khuất hoàn toàn trách nhiệm giải trình. Không có cách nào biết được liệu các cuộc tấn công là cố ý, liệu đó có phải là thất bại tình báo hay liệu AI có không chính xác hay không. Bản chất hộp đen của AI khiến nó đặc biệt khó hiểu” – bà nói.

Một nghiên cứu gần đây của Giáo sư Kenneth Payne từ Khoa Nghiên cứu Quốc phòng tại Đại học King's College London (Anh) khiến nhiều người đặt câu hỏi về AI trong quân sự.

Ba mô hình AI hàng đầu là các phiên bản của GPT, Claude và Gemini đã được đưa vào một giải đấu gồm 21 kịch bản khủng hoảng hạt nhân mô phỏng. Theo bài báo, 95% các kịch bản chứng kiến ​​việc sử dụng hạt nhân chiến thuật và 76% đạt đến các mối đe dọa hạt nhân chiến lược.

"Claude và Gemini đặc biệt coi vũ khí hạt nhân là các lựa chọn chiến lược hợp pháp, chứ không phải là ngưỡng đạo đức, thường thảo luận về việc sử dụng hạt nhân theo các thuật ngữ hoàn toàn mang tính công cụ" – bài báo cho biết.

"Những kết quả đó nên khiến chúng ta phải suy nghĩ lại. Có rất nhiều nghiên cứu cho thấy AI làm suy yếu sự kiềm chế và làm tăng nguy cơ leo thang xung đột. Điều này không nên liên quan đến sinh mạng con người” – bà Khlaaf nói.

Đừng bỏ lỡ

Video đang xem nhiều

Đọc thêm