Chủ tịch Microsoft: Robot chiến tranh là một vấn đề đạo đức

Trả lời phỏng vấn tờ The Telegraph của Anh, Chủ tịch Tập đoàn Microsoft Brad Smith nói việc sử dụng các hệ thống vũ khí giết người, với khả năng tự tìm kiếm mục tiêu và phát động tấn công, đã đặt ra một loạt câu hỏi thuộc phạm trù đạo đức, trở thành vấn đề cấp bách mà các quốc gia phải ưu tiên xem xét.

Ông Smith cho biết công nghệ chiến tranh đang phát triển như vũ bão với những thiết bị bay, thiết bị lặn và xe tăng không người lái được trang bị các hệ thống vũ khí sát thương có thể được vận hành không cần, hoặc cần rất hạn chế sự điều khiển trực tiếp của con người. Việc này "sau cùng sẽ lan rộng ra... rất nhiều quốc gia" trên thế giới. 

Ảnh minh họa. Ảnh: WARNER BR

Mỹ, Trung Quốc, Israel, Hàn Quốc, Nga và Anh là những quốc gia tham gia mạnh mẽ vào cuộc chạy đua robot chiến tranh bằng việc phát triển hệ thống vũ khí với mức độ tự động hóa đáng kể trong quá trình lựa chọn và tấn công mục tiêu.

Công nghệ đang trở thành một trọng điểm ngày càng quan trọng đối với các quốc gia, vì quyết định chiến tranh sẽ là dễ dàng hơn khi các đơn vị binh sĩ được thay thế bằng các máy móc vô tri.

Nhưng người ta vẫn không thể thống nhất được ai sẽ thực sự chịu trách nhiệm cho những thương vong do những vũ khí tự động này gây ra, đơn vị thiết kế - phát triển, đơn vị sản xuất, đơn vị chỉ huy hay chính con robot đó?

Ông Smith có quan điểm các robot giết người "không được phép tự quyết định tham gia vào trận chiến hay tự quyết định nó sẽ tấn công ai", và thuyết phục rằng cần xây dựng một công ước quốc tế để quản lý việc sử dụng những vũ khí chết người này.

"Ngày nay, an toàn của dân thường đang bị đe dọa. Chúng ta cần nhiều hơn nữa những hành động ngay lập tức, và trong một Hiệp ước Geneve về vũ khí số, cần có những quy định để bảo vệ cả dân thường và binh sĩ", ông Smith nói.

Phát biểu trong buổi ra mắt cuốn sách Tools and Weapons, ông Brad Smith cũng cho biết cần có những điều luật quốc tế chặt chẽ hơn đối với việc sử dụng công nghệ nhận diện khuôn mặt và các dạng trí tuệ nhân tạo khác.

"Cần có một bộ luật mới cho lĩnh vực này, chúng ta cần những quy định về công nghệ nhận diện khuôn mặt trên toàn thế giới để ngăn ngừa khả năng chúng có thể bị lạm dụng".

Sự phát triển của các vũ khí tấn công tự động đang vấp phải sự phản đối ngày càng gia tăng. Hàng ngàn nhân viên của Google đã ký cam kết không phát triển trí tuệ nhân tạo dùng cho vũ khí. Trong khi đó, chiến dịch quốc tế về chấm dứt sử dụng các robot giết người đã thu hút đến 113 tổ chức phi chính phủ đến từ 57 quốc gia trên thế giới. 

Đừng bỏ lỡ

Video đang xem nhiều

Đọc thêm