Ông Vitaly Kamluk, Giám đốc Nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) khu vực châu Á - Thái Bình Dương của Kaspersky, cho biết: “Một số người dự đoán rằng AI sẽ là mối đe dọa với sự tồn vong của loài người và là thứ sẽ hủy diệt nền văn minh nhân loại. Nhiều nhà điều hành cấp cao của các tập đoàn lớn thậm chí còn đứng lên kêu gọi giảm tốc độ hoạt động của AI để ngăn chặn thảm họa.
Đúng là với sự phát triển của AI, chúng ta đã chứng kiến sự đột phá của công nghệ có thể tổng hợp nội dung tương tự như những gì con người làm: từ hình ảnh đến âm thanh, video deepfake và thậm chí cả các cuộc hội thoại dựa trên văn bản không thể phân biệt được với con người.
Giống như hầu hết các đột phá công nghệ, AI là con dao hai lưỡi. Chúng ta luôn có thể tận dụng nó để làm lợi thế cho mình miễn là chúng ta biết cách đặt chỉ dẫn an toàn cho những cỗ máy thông minh này”.
Khi tội phạm mạng sử dụng AI để thực hiện hành vi phạm tội, chúng có thể đổ lỗi cho công nghệ này và cảm thấy ít phải chịu trách nhiệm hơn về hậu quả của cuộc tấn công mạng, điều này dẫn đến "hội chứng né tránh tội lỗi".
Khi thực hiện các tấn công hoặc làm bị thương những người đi đường, kẻ phạm tội sẽ chịu áp lực tâm lý nặng nề từ việc chứng kiến trực tiếp hậu quả mà chúng gây ra. Tuy nhiên, điều này sẽ không được áp dụng đối với một tên tội phạm mạng ảo đang đánh cắp và tấn công một nạn nhân mà chúng không bao giờ nhìn thấy.
Việc tạo ra AI mang lại tiền bạc hoặc lợi ích bất hợp pháp cho kẻ phạm tội một cách ‘thần kì’, tạo ra khoảng cách giữa tâm lý tội lỗi và hành vi phạm tội của chúng vì trên thực tế, người phạm tội không thực sự thực hiện hành vi, mà AI mới chính là chủ thể phạm tội”.
Một tác dụng phụ tâm lý khác của AI có thể ảnh hưởng đến các nhóm bảo mật CNTT là “ủy thác trách nhiệm”.
Khi ngày càng có nhiều quy trình và công cụ an ninh mạng được tự động hóa và ủy quyền cho mạng nơ-ron nhân tạo, con người có thể cảm thấy ít phải chịu trách nhiệm hơn nếu một cuộc tấn công mạng xảy ra, đặc biệt là trong môi trường công ty.
Kamluk đã chia sẻ một số hướng dẫn để các nhóm bảo mật tận dụng lợi ích của AI một cách an toàn:
- Khả năng truy cập: Hạn chế quyền truy cập ẩn danh vào các hệ thống thông minh thực sự được xây dựng và đào tạo trên khối lượng dữ liệu khổng lồ.
Tương tự như WWW, cần phải có một quy trình xử lý việc sử dụng và lạm dụng AI sai mục đích, đồng thời có các thông tin liên hệ rõ ràng để báo cáo hành vi lạm dụng.
- Quy định: Liên minh châu Âu đã bắt đầu thảo luận về việc đánh dấu nội dung được tạo ra với sự trợ giúp của AI. Bằng cách đó, người dùng ít nhất sẽ có cách nhanh chóng và đáng tin cậy để phát hiện ra các hình ảnh, âm thanh, video hoặc văn bản được tạo ra bởi AI.
Việc sản xuất nội dung được tạo ra bởi AI cần phải được kiểm soát, bao gồm cả các hạn chế xuất khẩu khi cần thiết.
- Giáo dục: Nâng cao nhận thức về cách phát hiện nội dung nhân tạo, cách xác thực nội dung đó và cách báo cáo hành vi lạm dụng có thể xảy ra là biện pháp hiệu quả nhất để đối phó với các tác nhân gây hại.
Các trường học nên dạy khái niệm về AI, sự khác biệt với trí thông minh tự nhiên, tính đáng tin cậy hoặc khả năng gặp sự cố trong việc tạo ra các hình ảnh, âm thanh, video hoặc văn bản bằng AI.
Các lập trình viên phần mềm phải được đào tạo về cách sử dụng công nghệ một cách có trách nhiệm và hiểu biết về hình phạt nếu lạm dụng AI.