8 dự báo về tác động của AI đối với an ninh mạng năm 2026

(PLO)-Không đơn thuần đóng vai trò “thành viên tham gia”, khu vực châu Á - Thái Bình Dương (APAC) giờ đây là ngọn cờ đi đầu, dẫn dắt tốc độ phát triển của cuộc đua AI trên toàn cầu. Tuy nhiên, vị thế này cũng đặt ra những thách thức an ninh mạng chưa từng có.

Theo Tại khu vực châu Á - Thái Bình Dương, 78% chuyên gia được khảo sát cho biết họ sử dụng AI ít nhất mỗi tuần một lần, cao hơn mức trung bình toàn cầu là 72%. Con số này phản ánh tốc độ ứng dụng AI nhanh chóng và mức độ thâm nhập sâu của AI vào công việc hằng ngày trong khu vực.

AI phát triển bên cạnh những tiện lợi cũng đi kèm các vấn đề về bảo mật. Ảnh minh họa AI

Điểm khiến khu vực này thực sự khác biệt nằm ở cách AI thâm nhập sâu vào đời sống và kinh doanh: AI đang được ứng dụng bởi những tầng lớp người dùng phổ thông. Động lực này đến từ những người tiêu dùng "siêu kết nối" với tỉ lệ sở hữu thiết bị thông minh cực cao và một thế hệ trẻ am hiểu công nghệ. Chính động lực từ cơ sở này, kết hợp với sự đầu tư mạnh mẽ đã khiến APAC dần trở thành môi trường thử nghiệm AI sôi động nhất thế giới.

Tuy nhiên, với các nhà lãnh đạo an ninh mạng, vị thế tiên phong về AI của khu vực APAC vừa là hình mẫu, vừa là lời cảnh báo. Các chuyên gia Kaspersky cho rằng sự phát triển của AI đang tái định hình toàn bộ cục diện an ninh mạng năm 2026 thông qua 8 xu hướng chính.

Áp lực đào tạo nhận thức an ninh

Doanh nghiệp ngày càng chú trọng tới việc thảo luận về rủi ro từ nội dung tổng hợp và đào tạo nhân viên nhằm giảm nguy cơ trở thành nạn nhân. Deepfake đang trở thành một phần cố định trong các chương trình về bảo mật, đòi hỏi cách tiếp cận bài bản về đào tạo và chính sách nội bộ. Khi số lượng các nội dung giả mạo sử dụng deepfake tăng lên, các hình thức cũng ngày càng đa dạng hơn từ video, giọng nói đến hình ảnh.

Sự hoàn thiện của công nghệ giả mạo

Hình ảnh, video tạo bằng deepfake giờ đây đã trông khá “thật”, trong khi chất lượng giọng nói sẽ được cải tiến trong thời gian tới. Các công cụ tạo nội dung bằng AI đang ngày càng trở nên dễ tiếp cận hơn, ngay cả người không có chuyên môn cũng có thể tạo ra nội dung deepfake ở mức độ “tạm tin được” chỉ với vài thao tác. Hệ quả là mặt bằng chất lượng chung ngày càng được nâng cao, tạo điều kiện thuận lợi cho tội phạm mạng khai thác triệt để.

Khoảng trống trong định danh nội dung AI

Hiện vẫn chưa có tiêu chuẩn chung và đáng tin cậy để nhận diện nội dung do AI tạo ra. Các nhãn nhận diện hiện nay dễ bị bỏ qua hoặc xóa bỏ, đặc biệt với các mô hình mã nguồn mở. Thời gian tới, các bên sẽ thúc đẩy thêm nhiều sáng kiến mới cả về kỹ thuật lẫn quy định pháp lý nhằm giải quyết vấn đề này.

Rủi ro từ các cuộc tấn công có chủ đích

Công nghệ hoán đổi khuôn mặt và giọng nói trong thời gian thực đang cải thiện nhưng vẫn đòi hỏi kỹ năng kỹ thuật chuyên sâu nên khó phổ cập đại trà. Tuy nhiên, mức độ chân thực cao và khả năng thao túng video qua camera ảo khiến các cuộc lừa đảo trở nên thuyết phục hơn, làm gia tăng rủi ro trong những tình huống tấn công có chủ đích.

Mặt trái của mô hình mã nguồn mở

Các mô hình mã nguồn mở đang nhanh chóng bắt kịp về chức năng trong khi gần như không có rào cản sử dụng. Điều này làm mờ đi ranh giới giữa hai loại mô hình, đặt cả hai trước nguy cơ bị lợi dụng cho mục đích xấu, trong khi các mô hình mã nguồn đóng do doanh nghiệp kiểm soát thường có nhiều cơ chế hạn chế việc lạm dụng hơn.

Thách thức phân định thật - giả

AI hiện đã có thể tạo ra các email lừa đảo trau chuốt, hình ảnh thương hiệu thuyết phục và các trang web giả mạo tinh vi. Đồng thời, nhiều thương hiệu lớn cũng sử dụng nội dung do AI tạo trong quảng cáo khiến người tiêu dùng dần cảm thấy quen thuộc. Hệ quả tất yếu là việc phân biệt thật giả sẽ càng trở nên khó khăn cho cả người dùng lẫn hệ thống phát hiện tự động.

Tự động hóa quy trình tấn công mạng

Trong tương lai, AI sẽ hỗ trợ hầu hết các giai đoạn của một cuộc tấn công, từ chuẩn bị, liên lạc, dò quét lỗ hổng cho đến triển khai tấn công. Hiện nay, các nhóm tấn công đã dùng AI để viết mã độc, xây dựng hạ tầng và tự động hóa nhiều khâu vận hành. Kẻ tấn công cũng sẽ cố che giấu dấu vết sử dụng AI khiến việc phân tích và truy vết trở nên khó khăn hơn.

Chuyển dịch mô hình quản trị an ninh

Các hệ thống tự vận hành sẽ có khả năng quét hạ tầng liên tục, phát hiện lỗ hổng và thu thập thông tin theo ngữ cảnh, giúp cắt giảm đáng kể khối lượng công việc thủ công. Các công cụ bảo mật sẽ dần chuyển sang giao diện ngôn ngữ tự nhiên, cho phép sử dụng câu lệnh thay vì thao tác kỹ thuật phức tạp. Chuyên gia an ninh sẽ chuyển từ việc tìm kiếm dữ liệu sang ra quyết định dựa trên ngữ cảnh đã được chuẩn bị sẵn.

Cảnh báo và giải pháp phòng vệ

Ông Vladislav Tushkanov, Quản lý Nhóm Phát triển Nghiên cứu tại Kaspersky nhận định: "AI đang tái định hình bối cảnh an ninh mạng từ cả hai phía. Tội phạm mạng tận dụng AI để tự động hóa các cuộc tấn công, trong khi các chuyên gia bảo mật cũng ứng dụng AI để quét hệ thống và đưa ra quyết định nhanh hơn".

Ở góc độ khu vực, ông Adrian Hia, Giám đốc Điều hành Kaspersky khu vực châu Á - Thái Bình Dương cho biết: "Dù mang lại tiềm năng khổng lồ, sức nóng của AI cũng khiến các mối đe dọa mạng trở nên khó lường và lan rộng nhanh chóng hơn".

Để đảm bảo an toàn, các chuyên gia Kaspersky khuyến nghị tổ chức và doanh nghiệp cần luôn cập nhật phần mềm để ngăn chặn kẻ xấu khai thác lỗ hổng. Đồng thời, không để lộ dịch vụ truy cập từ xa (như Remote Desktop - RDP) ra mạng công cộng nếu không thật sự cần thiết và luôn sử dụng mật khẩu mạnh cho các dịch vụ này. Các đơn vị cũng cần thường xuyên sao lưu dữ liệu doanh nghiệp, tách biệt các bản sao lưu khỏi mạng chính để đảm bảo có thể truy cập nhanh trong trường hợp khẩn cấp.

Đọc thêm

Đọc nhiều
Tiện ích
Tin mới