Luật Trí tuệ nhân tạo và 4 điểm đáng chú ý

(PLO)- Luật Trí tuệ nhân tạo có nhiều điểm đáng chú ý như nêu rõ các hành vi bị nghiêm cấm trong hoạt động AI, buộc gắn nhãn cảnh báo,…

Quốc hội vừa thông qua Luật Trí tuệ nhân tạo (AI), đánh dấu bước tiến quan trọng trong việc xây dựng hành lang pháp lý cho hoạt động nghiên cứu, phát triển, ứng dụng và quản lý AI tại Việt Nam.

Luật AI tạo gồm 8 chương, 35 điều, điều chỉnh toàn diện các loại hệ thống AI, từ khâu nghiên cứu, phát triển, cung cấp dịch vụ đến triển khai và sử dụng. Luật sẽ có hiệu lực từ ngày 1-3-2026.

Luật AI đặt nền móng cho một khung pháp lý đầy đủ nhằm thúc đẩy đổi mới sáng tạo nhưng vẫn bảo đảm an toàn, quyền lợi người dân và lợi ích xã hội. Trong đó, nhiều quy định nổi bật được chú ý như: Buộc gắn nhãn, cảnh báo đối với nội dung do AI tạo ra, xác định rõ các hành vi bị nghiêm cấm, phân loại hệ thống AI theo mức rủi ro, xử lý trách nhiệm và bồi thường thiệt hại.

Các hành vi bị nghiêm cấm trong hoạt động trí tuệ nhân tạo

Điều 7 Luật AI quy định các hành vi bị cấm nhằm bảo vệ an ninh, quyền con người và lợi ích chung. Cụ thể:

Thứ nhất, nghiêm cấm lợi dụng, chiếm đoạt hệ thống AI để thực hiện hành vi vi phạm pháp luật, xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân.

Thứ hai, phát triển, cung cấp, triển khai hoặc sử dụng các hệ thống AI nhằm mục đích thực hiện các hành vi bị nghiêm cấm theo quy định của luật; sử dụng yếu tố giả mạo hoặc mô phỏng người, sự kiện thật để lừa dối hoặc thao túng nhận thức, hành vi của con người một cách có chủ đích và có hệ thống, gây tổn hại nghiêm trọng đến quyền, lợi ích hợp pháp của con người;

Lấy con người làm trung tâm

Theo khoản 1 Điều 4 Luật AI, AI phải lấy con người làm trung tâm; bảo đảm quyền con người, quyền riêng tư, lợi ích quốc gia, lợi ích công cộng và an ninh quốc gia; tuân thủ Hiến pháp và pháp luật.

Lợi dụng điểm yếu của nhóm người dễ bị tổn thương, gồm trẻ em, người cao tuổi, người khuyết tật, người dân tộc thiểu số hoặc người mất năng lực hành vi dân sự, người bị hạn chế năng lực hành vi dân sự, người có khó khăn trong nhận thức, làm chủ hành vi, để gây tổn hại cho chính họ hoặc người khác; Tạo ra hoặc phổ biến nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến an ninh quốc gia, trật tự, an toàn xã hội.

Thứ ba, thu thập, xử lý hoặc sử dụng dữ liệu để phát triển, huấn luyện, kiểm thử hoặc vận hành hệ thống AI với quy định của pháp luật về dữ liệu, bảo vệ dữ liệu cá nhân, sở hữu trí tuệ và an ninh mạng.

Thứ tư, cản trở, vô hiệu hóa hoặc làm sai lệch cơ chế giám sát, can thiệp và kiểm soát của con người đối với hệ thống AI theo quy định của Luật này.

Thứ năm, che giấu thông tin bắt buộc phải công khai, minh bạch hoặc giải trình; tẩy xóa, làm sai lệch các thông tin, nhãn, cảnh báo bắt buộc trong hoạt động AI.

Thứ sáu, lợi dụng hoạt động nghiên cứu, thử nghiệm, đánh giá hoặc kiểm định hệ thống AI để thực hiện hành vi trái quy định của luật.

Bắt buộc gắn dấu hiệu nhận biết

Về trách nhiệm minh bạch, Điều 11 Luật AI nêu rõ bên triển khai có trách nhiệm bảo đảm âm thanh, hình ảnh, video được tạo ra hoặc chỉnh sửa bằng hệ thống AI nhằm mô phỏng, giả lập ngoại hình, giọng nói của người thật hoặc tái hiện sự kiện thực tế phải được gắn nhãn dễ nhận biết để phân biệt với nội dung thật.

Đối với sản phẩm là tác phẩm điện ảnh, nghệ thuật hoặc sáng tạo, việc gắn nhãn quy định tại khoản này được thực hiện theo phương thức phù hợp, bảo đảm không làm cản trở việc hiển thị, trình diễn hoặc thưởng thức tác phẩm.

Quốc hội đã thông qua Luật Trí tuệ nhân tạo. Ảnh minh họa: THẢO HIỀN

3 mức độ rủi ro của hệ thống AI

Theo Điều 9, hệ thống AI được phân loại theo ba mức rủi ro (thấp, trung bình và cao) nhằm áp dụng nghĩa vụ quản lý tương ứng.

- AI rủi ro thấp là những hệ thống không thuộc hai loại trên, thường là công cụ hỗ trợ đơn giản hoặc có phạm vi tác động nhỏ.

- AI rủi ro trung bình là các hệ thống có khả năng gây nhầm lẫn hoặc thao túng người sử dụng, đặc biệt khi người dùng không nhận biết được rằng họ đang tương tác với AI. Các ứng dụng có nguy cơ tác động đến hành vi hoặc nhận thức nằm trong nhóm này.

- AI rủi ro cao là các hệ thống có khả năng gây thiệt hại đáng kể đến tính mạng, sức khỏe, quyền con người, an ninh quốc gia hoặc lợi ích công cộng. Đây là nhóm phải chịu cơ chế giám sát và đánh giá nghiêm ngặt nhất.

Tiêu chí phân loại dựa trên mức độ ảnh hưởng đến quyền con người, an toàn, an ninh, lĩnh vực sử dụng và quy mô tác động. Chính phủ sẽ hướng dẫn chi tiết cách phân loại và xây dựng danh mục hệ thống cụ thể.

Bồi thường thiệt hại dù không có lỗi

Theo Điều 29 Luật AI, về xử lý vi phạm và trách nhiệm bồi thường thiệt hại được nêu rõ như sau:

Tổ chức, cá nhân có hành vi vi phạm quy định của Luật này và quy định khác của pháp luật có liên quan đến AI thì tùy theo tính chất, mức độ, hậu quả của hành vi vi phạm thì bị xử phạt vi phạm hành chính hoặc bị truy cứu trách nhiệm hình sự, nếu gây thiệt hại thì phải bồi thường theo quy định của pháp luật dân sự.

Trường hợp hệ thống AI có rủi ro cao được quản lý, vận hành và sử dụng đúng quy định nhưng vẫn phát sinh thiệt hại thì bên triển khai phải chịu trách nhiệm bồi thường cho người bị thiệt hại. Sau khi bồi thường, bên triển khai yêu cầu nhà cung cấp, nhà phát triển hoặc các bên liên quan hoàn trả khoản tiền bồi thường nếu có thỏa thuận giữa các bên.

Trách nhiệm bồi thường thiệt hại quy định tại khoản 2 Điều này được miễn trừ trong các trường hợp sau: Thiệt hại xảy ra hoàn toàn do lỗi cố ý của người bị thiệt hại; thiệt hại xảy ra trong trường hợp bất khả kháng hoặc tình thế cấp thiết, trừ trường hợp pháp luật có quy định khác.

Trường hợp hệ thống AI bị bên thứ ba xâm nhập, chiếm quyền điều khiển hoặc can thiệp trái pháp luật thì bên thứ ba phải chịu trách nhiệm bồi thường thiệt hại. Trường hợp bên triển khai, nhà cung cấp có lỗi trong việc để hệ thống bị xâm nhập, chiếm quyền điều khiển hoặc can thiệp trái pháp luật thì phải liên đới bồi thường thiệt hại theo quy định của pháp luật dân sự.

Chính phủ quy định chi tiết về xử phạt vi phạm hành chính đối với hành vi vi phạm do hệ thống AI gây ra.

Bước đột phá bảo vệ trẻ em trong môi trường số

Luật AI đặt ra nhiều nguyên tắc quan trọng nhằm bảo vệ người dân, đặc biệt là trẻ em, trong môi trường số.

Một trong những điểm nhấn là quy định gán nhãn đối với nội dung do AI tạo ra (Điều 11 về trách nhiệm minh bạch). Với nhóm người dễ bị tổn thương, gồm trẻ em, người cao tuổi hoặc người mất năng lực hành vi dân sự,… các nhãn này như “biển báo chỉ dẫn”, kích hoạt sự cảnh giác rằng nội dung đang xem là ảo, do AI tạo ra.

ThS Mai Hoàng Phước, giảng viên Khoa Luật, Trường ĐH Kinh tế - Luật, ĐHQG TP.HCM.

Để tránh nhầm lẫn, tôi đề xuất tiêu chuẩn gán nhãn cần được thực hiện đồng bộ: vừa có nhãn thị giác dễ thấy trên màn hình, vừa có nhãn kỹ thuật (định dạng máy đọc) ẩn bên trong tệp tin để các phần mềm bảo vệ trẻ em (parental control) có thể tự động nhận diện và lọc bỏ theo nhu cầu của người dùng.

Bên cạnh tính minh bạch, Luật còn đặt ra cơ chế trách nhiệm nghiêm ngặt đối với hệ thống AI rủi ro cao. Đây là điểm đột phá khi xác định trách nhiệm nghiêm ngặt (strict liability) đối với các hệ thống rủi ro cao (được định nghĩa tại khoản 1 Điều 9).

Khoản 2 Điều 29 quy định rõ về xử lý vi phạm và trách nhiệm bồi thường thiệt hại: Trường hợp hệ thống AI có rủi ro cao được quản lý, vận hành và sử dụng đúng quy định nhưng vẫn phát sinh thiệt hại thì bên triển khai phải chịu trách nhiệm bồi thường cho người bị thiệt hại.

Quy định này gỡ bỏ hoàn toàn "gánh nặng chứng minh" cho người dùng khi yêu cầu bồi thường thiệt hại phát sinh. Nếu một hệ thống AI rủi ro cao (ví dụ: AI trong y tế, giáo dục...) gây hại cho trẻ em thì gia đình chỉ cần chứng minh có thiệt hại xảy ra để yêu cầu bồi thường mà không cần phải chứng minh liệu hệ thống AI đó có được vận hành đúng hay không.

Do đó, điều này buộc các đơn vị triển khai công nghệ phải chủ động kiểm soát rủi ro ở mức cao nhất, đặt sự an toàn của người dùng (đặc biệt là trẻ em) lên trên yếu tố lợi nhuận.

ThS MAI HOÀNG PHƯỚC, giảng viên Khoa Luật, Trường ĐH Kinh tế - Luật, ĐHQG TP.HCM

Đừng bỏ lỡ

Video đang xem nhiều

Đọc thêm

Đọc nhiều
Tiện ích
Tin mới