Có nên quy định trách nhiệm hình sự cho AI?

(PLO)- Các chuyên gia đều cho rằng cần có hành lang pháp lý đối với sự phát triển của trí tuệ nhân tạo (AI).

0:00 / 0:00
0:00
  • Nam miền Bắc
  • Nữ miền Bắc
  • Nữ miền Nam
  • Nam miền Nam

Sáng nay (6-11), Viện Nghiên cứu Chính sách và Phát triển Truyền thông (IPS) phối hợp với Trường Kinh tế, Luật và Quản lý nhà nước, Đại học Kinh tế TP.HCM (UEH-CELG) tổ chức Tọa đàm “Phát triển và sử dụng trí tuệ nhân tạo đáng tin cậy".

Tham gia hội thảo có ông Đỗ Trường Giang (Đại diện Cục Công nghiệp Công nghệ thông tin, Bộ Thông tin và Truyền thông, tham gia online); TS Trần Thị Tuấn Anh (Phó hiệu trưởng Trường Kinh tế, Luật và Quản lý nhà nước); ông Nguyễn Quang Đồng (Viện trưởng IPS), TS Dương Kim Thế Nguyên (Trưởng khoa Luật, Trường Kinh tế, Luật và Quản lý nhà nước)…

Phát triển trí tuệ nhân tạo phải an toàn

Phát biểu khai mạc, TS Trần Thị Tuấn Anh cho biết tọa đàm là cơ hội để cùng nhau trao đổi, thảo luận về các giải pháp và hướng đi cho việc phát triển trí tuệ nhân tạo (AI) một cách an toàn và có trách nhiệm.

trí tuệ nhân tạo
TS Trần Thị Tuấn Anh (Phó hiệu trưởng Trường Kinh tế, Luật và Quản lý nhà nước (CELG) phát biểu khai mạc tọa đàm. Ảnh: YC

Theo bà Tuấn Anh, trong bối cảnh cuộc cách mạng công nghệ 4.0 đang làm thay đổi sâu rộng mọi lĩnh vực, AI đã và đang mang lại nhiều lợi ích vượt bậc cho kinh tế, xã hội, và đời sống. Tuy nhiên, bên cạnh những tiềm năng lớn lao đó, việc sử dụng AI cũng đặt ra những thách thức quan trọng liên quan đến đạo đức, quyền riêng tư và tính minh bạch. Vì vậy, chúng ta cần đảm bảo rằng, sự phát triển của AI không chỉ vì lợi ích kinh tế mà còn cần phải đặt con người, đạo đức, và trách nhiệm lên hàng đầu.

TS Tuấn Anh hi vọng thông qua các phiên thảo luận và chia sẻ tại buổi tọa đàm này, những ý tưởng và kiến thức quý báu về phát triển và sử dụng trí tuệ nhân tạo đáng tin cậy sẽ được xây dựng.

Tại hội thảo, bà Nguyễn Lan Phương (Viện Nghiên cứu Chính sách và Phát triển Truyền thông) trình bày về chính sách phát triển và quản trị rủi ro tại Việt Nam.

Theo bà Phương, bên cạnh những lợi ích mà AI đem lại nó cũng có những rủi ro, có thể là về kỹ thuật tấn công mô hình, thiên lệch; về kinh tế xảy ra cạnh tranh và độc quyền; về xã hội có thể thất nghiệp và khủng hoảng an sinh xã hội; về môi trường sẽ tiêu tốn tài nguyên, ô nhiễm môi trường; về pháp lý ảnh hưởng đến quyền sở hữu trí tuệ, quyền riêng tư, quyền không bị phân biệt đối xử.

Bà Phương cũng đưa ra một số kiến nghị khi xây dựng dự thảo Luật Công nghiệp công nghệ số.

Cụ thể, bà Phương cho rằng nên rà soát các quy định pháp luật hiện hành liên quan đến AI, kết hợp hài hòa quy định pháp luật và hướng dẫn thực hành, quy tắc đạo đức. Cạnh đó cần xây dựng nhận thức và kĩ năng liên quan đến AI cho công dân. Xây dựng các hướng dẫn về phân loại rủi ro, hướng dẫn, tiêu chuẩn kĩ thuật phát triển, triển khai, sử dụng AI an toàn, đáng tin cậy.

Trường hợp xây dựng đạo luật, quy định chung về AI như dự thảo Luật Công nghiệp công nghệ số hiện tại thì nên xác định mục tiêu của đạo luật, quy định chung; xác định các mức độ rủi ro liên quan đến quyền con người; quy định nghĩa vụ phù hợp với vai trò, khả năng của từng chủ thể trong chuỗi giá trị và tương xứng mức độ rủi ro; xây dựng cơ chế thử nghiệm có kiểm soát với ưu tiên thử nghiệm công nghệ AI.

tri-tue-nhan-tao-thay-nguyen.jpg
TS Dương Kim Thế Nguyên (trái) (Trưởng khoa Luật, Trường Kinh tế, Luật và Quản lý nhà nước) chủ trì phiên thảo luận. Ảnh: YC

Khung pháp lý cho thị trường dữ liệu

Tại hội thảo, trình bày tham luận về khung pháp lý cho thị trường dữ liệu tại Việt Nam, TS Trịnh Duy Thuyên (Trường Kinh tế, Luật và Quản lý nhà nước) cho rằng việc xây dựng và hoàn thiện khung pháp lý thị trường dữ liệu tại Việt Nam sẽ tạo nền tảng cho sự phát triển bền vững của thị trường dữ liệu, đồng thời bảo vệ quyền và lợi ích hợp pháp của các bên liên quan.

Theo ông Thuyên, khung pháp lý Việt Nam về thị trường dữ liệu đang trong quá trình hình thành và phát triển. Hiện nay, các quy định liên quan đến thị trường dữ liệu được điều chỉnh bởi nhiều văn bản pháp luật khác nhau. Đơn cử như Luật An toàn thông tin mạng 2015, Luật An ninh mạng 2018, Nghị định 13/2023 về bảo vệ dữ liệu cá nhân...

tri-tue-nhan-tao-QC.jpg
Quang cảnh tọa đàm. Ảnh: YC

Trong đó, ông Thuyên nhận định Luật An ninh mạng đã đặt ra các quy định nhằm bảo vệ an ninh quốc gia và trật tự, an toàn xã hội trên không gian mạng.

Một số điểm của Luật An ninh mạng có ảnh hưởng đến thị trường dữ liệu bao gồm: yêu cầu lưu trữ dữ liệu tại Việt Nam đối với doanh nghiệp trong và ngoài nước cung cấp dịch vụ trên mạng viễn thông, mạng Internet, các dịch vụ gia tăng trên không gian mạng tại Việt Nam (Điều 26); quy định về bảo vệ thông tin cá nhân (Điều 16)...

chuyên gia trong lĩnh vực lao động, ThS Đoàn Công Yên (Trường ĐH Luật TP.HCM), cho rằng khi trí tuệ nhân tạo tác động ngày càng sâu, rộng đến hoạt động kinh doanh nói chung và quyền riêng tư của người lao động tại nơi làm việc nói riêng.

Từ đó, ThS Yên đặt ra vấn đề cần được nghiên cứu đó là: Quyền riêng tư của người lao động có được nâng lên ở mức cao hơn giống như các tiêu chuẩn lao động cốt lõi của Tổ chức Lao động Quốc tế hay không? Có được đưa vào thực hành kinh doanh có trách nhiệm của doanh nghiệp tại Việt Nam hay không?

Chế tài hình sự cho AI?

Tại hội thảo, có câu hỏi được đặt ra là có nên quy định trách nhiệm hình sự cho AI không?

Bà Nguyễn Lan Phương (Viện Nghiên cứu Chính sách và Phát triển Truyền thông) cho rằng không nên quy định chế tài hình sự đối với AI vì AI không phải là một chủ thể quan hệ pháp luật, AI là máy móc không phải con người. Nói vui là chế tài cho con người là "nhốt vào tù" thì AI sẽ là "tắt nguồn điện" hay sao?

Theo bà Phương, nếu AI trả lời sai có thể là lỗi data, lỗi do người dùng... Vì vậy, chỉ nên quy định trách nhiệm cho các cá nhân trong khâu vận hành hoặc phát triển chứ không thể coi AI là một cá thể để áp dụng chế tài hình sự.

Đừng bỏ lỡ

Video đang xem nhiều

Đọc thêm