Bản án bị sai do Thẩm phán dựa vào AI để giải quyết, ai chịu trách nhiệm?

(PLO)- Nếu Thẩm phán sử dụng AI để tự động hóa việc ra bản án mà không kiểm tra nội dung, hoặc không thể giải thích được cơ sở pháp lý của quyết định khi bị yêu cầu, thì có thể bị xem là vi phạm đạo đức tư pháp và phải bị xử lý kỷ luật theo quy định...

Thời gian gần đây, ngành Tòa án đã đẩy mạnh quá trình chuyển đổi số và xây dựng tòa án điện tử, trong đó có việc sử dụng AI để hỗ trợ công tác xét xử.

Vừa qua, tại hội nghị giới thiệu ứng dụng AI hỗ trợ thụ lý, nghiên cứu và giải quyết vụ việc trong hệ thống TAND hai cấp TP.HCM do TAND TP.HCM tổ chức, bà Nguyễn Thị Thùy Dung – Phó Chánh án TAND TP.HCM, cho biết dự kiến đầu năm 2026, sau thời gian thí điểm, TAND TP.HCM sẽ chính thức ứng dụng trí tuệ nhân tạo (AI) trong nghiên cứu và xét xử án tại các tòa án trên địa bàn.

Theo đó, việc ứng dụng trí tuệ nhân tạo hỗ trợ thụ lý, nghiên cứu và giải quyết vụ việc với nền tảng hỗ trợ thông minh dựa trên dữ liệu lớn. AI tự động phân tích, đối chiếu điều luật, án lệ và hướng dẫn của TAND Tối cao để hình thành căn cứ pháp lý rõ ràng. AI rút ngắn thời gian tổng hợp, hỗ trợ đề xuất nhận định và hướng giải quyết phù hợp. Người dùng đặt câu hỏi và nhận câu trả lời dựa trên dữ liệu pháp lý được đối chiếu…

HĐXX trong một phiên tòa. Ảnh minh họa: HOÀNG GIANG

Từ đây, nhiều bạn đọc thắc mắc nếu một bản án bị sai do Thẩm phán dựa vào AI để giải quyết thì ai sẽ chịu trách nhiệm?

Cơ chế phân định trách nhiệm

Nêu quan điểm, ThS Xa Kiều Oanh, Giảng viên Khoa Luật Dân sự, Trường ĐH Luật TP.HCM, có thể thấy việc ứng dụng AI giúp hỗ trợ giảm tải công việc cho Thẩm phán, rút ngắn thời gian tố tụng, tăng tính minh bạch và tiếp cận công lý cho người dân. Tuy nhiên, việc ứng dụng AI để giải quyết vụ án cũng đặt ra vấn đề xác định trách nhiệm pháp lý trong trường hợp phát sinh sai sót hoặc hậu quả bất lợi từ các quyết định do AI hỗ trợ.

Cụ thể, nếu một bản án bị sai lệch do Thẩm phán dựa quá nhiều vào đề xuất từ hệ thống AI, thì ai sẽ chịu trách nhiệm pháp lý? Là Thẩm phán, là người ký quyết định, là nhà phát triển phần mềm, là người lập trình thuật toán? Hay là cơ quan tư pháp, là đơn vị triển khai công nghệ? Hay chính là AI là không có tư cách pháp lý và không thể bị xử lý trách nhiệm theo pháp luật hiện hành?

Việc chưa có quy định cụ thể về chủ thể chịu trách nhiệm trong mô hình phán quyết hỗ trợ bởi AI khiến cho toàn bộ tiến trình tư pháp đứng trước nguy cơ thiếu minh bạch và mất niềm tin từ công chúng, đặc biệt trong các vụ việc nhạy cảm hoặc có hậu quả xã hội nghiêm trọng.

Theo ThS Xa Kiều Oanh, Giảng viên Khoa Luật Dân sự, Trường ĐH Luật TP.HCM

Theo bà Oanh, Chỉ thị về Trách nhiệm trí tuệ nhân tạo (AI Liability Directive) từng được đề xuất bởi Ủy ban châu Âu, đề cập đến vấn đề này theo hướng xây dựng cơ chế trách nhiệm phân tầng (layered liability). Trong đó, Thẩm phán là chủ thể chịu trách nhiệm cuối cùng đối với quyết định của mình trong việc ban hành bản án/quyết định. Hay nói cách khác, Thẩm phán không thể viện dẫn rằng lỗi do phần mềm hoặc hệ thống AI do bản thân Thẩm phán có nghĩa vụ kiểm tra trước khi ban hành. Bên cạnh đó, các chủ thể cung cấp, triển khai, bảo trì và cập nhật hệ thống AI cũng có nghĩa vụ pháp lý tương ứng, bao gồm cả trách nhiệm dân sự và hành chính nếu hệ thống gây ra thiệt hại do lỗi thiết kế hoặc thiếu kiểm soát.

Trong khi đó, tại Việt Nam, khung pháp lý hiện tại chưa xác lập cơ chế như vậy, cũng chưa có hướng dẫn cụ thể trong lĩnh vực tố tụng.

Từ đó, việc xác lập trách nhiệm rõ ràng trong ứng dụng AI vào xét xử không chỉ nhằm bảo đảm quyền lợi của các bên liên quan. Nguyên tắc lấy con người làm trung tâm đòi hỏi rằng, trong mọi tình huống, phải luôn có sự tham gia của con người kiểm soát khi sử dụng AI từ đó có thể xác định được chủ thể chịu trách nhiệm giải trình và khắc phục hậu quả nếu có sai sót.

Khi chưa có khung pháp lý rõ ràng về xác định trách nhiệm, việc ứng dụng AI vào hoạt động tư pháp có liên quan trực tiếp đến quyền, lợi ích của các đương sự là rủi ro lớn về mặt thể chế.

“Do đó, để ứng dụng AI một cách hợp pháp và an toàn trong xét xử dân sự, Việt Nam cần hoàn thiện quy định về trách nhiệm pháp lý trong các lĩnh vực AI.

Cụ thể là tiêu chuẩn kỹ thuật và đạo đức đối với nhà phát triển hệ thống AI phục vụ tư pháp; trách nhiệm giám sát và kiểm định chất lượng của cơ quan triển khai; nghĩa vụ giải trình và kiểm soát của Thẩm phán khi tham chiếu đề xuất của AI và cơ chế phân định trách nhiệm dân sự, hành chính hoặc kỷ luật khi có thiệt hại xảy ra", ThS Xa Kiều Oanh nêu quan điểm.

Cần đào tạo Thẩm phán có năng lực cộng tác với AI

ThS Nguyễn Văn Dương, Giảng viên Trường Đại học Kinh tế - Luật, ĐHQG TP.HCM, thì cho rằng cần quan tâm cả về việc đào tạo Thẩm phán có năng lực cộng tác với AI, kết hợp với việc xây dựng bộ quy tắc đạo đức nghề nghiệp và chế tài cụ thể khi sử dụng AI không đúng chuẩn mực.

Theo ThS Dương, trong bối cảnh tư pháp ngày càng số hóa, vai trò của Thẩm phán không còn giới hạn ở việc áp dụng quy phạm pháp luật, mà mở rộng sang việc tương tác với công nghệ, kiểm tra dữ liệu, phân tích đề xuất của AI và đưa ra quyết định cuối cùng dựa trên sự kết hợp giữa pháp lý và kỹ thuật.

Tuy nhiên, để đảm nhiệm tốt vai trò này, Thẩm phán cần được trang bị không chỉ kiến thức luật học, mà còn là nền tảng nhận thức kỹ thuật về cách AI hoạt động, giới hạn của thuật toán, khả năng sai số và nguy cơ thiên kiến.

ThS Nguyễn Văn Dương, Giảng viên Trường Đại học Kinh tế - Luật, ĐHQG-HCM

Theo ông Dương, trong thực tiễn triển khai, Xiao Zhi 3.0 (chương trình AI trợ lý Thẩm phán được triển khai từ năm 2019 tại thành phố Hàng Châu, tỉnh Chiết Giang của Trung Quốc) đã cho thấy rằng việc ứng dụng AI vào hoạt động xét xử là điều tất yếu và hiệu quả, nhưng trong trường hợp Thẩm phán không được đào tạo bài bản, thì nguy cơ lệ thuộc vào công nghệ, hoặc ngược lại là từ chối hoàn toàn công nghệ, đều có thể xảy ra. Cả hai khía cạnh này đều có tác hại cho hệ thống tư pháp như dẫn đến mất kiểm soát và thiếu trách nhiệm, hoặc khiến quá trình số hóa trở nên không hiệu quả. Do đó, cần có chương trình đào tạo chuyên biệt cho Thẩm phán về AI tư pháp, bao gồm kỹ năng đọc hiểu đề xuất của hệ thống, nhận diện sai lệch dữ liệu, và năng lực phản biện lại các đề xuất của AI.

Việc ứng dụng AI trong xét xử phải áp dụng bộ quy tắc đạo đức dành riêng cho Thẩm phán khi có hỗ trợ của AI trong quá trình xét xử. Bộ quy tắc này đặt ra những nguyên tắc, giới hạn sử dụng, nghĩa vụ giải trình khi tham chiếu đề xuất từ AI, và cấm tuyệt đối hành vi ủy quyền thực tế hoặc ngầm định cho AI ra quyết định thay cho Thẩm phán. Hơn nữa, bộ quy tắc này cần được soạn thảo dựa trên nguyên tắc lấy con người làm trung tâm, độc lập tư pháp và trách nhiệm giải trình.

“Đặc biệt, để bảo đảm tính răn đe và chuẩn mực vận hành, cần thiết lập cơ chế chế tài phù hợp đối với hành vi sử dụng AI sai mục đích, thiếu kiểm soát trong xét xử.

Ví dụ, nếu Thẩm phán sử dụng AI để tự động hóa việc ra bản án mà không kiểm tra nội dung, hoặc không thể giải thích được cơ sở pháp lý của quyết định khi bị yêu cầu, thì có thể bị xem là vi phạm đạo đức tư pháp và phải bị xử lý kỷ luật theo quy định”, ông Dương nói.

4 nguyên tắc cơ bản trong hoạt động trí tuệ nhân tạo

1. Lấy con người làm trung tâm; bảo đảm quyền con người, quyền riêng tư, lợi ích quốc gia, lợi ích công cộng và an ninh quốc gia; tuân thủ Hiến pháp và pháp luật.

2. Trí tuệ nhân tạo phục vụ con người, không thay thế thẩm quyền và trách nhiệm của con người. Bảo đảm duy trì sự kiểm soát và khả năng can thiệp của con người đối với mọi quyết định và hành vi của hệ thống trí tuệ nhân tạo; an toàn hệ thống, an ninh dữ liệu và bảo mật thông tin; khả năng kiểm tra và giám sát quá trình phát triển và vận hành hệ thống trí tuệ nhân tạo.

3. Bảo đảm công bằng, minh bạch, không thiên lệch, không phân biệt đối xử và không gây hại cho con người hoặc xã hội; tuân thủ chuẩn mực đạo đức và giá trị văn hóa Việt Nam; thực hiện trách nhiệm giải trình về các quyết định và hệ quả của hệ thống trí tuệ nhân tạo.

4. Thúc đẩy phát triển trí tuệ nhân tạo xanh, bao trùm và bền vững; khuyến khích phát triển và ứng dụng các công nghệ trí tuệ nhân tạo theo hướng sử dụng hiệu quả năng lượng, tiết kiệm tài nguyên và giảm tác động tiêu cực đến môi trường.

(Trích Điều 4 Luật Trí tuệ nhân tạo 2025)

Đừng bỏ lỡ

Video đang xem nhiều

Đọc thêm

Đọc nhiều
Tiện ích
Tin mới