Sự bùng nổ của trí tuệ nhân tạo (AI) những năm gần đây mang đến nhiều thay đổi tích cực cho đời sống xã hội. AI giúp con người làm việc hiệu quả, năng suất hơn, là “trợ thủ đắc lực” của con người trong nhiều lĩnh vực như y tế, giáo dục... góp phần nâng cao chất lượng cuộc sống.
Tuy nhiên, việc lạm dụng AI cũng tiềm ẩn nhiều rủi ro, đặc biệt đối với hệ thống pháp lý, theo tờ The Conversation. Mới đây, GS luật Michael Legg, ĐH New South Wales (Úc), cảnh báo rằng AI có khả năng viết luật tinh vi đến mức đánh lừa cả luật sư và thẩm phán. Việc lợi dụng khả năng này không chỉ vi phạm đạo đức mà còn đặt ra nhiều thách thức cho tính công bằng và minh bạch của hệ thống pháp luật.
Công nghệ AI không thể thay thế khả năng phán đoán và thẩm định của luật sư. Họ cần kiểm tra tính chính xác và độ tin cậy của những thông tin mình nhận được từ những công cụ này.
PGS ngành luật quản trị ROB NICHOLLS, ĐH Sydney (Úc).
AI và những lùm xùm “thật - giả”...
Vụ kiện “Mata và Avianca” (xảy ra hồi tháng 5-2023) là một trong những vụ lùm xùm liên quan công nghệ AI được nhiều người biết tới, theo The Conversation.
Vụ việc nói về một luật sư tên Steven Schwartz, đại diện thân chủ Roberto Mata viết hồ sơ khởi kiện hãng hàng không Mỹ Avianca, cho rằng hãng hàng không này vô tình làm ông bị thương trong một chuyến bay nhưng không chịu bồi thường.
Luật sư Schwartz sau đó đã dùng AI để viết ra một tập hồ sơ khởi kiện hãng Avianca dài hơn 10 trang, nội dung trong đó liệt kê những lần các hãng máy bay trên thế giới làm bị thương hành khách và phải bồi thường để làm dẫn chứng và củng cố cho lập trường của mình trước tòa.
Nội dung chặt chẽ của tập hồ sơ tưởng chừng đã giúp luật sư Schwartz và thân chủ giành chiến thắng, tuy nhiên phía hãng hàng không vô tình nhận ra điều bất thường trong hồ sơ khởi kiện. Phần lớn sự kiện được liệt kê trong hồ sơ là những thông tin bịa đặt, không có thật.
Luật sư Schwartz sau đó thừa nhận đã sử dụng một ứng dụng AI để tạo ra tập hồ sơ. Ông này cho biết đã đọc qua nội dung trước khi nộp đơn nhưng không nhận thấy điều gì bất thường và không phát hiện ra phần lớn thông tin trong hồ sơ là giả. Hồ sơ khởi kiện của luật sư Schwartz bị hủy bỏ. Ông này bị đình chỉ hành nghề sáu tháng và bị phạt 10.000 USD vì có hành vi gian dối.
Một sự kiện khác cũng liên quan việc luật sư dùng AI trong kiện tụng được nhiều người quan tâm là vụ luật sư Michael Cohen - cố vấn pháp lý của cựu Tổng thống Mỹ Donald Trump có hành vi lừa gạt cơ quan chức năng.
Cụ thể, tháng 11-2023, ông Cohen gửi một tập hồ sơ lên Tòa án quận Manhattan (TP New York, Mỹ) yêu cầu tòa chấm dứt các hình thức giám sát ông vì những cáo buộc liên quan vi phạm vấn đề tài chính trong chiến dịch tranh cử của ông Trump.
Theo báo The New York Times, ông Cohen cũng sử dụng một ứng dụng AI để tạo ra danh sách các vụ án tương tự nhằm củng cố lập luận cho bản thân. Tuy nhiên, sau khi phát hiện những chi tiết “không có thật” từ các vụ án trong hồ sơ, thẩm phán Jesse Furman của Tòa án quận Manhattan đã yêu cầu ông Cohen giải trình rõ ràng.
Ông Cohen sau đó thừa nhận đã nhầm tưởng công cụ AI là một công cụ tìm kiếm thông thường và không biết rằng những nội dung mà nó cung cấp có thể là giả mạo. Theo The New York Times, ông Cohen vẫn chịu sự giám sát của tòa án và có nguy cơ bị phạt nặng hơn vì hành vi gửi thông tin sai lệch cho cơ quan chức năng.
Các vụ việc trên để lại bài học đắt giá cho giới luật sư và những người đang dùng AI trong lĩnh vực pháp lý, song cũng làm dấy lên lo ngại về rủi ro khi sử dụng AI trong ngành luật. Sự việc một lần nữa nhắc nhở mọi người cần dùng AI một cách thận trọng, có trách nhiệm để tránh hậu quả không mong muốn.
Nhiều nước nóng ruột quản lý AI
Ý thức được việc lạm dụng AI có nguy cơ làm xói mòn niềm tin vào hệ thống pháp lý, ảnh hưởng tính chính đáng và đạo đức của hệ thống pháp luật, thời gian qua nhiều nước đã ban hành quy định kiểm soát ứng dụng AI trong kiện tụng.
Một số bang tại Mỹ trong năm 2023 đã đưa ra các quy định khác nhau về sử dụng AI trong pháp luật. Tại California, giới hành pháp khuyến khích luật sư sử dụng AI một cách rõ ràng, minh bạch và có trách nhiệm, đảm bảo tính chính xác và không thiên vị. Trong khi đó, Tòa án Tối cao Washington lại cấm hoàn toàn việc sử dụng AI để viết hoặc chỉnh sửa các văn bản pháp lý vì lo ngại ảnh hưởng tính chính xác của các văn bản này.
Để ứng phó với các tác động mạnh mẽ của AI đối với hệ thống pháp lý, hiệp hội luật sư các nước Anh, Canada và New Zealand cũng đang xây dựng hệ thống các điều khoản và hướng dẫn cụ thể cho việc sử dụng AI vào luật pháp, theo The Conversation. Những quy định này dự kiến sẽ sớm được công bố trong năm nay.
Tháng 7-2023, Hiệp hội Luật sư New South Wales và Hiệp hội Pháp lý Victoria của Úc đã hợp tác xây dựng Bộ quy tắc ứng xử của luật sư Úc đối với AI nhằm nâng cao nhận thức của luật sư về các vấn đề đạo đức liên quan đến việc sử dụng AI trong thực hành pháp lý.
Bà Vicki McNamara, chuyên gia nghiên cứu luật tại ĐH New South Wales, nhận định thay vì chỉ đưa ra hướng dẫn chung, tòa án các nước cần tập trung vào các điều khoản chi tiết về việc sử dụng AI trong kiện tụng.
“Các nước cần quy định rõ ràng về việc luật sư có thể hoặc không thể sử dụng AI trong từng trường hợp. Việc này giúp luật sư, thẩm phán và người dân hiểu rõ hơn về kỳ vọng và giới hạn của AI trong lĩnh vực pháp lý” - bà McNamara nhận định.•
AI tạo ra “luật giả” bằng cách nào?
AI được lập trình bằng những tập dữ liệu khổng lồ, trong đó có các văn bản pháp lý, theo The Conversation.
Theo ông Legg, khi được yêu cầu giải quyết một vấn đề pháp lý, AI sẽ bắt đầu công tác phân tích dữ liệu, tìm kiếm thông tin liên quan và đưa ra giải pháp phù hợp.
“Vấn đề xảy ra khi AI không tìm thấy các thông tin cần thiết trong kho dữ liệu của mình. Lúc này nó sẽ tự tạo ra nội dung mới để lấp đầy khoảng trống dựa trên tính logic và kho dữ liệu có sẵn. Điều đáng lo ngại là thông tin mà AI tạo ra có thể hoàn toàn sai lệch so với luật pháp thực tế” - ông Legg nói.
Ông Legg còn lưu ý do được “ngụy trang” dưới sự chặt chẽ về mặt hình thức và nội dung, luật giả do AI tạo ra rất tinh vi và khó phát hiện. Các luật sư, thẩm phán, thậm chí là chuyên gia pháp lý cũng có thể bị đánh lừa bởi tính logic và sự trôi chảy của nó.
Theo đó, ông Legg nhấn mạnh rằng việc dùng AI trong hệ thống pháp luật có thể tiềm ẩn nhiều rủi ro nghiêm trọng. Các bản án dựa trên luật giả có thể đổ oan cho người vô tội, làm ảnh hưởng đến uy tín của ngành luật và niềm tin của công chúng vào hệ thống luật pháp.