Tin vào ChatGPT, luật sư làm giả thông tin gửi tới toà

Luật sư Schwartz với 30 năm trong nghề đối mặt với cái kết đắng khi dựa vào A.I trong một vụ kiện với hãng hàng không.

Một người đàn ông tên Roberto Mata đâm đơn kiện hãng hàng không Avianca vì khiến ông này bị thương do chiếc xe đẩy hàng va vào đầu gối trong chuyến bay tới sân bay quốc tế Kennedy, New York (Mỹ).

Khi hãng hàng không này yêu cầu thẩm phán liên bang hủy bỏ vụ kiện, luật sư của ông Mata đã phản đối kịch liệt, đệ trình một bản tóm tắt 10 trang trích dẫn 6 vụ án liên quan với các quyết định của tòa. Trong đó có các vụ kiện tương tự của Martinez kiện Delta Air Lines, Zicherman kiện Korean Air Lines và Varghese kiện China Southern Airlines, cùng phần thảo luận uyên bác về luật liên bang và tính hiệu lực của vụ kiện.

Chỉ có duy nhất một vấn đề: Cả luật sư bên bị lẫn thẩm phán, không ai có thể tìm thấy được các thông tin phán quyết hay tóm tắt trích dẫn về các vụ kiện trong bản tóm tắt đó, bởi tất cả đều được ChatGPT tự tạo ra.

Vị luật sư tạo ra bản tóm tắt này, Steven A. Schwartz thuộc công ty luật Levidow sau đó đã thú nhận trong một bản khai rằng đã sử dụng chương trình trí tuệ nhân tạo hỗ trợ tìm tài liệu cho vụ kiện – “một nguồn thông tin hóa ra không hề đáng tin cậy”.

Khi AI nhúng tay vào văn bản pháp lý

Vụ kiện bắt đầu trên chuyến bay số hiệu 670 của hãng hàng không Avianca từ El Salvador tới New York ngày 27/8/2019 khi một tiếp viên hàng không đã đẩy chiếc xe hàng va phải ông Mata khiến ông bị thương. Sau khi ông Mata đâm đơn kiện, hãng hàng không đã gửi giấy tờ yêu cầu vụ kiện được hủy bỏ vì đã hết hiệu lực.

Tin vào ChatGPT, luật sư làm giả thông tin gửi tới toà

Trong một bản đệ trình hồi tháng 3, luật sư của ông Mata cho biết vụ kiện nên được tiếp tục, củng cố lập luận bằng các tài liệu tham khảo và trích dẫn từ nhiều phán quyết của tòa từ các vụ kiện trước đó.

Ngay sau đó, luật sư của hãng Avianca viết cho thẩm phán Castel cho biết họ không thể tìm được các vụ kiện được đề cập trong biên bản tóm tắt của nguyên đơn. Trong trường hợp vụ kiện của Varghese với hãng hàng không China Southern Airlines, họ cho biết “không thể xác định được vụ kiện bằng chú thích hay trích dẫn, cũng như bất cứ vụ kiện nào tương tự như thế”.

Thẩm phán Castel yêu cầu luật sư của ông Mata cung cấp bản sao văn bản ý kiến về các vụ kiện được đề cập. Luật sư đã trình một bản trích yếu, chủ yếu gồm thông tin tòa án và thẩm phán xét xử, cũng như mã số và ngày diễn ra.

Bản sao dài 6 trang và được cho là viết bởi thành viên của một hội đồng 3 thẩm phán của Tòa phúc thẩm khu vực 11 vào năm 2008. Tuy nhiên các luật sư của Avianca cho biết họ cũng không thể tìm thấy trích dẫn, mã số, hay các thông tin khác trong dữ liệu pháp lý.

Luật sư Bart Banino của Avianca cho biết công ty của ông chuyên về luật hàng không và khẳng định những vụ kiện trong biên bản tóm tắt đó hoàn toàn không có thật. Ông nghi ngờ có sự can thiệp của một chatbot AI.

ChatGPT tạo ra những phản hồi thực bằng cách dự đoán đoạn văn nào nên xuất hiện theo trình tự dựa trên một mô hình thống kê từng nhập hàng tỷ đoạn văn bản lấy từ khắp nơi trên mạng internet. Trong trường hợp vụ kiện của ông Mata, chương trình này dường như đã nhận ra một bộ khung mê cung lập luận pháp lý, nhưng lại điền vào đó những cái tên và sự kiện từ một loạt các trường hợp hiện có.

Thẩm phán Castel  đã có một cuộc điều tra của riêng ông. Trong một phiên điều trần, ông viết rằng thư ký của phiên tòa khu vực 11 đã xác nhận số sổ ghi trên văn bản ý kiến của Varghese là của một vụ kiện hoàn toàn khác. Ông cho biết có vẻ 5 trong số các quyết định tòa án được nộp lên bởi luật sư của ông Mata là giả.

Ông Schwartz, người đã hành nghề luật ở New York trong 3 thập kỷ, cho biết ông không có ý định lừa dối tòa hay hãng hàng không. Bản thân ông cũng chưa từng sử dụng ChatGPT trước đây nên “không biết rằng thông tin của nó có thể sai”. Ông cho biết thậm chí đã yêu cầu chương trình xác thực các vụ kiện đó, và nó đã xác nhận là chúng có thật.

“Những vụ kiện này có phải là giả không?”, ông Schwartz đã từng hỏi AI, theo bản sao lời khai ông nộp cho tòa.

“Không, những thông tin tôi cung cấp hoàn toàn là thật và có thể tìm thấy trong cơ sở dữ liệu pháp lý có uy tín”, ChatGPT phản hồi.

Tin vào ChatGPT, luật sư làm giả thông tin gửi tới toà

Lần đầu chứng kiến AI làm giả giấy tờ

Luật sư của ông Mata cho biết đã “vô cùng hối hận” khi dựa vào ChatGPT và “sẽ không bao giờ làm vậy trong tương lai nếu không có sự xác minh tuyệt đối về tính xác thực của thông tin”.

Về phần tòa án, thẩm phán P.Kevin Castel cho biết đây là “một tình huống chưa từng có”, lần đầu phải chứng kiến một bản đệ trình với “các phán quyết tư pháp và trích dẫn hoàn toàn không có thật”. Ông đã yêu cầu một phiên điều trần để đưa ra một hình phạt chính thức.

Khi trí tuệ nhân tạo càn quét thế giới trực tuyến, nó gợi lên viễn cảnh máy tính không chỉ thay thế tương tác xã hội mà còn lao động sức người. Đặc biệt đối với lao động trí thức, nhiều người lo rằng công sức lao động của họ có thể không còn được đánh giá cao mà chỉ quan tâm đến hiệu suất và lợi nhuận.

Theo ông Stephen Gillers, giáo sư ngành đạo đức pháp luật tại khoa Luật trường Đại học New York, đây là vấn đề nổi cộm trong giới làm luật, khi họ thảo luận về những giá trị và nguy hiểm của phần mềm A.I như ChatGPT, cũng như sự cần thiết trong việc xác thực thông tin mà nó đưa ra.

Cuộc thảo luận trong giới luật pháp giờ đây là làm sao để tránh chính xác các vấn đề được mô tả trong trường hợp này. Bạn không thể chỉ lấy thông tin và cắt dán nó vào bản đơn tòa án của mình”, ông Gillers nói.

Vụ kiện thực tế của ông Roberto Mata với Avianca Inc cho thấy giới văn phòng ít nhất còn chút thời gian trước khi bị người máy tiếp quản.

Minh Nguyễn (theo New York Times)

OpenAI bị kiện và có thể phải tạm dừng phát hành ChatGPT

OpenAI bị kiện và có thể phải tạm dừng phát hành ChatGPT

Một tổ chức phi lợi nhuận tuyên bố OpenAI đang vi phạm pháp luật với mô hình AI 'thiên vị, lừa đảo'.