
Photo by Saúl Bucio on Unsplash
Lỗi Do AI Tạo Ra Trong Hồ Sơ Tòa Án Dẫn Đến Rắc Rối Pháp Lý Cho Luật Sư
Một báo cáo được chia sẻ bởi Reuters hôm qua cho thấy rằng các ảo giác của AI – những lỗi và thông tin bịa đặt tạo ra bởi các mô hình AI sinh ra – đang gây ra những vấn đề pháp lý tại các tòa án tại Hoa Kỳ.
Đang vội? Dưới đây là những thông tin nhanh!
- Morgan & Morgan đã gửi email cho 1.000 luật sư cảnh báo về những rủi ro của AI.
- Vụ việc gần đây về các luật sư của Walmart thừa nhận đã sử dụng AI cho các vụ kiện của mình đã gây báo động trong cộng đồng luật sư.
- Việc sử dụng ảo giác chatbot trong các lời khai tại toà đã trở thành vấn đề tái diễn trong những năm gần đây.
Tháng này, công ty luật Morgan & Morgan đã gửi email cảnh báo cho hơn 1,000 luật sư về những rủi ro khi sử dụng chatbot và các vụ kiện giả mạo được tạo ra bởi trí tuệ nhân tạo.
Vài ngày trước, hai luật sư ở Wyoming thừa nhận đã bao gồm các vụ kiện giả mạo do AI tạo ra trong hồ sơ đệ trình tòa án cho một vụ kiện chống lại Walmart, và một thẩm phán liên bang đe dọa sẽ kỷ luật họ.
Vào tháng 12, giáo sư Stanford và chuyên gia về thông tin sai lệch Jeff Hancock đã bị cáo buộc sử dụng AI để tạo ra các trích dẫn tuyên bố tòa án giả mạo như một phần của lời bào chữa của mình cho luật của tiểu bang vào năm 2023 hình sự hóa việc sử dụng deepfakes để ảnh hưởng đến cuộc bầu cử.
Nhiều vụ kiện như thế này, trong suốt vài năm qua, đã tạo ra xung đột pháp lý và gây rắc rối cho các thẩm phán và người kiện. Morgan & Morgan và Walmart từ chối bình luận về vấn đề này.
AI sinh động đã giúp giảm thời gian nghiên cứu cho các luật sư, nhưng những ảo giác của nó có thể gây ra chi phí đáng kể. Năm ngoái, cuộc khảo sát của Thomson Reuters đã tiết lộ rằng 63% số luật sư sử dụng AI cho công việc và 12% sử dụng nó thường xuyên.
Năm ngoái, Hiệp hội Luật sư Hoa Kỳ đã nhắc nhở 400,000 thành viên của mình về các quy tắc đạo đức của luật sư, bao gồm việc luật sư phải đứng sau mọi thông tin trong các hồ sơ tòa án của họ, và chỉ ra rằng điều này bao gồm cả thông tin do AI tạo ra, ngay cả khi nó không có ý định – như trong vụ Hancock.
“Khi luật sư bị phát hiện sử dụng ChatGPT hoặc bất kỳ công cụ AI tạo ra để tạo ra các trích dẫn mà không kiểm tra chúng, đó chỉ đơn thuần là sự bất tài,” Andrew Perlman, hiệu trưởng của trường luật Đại học Suffolk, nói với Reuters.
Vài ngày trước, BBC cũng đã chia sẻ một báo cáo cảnh báo về những trích dẫn giả mạo được tạo ra bởi AI và những vấn đề với các công cụ AI trong ngành báo chí.
Để lại bình luận
Hủy