Các tòa án trên thế giới đang chịu áp lực ngày càng lớn do số vụ án tăng, và một chương trình thử nghiệm tại Los Angeles hy vọng thay đổi điều đó bằng cách kiểm tra xem AI có thể hỗ trợ thẩm phán mà không thay thế phán quyết của họ hay không. Tòa án Tối cao Los Angeles đang thử nghiệm một công cụ AI gọi là Learned Hand, giúp tóm tắt hồ sơ, tổ chức chứng cứ và tạo ra dự thảo phán quyết trong các vụ án dân sự. Mục tiêu là giảm thời gian dành cho các công việc hành chính để thẩm phán có thể tập trung vào các phần của vụ án đòi hỏi phân tích pháp lý và sự linh hoạt, người sáng lập kiêm CEO của Learned Hand, Shlomo Klapper, cho biết với Decrypt.
“Chúng ta đang ở một giai đoạn trong xã hội nơi các tòa án đang chịu áp lực lớn,” Klapper nói. “Số vụ án tăng lên, nhưng không có sự giúp đỡ nào đến,” ông nói thêm rằng tiến bộ trong trí tuệ nhân tạo đang “giảm đáng kể chi phí tố tụng.” AI đang gia tăng áp lực lên các tòa án bằng cách làm cho việc tạo hồ sơ dễ dàng hơn, với số hồ sơ tăng 49% từ 4.100 lên 6.400 trong năm qua, theo báo cáo tháng 2 năm 2026 của công ty luật quốc gia Fisher Phillips. Chương trình thử nghiệm tại Los Angeles cho phép một nhóm nhỏ các cán bộ tư pháp truy cập hệ thống AI của Learned Hand để kiểm tra hiệu suất của nó qua từng giai đoạn của vụ án, từ tiếp nhận đến dự thảo phán quyết.
Klapper, từng là thư ký pháp lý của Tòa án Phúc thẩm Hoa Kỳ và chiến lược gia triển khai tại Palantir, cho biết Learned Hand, thành lập năm 2024, và đặt theo tên một thẩm phán liên bang cùng tên, được thiết kế để cung cấp cho các tòa án quá tải các công cụ AI “được xây dựng mục đích rõ ràng” nhằm giảm bớt công việc nhàm chán bằng cách phát hiện các yếu tố quan trọng và vấn đề pháp lý, trong khi vẫn giữ quyền phán quyết và quyền hạn cho thẩm phán con người. “Với sự hợp tác này, chúng tôi đang cẩn thận đánh giá các công nghệ mới nổi để xác định cách chúng có thể hỗ trợ các cán bộ tư pháp làm việc hiệu quả hơn,” Thẩm phán chủ tọa Sergio C. Tapia II nói trong một tuyên bố. “Hãy để tôi rõ ràng—dù công cụ này có thể nâng cao cách các cán bộ tư pháp xem xét và tương tác với hồ sơ vụ án và thông tin, nó sẽ không thay thế, hoặc làm tổn hại đến tính thiêng liêng, độc lập và công bằng của quyết định tư pháp.” Klapper cho biết phần khó hơn trong việc phát triển AI cho tòa án không phải là tạo ra văn bản mà là kiểm tra kết quả của AI so với các tài liệu vụ án và nguồn pháp lý cơ bản. “Hầu hết chi phí của mô hình ngôn ngữ lớn của chúng tôi nằm ở việc xác minh, chứ không phải tạo ra,” Klapper nói. “Tạo ra thì dễ. Ai cũng có thể tạo ra thứ gì đó, nhưng làm thế nào để đảm bảo rằng nó thực sự đáng tin cậy?” Các lỗi tưởng tượng của AI đã xuất hiện trong các vụ án nổi bật. Năm 2023, nhóm bào chữa của Prakazrel “Pras” Michel, thành viên sáng lập nhóm hip-hop Fugees, cáo buộc rằng AI đã giúp viết phần luận cuối cùng chứa các yêu cầu vô lý và bỏ sót các điểm yếu trong vụ án của chính phủ chống lại ông. Cùng năm đó, một thẩm phán liên bang đã yêu cầu các luật sư đại diện cho cựu luật sư của Trump, Michael Cohen, cung cấp bản sao in của các vụ án trích dẫn sau khi tòa không thể xác minh chúng. Klapper cho biết Learned Hand được xây dựng dựa trên một bộ tài liệu nguồn hẹp hơn để giảm thiểu rủi ro các lỗi tưởng tượng của AI. Thay vì lấy dữ liệu từ internet mở hoặc các tập dữ liệu ngẫu nhiên, hệ thống hoạt động trong phạm vi các tài liệu pháp lý đã được xác định rõ.
Lý do là các mô hình ngôn ngữ lớn có thể phản ánh thành kiến trong dữ liệu huấn luyện của chúng, dẫn đến ví dụ AI lặp lại lời khuyên từ các nền tảng như Reddit, Klapper nói. Learned Hand giải quyết điều này bằng cách chia nhiệm vụ thành các bước nhỏ và giao mỗi bước cho một mô hình có chức năng cụ thể. Learned Hand cũng được thiết kế sao cho các thẩm phán không cần đào tạo kỹ thuật để sử dụng. “Chỉ cần nhấn và chọn,” Klapper nói. “Họ không cần phải đưa ra bất kỳ lệnh nào.” Klapper lập luận rằng phần lớn thời gian của thẩm phán dành cho các công việc thường lệ chứ không phải lý luận pháp lý, và AI nhằm giúp họ “dành nhiều thời gian hơn cho công việc của thẩm phán và ít thời gian hơn cho công việc nhàm chán.” Klapper cho biết các thẩm phán không nên tin hoàn toàn vào kết quả của AI và cả công cụ lẫn các công ty đứng sau đều cần chứng minh độ tin cậy của mình. “Tôi thích nói, đừng tin, hãy xác minh,” ông nói. “Họ không nên tin bất cứ điều gì. Nó phải thể hiện giá trị của mình.”