تتعرض المحاكم حول العالم لضغوط متزايدة بسبب تزايد عدد القضايا، ويأمل برنامج تجريبي في لوس أنجلوس في تغيير ذلك من خلال اختبار ما إذا كان يمكن للذكاء الاصطناعي مساعدة القضاة دون تحميلهم مسؤولية الحكم. تختبر محكمة لوس أنجلوس العليا أداة ذكاء اصطناعي تُدعى “لينارد هاند” تلخص الطلبات، وتنظم الأدلة، وتولد مسودات الأحكام في القضايا المدنية. الهدف هو تقليل الوقت المستغرق في المهام الإدارية حتى يتمكن القضاة من التركيز على أجزاء القضية التي تتطلب تحليلًا قانونيًا وتقديرًا، قال مؤسس ومدير “لينارد هاند” شلومو كلابر لـ ديكريبت.
قال كلابر: “نحن في مجتمع يمر فيه القضاء بضغوط هائلة. تتزايد أعباء القضايا، ولكن لا يوجد مساعدة قادمة”، مضيفًا أن التقدم في الذكاء الاصطناعي “يخفض بشكل كبير تكلفة التقاضي”. يزيد الذكاء الاصطناعي الضغط على المحاكم من خلال تسهيل إنتاج الطلبات، حيث ارتفعت الطلبات بنسبة 49% من 4100 إلى 6400 خلال العام الماضي، وفقًا لتقرير صادر عن شركة المحاماة الوطنية فيشر فيليبس في فبراير 2026. يتيح البرنامج التجريبي في محكمة لوس أنجلوس العليا لمجموعة صغيرة من الموظفين القضائيين الوصول إلى نظام الذكاء الاصطناعي “لينارد هاند” لاختبار أدائه عبر مراحل القضية، من الاستلام إلى إصدار المسودات.
قال كلابر، الذي كان سابقًا كاتب قانون قضائي لمحكمة الاستئناف الأمريكية واستراتيجي نشر مع شركة بالانتير، إن “لينارد هاند”، الذي تأسس في 2024 وسُمي على اسم قاضٍ اتحادي، صُمم ليمنح المحاكم المثقلة بالأعباء أدوات ذكاء اصطناعي “مخصصة” تقلل من الأعمال الروتينية من خلال إبراز الحقائق والقضايا القانونية الرئيسية، مع ترك الحكم والسلطة للقاضي البشري. قال القاضي سيرجيو سي. تابيا الثاني، رئيس المحكمة: “مع هذه الشراكة، نقوم بتقييم دقيق للتقنيات الناشئة لتحديد كيف يمكن أن تدعم القضاة في العمل بكفاءة وفعالية أكبر”. وأضاف: “دعوني أوضح — على الرغم من أن هذه الأداة قد تعزز طريقة مراجعة القضاة للملفات والمعلومات، إلا أنها لن تحل محل، أو تضر، قدسية واستقلالية وحيادية اتخاذ القرارات القضائية”. قال كلابر إن الجزء الأصعب في تطوير ذكاء اصطناعي للمحاكم ليس في توليد النص، بل في التحقق من مخرجات الذكاء الاصطناعي مقابل المواد القانونية الأساسية والمصادر القانونية. قال كلابر: “معظم تكلفة نموذج اللغة الكبير لدينا تكون في التحقق، وليس في التوليد”. وأضاف: “التوليد سهل. يمكن لأي شخص أن يولد شيئًا، لكن كيف تتأكد من أنه موثوق حقًا؟” ظهرت هلوسات الذكاء الاصطناعي بالفعل في قضايا محكمة بارزة. في 2023، زعم فريق الدفاع عن براكا زريل “براس” ميشيل، أحد مؤسسي مجموعة الهيب هوب “فوجيز”، أن ذكاء اصطناعي ساعد في كتابة حجة ختامية تضمنت ادعاءات تافهة وأخفق في كشف نقاط ضعف في قضية الحكومة ضده. وفي نفس العام، أمر قاضٍ اتحادي المحامين الذين يمثلون الممثل السابق لمحامي ترامب، مايكل كوهين، بتقديم نسخ مطبوعة من القضايا المذكورة بعد أن عجزت المحكمة عن التحقق منها. قال كلابر إن “لينارد هاند” مبني على مجموعة أضيق من المواد المصدرية لتقليل خطر هلوسات الذكاء الاصطناعي. بدلاً من الاعتماد على الإنترنت المفتوح أو مجموعات بيانات عشوائية، يعمل النظام ضمن مجموعة محددة من المواد القانونية.
السبب هو أن نماذج اللغة الكبيرة يمكن أن تعكس تحيزات في بيانات تدريبها، مشيرًا إلى أمثلة على تكرار الذكاء الاصطناعي لنصائح من منصات مثل Reddit، قال كلابر. يعالج “لينارد هاند” ذلك عن طريق تقسيم المهام إلى خطوات وتعيين كل خطوة لنموذج بوظيفة محددة. كما أن “لينارد هاند” مصمم بحيث لا يحتاج القضاة إلى تدريب تقني لاستخدامه. قال كلابر: “إنه مجرد نقرة ونقرتين”. “لا يحتاجون إلى أي أوامر.” جادل كلابر بأن جزءًا كبيرًا من يوم القاضي يُقضى في المهام الروتينية بدلاً من التفكير القانوني، وأن الذكاء الاصطناعي يهدف إلى تمكينهم من “قضاء وقت أكثر في عمل القاضي وأقل في الأعمال الروتينية.” قال كلابر إن على القضاة عدم الاعتماد على مخرجات الذكاء الاصطناعي بشكل أعمى، وأن الأدوات والشركات التي تطورها بحاجة لإثبات موثوقيتها. قال: “أفضل أن أقول، لا تثق، بل تحقق”. “لا ينبغي أن يثقوا بأي شيء. يجب أن يثبتوا قيمته.”