أخطاء الذكاء الاصطناعي تهدد العدالة في أستراليا
اعتذر محامٍ أسترالي لقاضٍ بعد تقديم مذكرات تحتوي على اقتباسات مزيفة بسبب الذكاء الاصطناعي. هذا الخطأ يسلط الضوء على مخاطر استخدام التكنولوجيا في العدالة. كيف يمكن أن يؤثر ذلك على الثقة في النظام القضائي؟ التفاصيل هنا.


الأخطاء الناتجة عن الذكاء الاصطناعي في القضايا القانونية
اعتذر محامٍ كبير في أستراليا لقاضٍ عن تقديمه مذكرات في قضية قتل تضمنت اقتباسات مزيفة وأحكامًا غير موجودة في القضية تم إنشاؤها بواسطة الذكاء الاصطناعي.
هذا الخطأ الفادح في المحكمة العليا في ولاية فيكتوريا هو خطأ آخر في سلسلة من الأخطاء التي تسبب فيها الذكاء الاصطناعي في أنظمة العدالة حول العالم.
تفاصيل القضية وأثر الأخطاء
وقد تحمل محامي الدفاع ريشي ناثواني، الذي يحمل اللقب القانوني المرموق "مستشار الملك"، "المسؤولية الكاملة" عن تقديم معلومات غير صحيحة في المذكرات في قضية مراهق متهم بالقتل، وفقًا لوثائق المحكمة يوم الجمعة.
وقال ناثواني للقاضي جيمس إليوت يوم الأربعاء، نيابةً عن فريق الدفاع: "نحن آسفون بشدة ومحرجون لما حدث".
ردود فعل القاضي والمحامين
تسببت الأخطاء الناتجة عن الذكاء الاصطناعي في تأخير 24 ساعة في حل القضية التي كان إليوت يأمل في الانتهاء منها يوم الأربعاء. وقد حكم إليوت يوم الخميس بأن موكل ناثواني، الذي لا يمكن تحديد هويته لأنه قاصر، غير مذنب بالقتل بسبب اختلال عقلي.
وقال إليوت للمحامين يوم الخميس: "مع المخاطرة بالتقليل من شأن ما حدث، فإن الطريقة التي تكشفت بها هذه الأحداث غير مرضية".
وأضاف إليوت: "إن قدرة المحكمة على الاعتماد على دقة المذكرات التي قدمها المحامي أمر أساسي لإقامة العدالة على النحو الواجب".
تحقيقات الأخطاء واستخدام الذكاء الاصطناعي
تضمنت المذكرات المزيفة اقتباسات مفبركة من خطاب أمام المجلس التشريعي للولاية واستشهادات غير موجودة من المحكمة العليا.
تم اكتشاف الأخطاء من قبل مساعدي إليوت، الذين لم يتمكنوا من العثور على القضايا وطلبوا من محامي الدفاع تقديم نسخ منها.
واعترف المحامون بأن الاقتباسات "غير موجودة" وأن ما تم تقديمه يحتوي على "اقتباسات وهمية"، كما تقول وثائق المحكمة.
وأوضح المحامون أنهم تحققوا من أن الاقتباسات الأولية كانت دقيقة وافترضوا خطأً أن الاقتباسات الأخرى ستكون صحيحة أيضًا.
كما تم إرسال المذكرات إلى المدعي العام دانيال بورسيدو، الذي لم يتحقق من دقتها.
التوجيهات القانونية لاستخدام الذكاء الاصطناعي
وأشار القاضي إلى أن المحكمة العليا أصدرت العام الماضي مبادئ توجيهية لكيفية استخدام المحامين للذكاء الاصطناعي.
وقال إليوت: "من غير المقبول استخدام الذكاء الاصطناعي ما لم يتم التحقق من نتاج هذا الاستخدام بشكل مستقل ودقيق".
أهمية التحقق من دقة المعلومات
لم تحدد وثائق المحكمة نظام الذكاء الاصطناعي التوليدي الذي استخدمه المحامون.
حالات مشابهة وتأثيرها على النظام القانوني
في قضية مماثلة في الولايات المتحدة في عام 2023، فرض قاضٍ فيدرالي غرامة قدرها 5000 دولار على اثنين من المحامين وشركة محاماة بعد إلقاء اللوم على شركة ChatGPT لتقديمهم بحثًا قانونيًا وهميًا في دعوى إصابة في مجال الطيران.
وقال القاضي ب. كيفن كاستل إنهم تصرفوا بسوء نية. لكنه أثنى على اعتذارهما والخطوات التصحيحية التي اتخذاها في تفسير سبب عدم ضرورة فرض عقوبات أشد لضمان عدم السماح لهما أو لغيرهما مرة أخرى لأدوات الذكاء الاصطناعي بدفعهما إلى تقديم تاريخ قانوني وهمي في مرافعاتهما.
قضية المحامي مايكل كوهين
في وقت لاحق من ذلك العام، تم الاستشهاد بالمزيد من الأحكام القضائية الوهمية التي اخترعها الذكاء الاصطناعي في الأوراق القانونية التي قدمها محامو مايكل كوهين، المحامي الشخصي السابق للرئيس الأمريكي دونالد ترامب. وتحمل كوهين المسؤولية، قائلاً إنه لم يدرك أن أداة جوجل التي كان يستخدمها في البحث القانوني قادرة أيضًا على ما يسمى بهلوسة الذكاء الاصطناعي.
وحذرت القاضية في المحكمة العليا البريطانية فيكتوريا شارب في حزيران/يونيو من أن تقديم مواد كاذبة كما لو كانت حقيقية يمكن اعتباره ازدراءً للمحكمة، أو في "الحالات الأكثر فظاعة" تحريف مسار العدالة، وهو ما يعاقب عليه بالسجن مدى الحياة كحد أقصى.
أخبار ذات صلة

روسيا تشن ضربة جديدة كبيرة على شبكة الكهرباء في أوكرانيا وسط درجات حرارة متجمدة

رئيس وزراء التشيك بابل يشهد تصويتاً على الثقة وسط تغيير الحكومة لسياساتها تجاه أوكرانيا

تسعى بي بي سي لرفض دعوى تشهير ترامب بقيمة 10 مليارات دولار في محكمة فلوريدا
