أخطاء الذكاء الاصطناعي تهدد العدالة في أستراليا
اعتذر محامٍ أسترالي لقاضٍ بعد تقديم مذكرات تحتوي على اقتباسات مزيفة بسبب الذكاء الاصطناعي. هذا الخطأ يسلط الضوء على مخاطر استخدام التكنولوجيا في العدالة. كيف يمكن أن يؤثر ذلك على الثقة في النظام القضائي؟ التفاصيل هنا.


اعتذر محامٍ كبير في أستراليا لقاضٍ عن تقديمه مذكرات في قضية قتل تضمنت اقتباسات مزيفة وأحكامًا غير موجودة في القضية تم إنشاؤها بواسطة الذكاء الاصطناعي.
هذا الخطأ الفادح في المحكمة العليا في ولاية فيكتوريا هو خطأ آخر في سلسلة من الأخطاء التي تسبب فيها الذكاء الاصطناعي في أنظمة العدالة حول العالم.
وقد تحمل محامي الدفاع ريشي ناثواني، الذي يحمل اللقب القانوني المرموق "مستشار الملك"، "المسؤولية الكاملة" عن تقديم معلومات غير صحيحة في المذكرات في قضية مراهق متهم بالقتل، وفقًا لوثائق المحكمة يوم الجمعة.
وقال ناثواني للقاضي جيمس إليوت يوم الأربعاء، نيابةً عن فريق الدفاع: "نحن آسفون بشدة ومحرجون لما حدث".
تسببت الأخطاء الناتجة عن الذكاء الاصطناعي في تأخير 24 ساعة في حل القضية التي كان إليوت يأمل في الانتهاء منها يوم الأربعاء. وقد حكم إليوت يوم الخميس بأن موكل ناثواني، الذي لا يمكن تحديد هويته لأنه قاصر، غير مذنب بالقتل بسبب اختلال عقلي.
وقال إليوت للمحامين يوم الخميس: "مع المخاطرة بالتقليل من شأن ما حدث، فإن الطريقة التي تكشفت بها هذه الأحداث غير مرضية".
وأضاف إليوت: "إن قدرة المحكمة على الاعتماد على دقة المذكرات التي قدمها المحامي أمر أساسي لإقامة العدالة على النحو الواجب".
تضمنت المذكرات المزيفة اقتباسات مفبركة من خطاب أمام المجلس التشريعي للولاية واستشهادات غير موجودة من المحكمة العليا.
تم اكتشاف الأخطاء من قبل مساعدي إليوت، الذين لم يتمكنوا من العثور على القضايا وطلبوا من محامي الدفاع تقديم نسخ منها.
شاهد ايضاً: أوكرانيا تقول إن روسيا تستهدف المدنيين مجددًا بينما تسخر كييف من عرض بوتين لوقف إطلاق النار لمدة ثلاثة أيام
واعترف المحامون بأن الاقتباسات "غير موجودة" وأن ما تم تقديمه يحتوي على "اقتباسات وهمية"، كما تقول وثائق المحكمة.
وأوضح المحامون أنهم تحققوا من أن الاقتباسات الأولية كانت دقيقة وافترضوا خطأً أن الاقتباسات الأخرى ستكون صحيحة أيضًا.
كما تم إرسال المذكرات إلى المدعي العام دانيال بورسيدو، الذي لم يتحقق من دقتها.
وأشار القاضي إلى أن المحكمة العليا أصدرت العام الماضي مبادئ توجيهية لكيفية استخدام المحامين للذكاء الاصطناعي.
وقال إليوت: "من غير المقبول استخدام الذكاء الاصطناعي ما لم يتم التحقق من نتاج هذا الاستخدام بشكل مستقل ودقيق".
لم تحدد وثائق المحكمة نظام الذكاء الاصطناعي التوليدي الذي استخدمه المحامون.
في قضية مماثلة في الولايات المتحدة في عام 2023، فرض قاضٍ فيدرالي غرامة قدرها 5000 دولار على اثنين من المحامين وشركة محاماة بعد إلقاء اللوم على شركة ChatGPT لتقديمهم بحثًا قانونيًا وهميًا في دعوى إصابة في مجال الطيران.
وقال القاضي ب. كيفن كاستل إنهم تصرفوا بسوء نية. لكنه أثنى على اعتذارهما والخطوات التصحيحية التي اتخذاها في تفسير سبب عدم ضرورة فرض عقوبات أشد لضمان عدم السماح لهما أو لغيرهما مرة أخرى لأدوات الذكاء الاصطناعي بدفعهما إلى تقديم تاريخ قانوني وهمي في مرافعاتهما.
في وقت لاحق من ذلك العام، تم الاستشهاد بالمزيد من الأحكام القضائية الوهمية التي اخترعها الذكاء الاصطناعي في الأوراق القانونية التي قدمها محامو مايكل كوهين، المحامي الشخصي السابق للرئيس الأمريكي دونالد ترامب. وتحمل كوهين المسؤولية، قائلاً إنه لم يدرك أن أداة جوجل التي كان يستخدمها في البحث القانوني قادرة أيضًا على ما يسمى بهلوسة الذكاء الاصطناعي.
شاهد ايضاً: مسؤولون بوسنيون يتحدون قوانين صرب البوسنة الانفصالية أمام المحكمة العليا وسط تصاعد التوترات
وحذرت القاضية في المحكمة العليا البريطانية فيكتوريا شارب في حزيران/يونيو من أن تقديم مواد كاذبة كما لو كانت حقيقية يمكن اعتباره ازدراءً للمحكمة، أو في "الحالات الأكثر فظاعة" تحريف مسار العدالة، وهو ما يعاقب عليه بالسجن مدى الحياة كحد أقصى.
أخبار ذات صلة

اكتشاف الشرطة لنفق تهريب المخدرات الذي يربط المغرب بجيب سبتة الإسباني

المدّعون الهولنديون: الرجل المعتقل بعد طعن قاتل يُشتبه في أن دافعه إرهابي
