عسكرة الذكاء الاصطناعي تهدد حقوق الإنسان
بينما يلتقي قادة العالم في قمة الذكاء الاصطناعي في باريس، يغيب الحوار عن عسكرة الذكاء الاصطناعي. كيف تؤثر تقنيات مثل مايكروسوفت وجوجل على حقوق الإنسان؟ اكتشف المزيد حول التحديات التي تواجه المجتمع المدني في هذا السياق.

بينما يجتمع قادة العالم وصانعو السياسات والمبتكرون في مجال التكنولوجيا في قمة العمل للذكاء الاصطناعي في باريس يوم الاثنين، هناك إغفال صارخ في جدول أعمالها يثير القلق: عدم وجود أي حوار هادف حول عسكرة الذكاء الاصطناعي (AI).
هذا الإغفال مثير للقلق بشكل خاص بالنظر إلى ما تم الكشف عنه مؤخرًا بشأن تورط كل من مايكروسوفت وجوجل في تزويد الجيش الإسرائيلي بتكنولوجيا الذكاء الاصطناعي، وهو ما ينطوي على آثار مقلقة على حقوق الإنسان والقانون الدولي.
تكشف التقارير الواردة من دروبسايت نيوز، ومجلة +972 ومجلة الغارديان أن منصة مايكروسوفت أزور قد استخدمت على نطاق واسع من قبل وحدات الاستخبارات الإسرائيلية لتشغيل أنظمة المراقبة، مما ساهم في انتهاكات منهجية لحقوق الإنسان.
شاهد ايضاً: نصيحة تقنية: تأمين جهازك عند عبور الحدود
كما سلطت الاكتشافات الأخيرة الضوء على تورط شركة جوجل بشكل كبير في تزويد الجيش الإسرائيلي بأدوات الذكاء الاصطناعي المتقدمة كجزء من عقد مشروع نيمبوس الذي تبلغ قيمته 1.2 مليار دولار. خلال الهجوم على غزة في أكتوبر 2023، أفادت التقارير أنه تم نشر منصة Vertex AI من جوجل لمعالجة مجموعات بيانات ضخمة من أجل "التنبؤات" حيث تقوم الخوارزميات بتحليل الأنماط السلوكية والبيانات الوصفية لتحديد التهديدات المحتملة.
كما لعبت الأنظمة العسكرية الإسرائيلية المملوكة ملكية خاصة مثل لافندر، والإنجيل، وأين أبي؟ دورًا محوريًا في حرب غزة. فقد أفادت التقارير أن نظام Lavender، وهو قاعدة بيانات مدعومة بالذكاء الاصطناعي، أشار إلى أكثر من 37,000 شخص كأهداف محتملة للاغتيال خلال الأسابيع الأولى من الحرب، حيث أمضى المشغلون ما لا يزيد عن 20 ثانية في مراجعة كل حالة.
وتتبعت قاعدة بيانات "أين أبي؟" الأفراد عبر هواتفهم الذكية، مما أتاح توجيه ضربات جوية دقيقة استهدفت في كثير من الأحيان عائلات بأكملها.
تُظهر هذه الأدوات كيف يتم استخدام الذكاء الاصطناعي كسلاح ضد السكان المدنيين، مما يثير مخاوف ملحة بشأن المساءلة والامتثال للقانون الدولي الإنساني.
تم تقويض المهمة
يبدو أن قمة عمل باريس للذكاء الاصطناعي، التي نُظمت تحت شعار الابتكار الأخلاقي للذكاء الاصطناعي، منفصلة عن واقع كيفية استخدام تقنيات الذكاء الاصطناعي كسلاح. وقد كافحت منظمات المجتمع المدني، لا سيما تلك التي تنتمي إلى جنوب الكرة الأرضية، من أجل الوصول إلى هذا الحدث لأسباب مختلفة، بما في ذلك القيود المالية وعدم وضوح كيفية تأمين دعوة لحضوره.
وذكرت عدة منظمات، بما في ذلك منظمتي، أنها لم يتم إبلاغها بالحدث أو بمعايير المشاركة، مما أدى إلى الارتباك والإحباط. وعلاوة على ذلك، فإن التكاليف المرتفعة لحضور القمة، بما في ذلك السفر والإقامة، باهظة بالنسبة للعديد من المنظمات غير الحكومية، لا سيما تلك العاملة في جنوب الكرة الأرضية.
والنتيجة هي مزيد من التهميش للأصوات التي يمكن أن تسلط الضوء على التكاليف البشرية المدمرة للذكاء الاصطناعي العسكري.
وقد تم استبعاد الجهات الفاعلة الرئيسية، لا سيما تلك التي تعمل بشكل مباشر مع المجتمعات المتأثرة بالحروب التي تعتمد على الذكاء الاصطناعي، كما ورد في بيان موقع من قبل أكثر من 100 منظمة من منظمات المجتمع المدني، والذي يدعو إلى أن تكون حقوق الإنسان في صميم تنظيم الذكاء الاصطناعي.
هذا الاستبعاد يقوض المهمة المعلنة للقمة لضمان استفادة جميع السكان من الذكاء الاصطناعي. لم يرد منظمو القمة على رسائل البريد الإلكتروني الخاصة بنا - حتى تلك التي تطلب دعم التأشيرة أو دعوة رسمية.
شاهد ايضاً: منتجات CES "الأسوأ في العرض" تعرض بياناتك للخطر وتسبب الهدر، كما يقول المدافعون عن الخصوصية
وتلعب منظمات المجتمع المدني دورًا حاسمًا في تحدي عسكرة الذكاء الاصطناعي والدعوة إلى أطر قانونية دولية تعطي الأولوية لحقوق الإنسان. وبدون أصوات هذه المنظمات، فإن القمة تخاطر بتعزيز النظرة الضيقة من أعلى إلى أسفل لتطوير الذكاء الاصطناعي التي تتجاهل التكاليف البشرية المحتملة.
إن عسكرة الذكاء الاصطناعي ليست قضية بعيدة تقتصر على مناطق النزاع. فالعديد من الأدوات المستخدمة في غزة، مثل أنظمة تحديد الهوية البيومترية، تم تطويرها في الغرب ولا تزال تُستخدم في جميع أنحاء العالم "لأغراض أمنية".
كما تثار المخاوف على الصعيد العالمي بشأن كيفية استخدام تقنيات الذكاء الاصطناعي، مثل أنظمة التعرف على الوجه وأنظمة المراقبة، بشكل غير متناسب لاستهداف الفئات الضعيفة، مما ينتهك الخصوصية ويفاقم التحيزات القائمة. وغالبًا ما تؤدي هذه الأدوات إلى التنميط العنصري التمييزي، مما يزيد من تهميش الأفراد المعرضين للخطر بالفعل.
الحريات المدنية
سلطت منظمة Investigate Europe الضوء أيضًا على إمكانية انتهاك قانون الاتحاد الأوروبي الجديد للذكاء الاصطناعي للحريات المدنية وحقوق الإنسان بعد أن ضغطت بعض الحكومات من أجل استثناءات تسمح للشرطة وسلطات الحدود بمراقبة تعمل بالذكاء الاصطناعي، مما يشكل خطرًا خاصًا على مجموعات مثل المهاجرين وطالبي اللجوء.
ويمكن أن يؤدي ذلك إلى تفاقم التحيزات والممارسات التمييزية القائمة، بما في ذلك المراقبة الشرطية التنبؤية واستخدام أنظمة القياسات الحيوية للمراقبة في الوقت الحقيقي في الأماكن العامة. وتثير مثل هذه الممارسات القلق بشأن التآكل المتزايد للخصوصية والحقوق، لا سيما بالنسبة للفئات المهمشة.
بينما تتسابق أوروبا لمنافسة استثمارات الولايات المتحدة في البنية التحتية للذكاء الاصطناعي، يجب أن تعطي الأولوية للمبادئ التوجيهية الأخلاقية على الابتكار غير الخاضع للرقابة. إن تجاهل مثل هذه المخاوف يخاطر بتطبيع التقنيات التي تقلل من الرقابة البشرية وربما تنتهك القانون الإنساني الدولي.
شاهد ايضاً: ما يجب معرفته عن نظارات ميتا التي استخدمها المعتدي في نيو أورلينز لاستطلاع منطقة "الفرنسي"
ولمواجهة هذه التحديات الحرجة، من الضروري اتباع نهج شامل ومتعدد أصحاب المصلحة. يجب على صانعي السياسات إعطاء الأولوية لإدماج المناقشات حول الذكاء الاصطناعي العسكري في جداول أعمال الحوكمة العالمية، وضمان المشاركة الفعالة من مجموعات المجتمع المدني، لا سيما تلك التي تمثل بلدان الجنوب.
نحن بحاجة إلى معايير دولية ملزمة لمنع شركات التكنولوجيا من تمكين انتهاكات حقوق الإنسان من خلال العقود العسكرية. يجب أن تصبح الشفافية مبدأً أساسياً، مع متطلبات إفصاح إلزامية للشركات المنخرطة في شراكات عسكرية.
علاوةً على ذلك، يجب أن تخلق قمم الذكاء الاصطناعي المستقبلية مساحات مخصصة للحوار النقدي، بما يتجاوز الابتكار التكنولوجي إلى دراسة الآثار الأخلاقية العميقة للذكاء الاصطناعي في الحروب.
غالبًا ما تصور فرنسا نفسها على أنها أرض حقوق الإنسان. وللحفاظ على هذا الإرث حقاً، يجب أن تضطلع بدور رائد في تنظيم تقنيات الذكاء الاصطناعي، وضمان استخدامها بمسؤولية وليس كأدوات للقمع.
أخبار ذات صلة

مبدعو تيك توك في حالة ترقب انتظاراً لقرار بشأن احتمال حظر المنصة

مقترح أستراليا لتحديد العمر القانوني الأدنى للأطفال الذين يستخدمون وسائل التواصل الاجتماعي

وزارة العدل تقاضي تيك توك، اتهمت الشركة بجمع بيانات الأطفال بشكل غير قانوني
