تسارع البنتاغون في دمج الذكاء الاصطناعي العسكري
وقّعت وزارة الدفاع الأمريكية اتفاقيات مع شركات كبرى لتوظيف الذكاء الاصطناعي في العمليات العسكرية. خطوة قد تعيد تشكيل مفهوم القرار العسكري، لكن تثير تساؤلات حول المساءلة الإنسانية وخصوصية المواطنين. تفاصيل مثيرة!

وقّعت وزارة الدفاع الأمريكية (البنتاغون) اتفاقياتٍ مع سبع شركات تكنولوجية كبرى لتوظيف تقنيات الذكاء الاصطناعي داخل شبكاتها الحاسوبية السرية، في خطوةٍ تُعيد رسم ملامح القرار العسكري الأمريكي في ميادين القتال المعقّدة.
الشركات المُوقِّعة هي Google وMicrosoft وAmazon Web Services وNvidia وOpenAI وReflection وSpaceX، وستُقدّم مواردها لـ"تعزيز قدرة المقاتلين على اتخاذ القرار في البيئات العملياتية المعقّدة"، وفق ما أعلنته وزارة الدفاع.
تسارع لافت في توظيف الذكاء الاصطناعي العسكري
لا يأتي هذا الإعلان من فراغ؛ فالبنتاغون يُسرّع منذ سنواتٍ في دمج الذكاء الاصطناعي ضمن منظومته العملياتية. وبحسب تقريرٍ صدر في مارس عن مركز Brennan للعدالة، يُمكن لهذه التقنية أن تُقلّص الوقت اللازم لتحديد الأهداف والضرب عليها في ساحة المعركة، فضلاً عن دورها في تنظيم صيانة الأسلحة وسلاسل الإمداد.
والسؤال الذي لا يمكن تجاوزه هنا: ماذا يعني هذا التحوّل لمفهوم المساءلة والرقابة الإنسانية؟ ومن يضمن ألّا تُصبح الخوارزمية هي من تختار الهدف؟
جدل الرقابة الإنسانية وحدود الاستخدام
أثار توظيف الذكاء الاصطناعي في المنظومة العسكرية مخاوف جدّية تتعلق بانتهاك خصوصية المواطنين الأمريكيين، وباحتمال أن تتولّى الآلات اختيار الأهداف دون تدخّلٍ بشري. وأفاد مصدرٌ مطّلع على إحدى الاتفاقيات لم يُصرَّح له بالحديث علناً بأنّ العقد تضمّن نصّاً يُلزم بالإشراف البشري على أيّ مهامٍ تعمل فيها أنظمة الذكاء الاصطناعي باستقلاليةٍ كاملة أو جزئية، وأنّ هذه الأدوات يجب أن تُستخدم بما يتّسق مع الحقوق الدستورية والحريات المدنية.
Anthropic خارج القائمة وداخل المحاكم
اللافت أنّ شركة Anthropic، المعروفة بنموذجها Claude، غائبةٌ عن هذه القائمة لكنّها ليست صامتة. الشركة تخوض حالياً معركةً قضائية مع البنتاغون، إذ أرادت ضماناتٍ تعاقدية بعدم استخدام تقنيتها في أسلحةٍ ذاتية التشغيل الكاملة أو في مراقبة المواطنين الأمريكيين. في المقابل، رأى وزير الدفاع Pete Hegseth أنّ الشركة يجب أن تُتيح أيّ استخداماتٍ يعدّها البنتاغون مشروعة.
تصاعد التوتر حين حاول الرئيس Donald Trump إيقاف استخدام جميع الوكالات الفيدرالية لنموذج Claude، وسعى Hegseth إلى تصنيف Anthropic بوصفها "خطراً على سلسلة الإمداد"، وهو تصنيفٌ مُصمَّم أصلاً للحماية من التخريب الأجنبي لمنظومات الأمن القومي. ردّت الشركة بالتقاضي.
OpenAI تملأ الفراغ
في مارس الماضي، أعلنت OpenAI اتفاقيةً مع البنتاغون لتحلّ ChatGPT محلّ Claude في البيئات السرية. وأكّدت الشركة الجمعة أنّ الاتفاقية المُعلنة هي ذاتها التي أُبرمت في مطلع مارس، مُعلّقةً: "كما قلنا حين أعلنّا اتفاقيتنا قبل أشهر، نؤمن بأنّ من يدافعون عن الولايات المتحدة يستحقّون أفضل الأدوات في العالم."
وأقرّ Emil Michael، كبير مسؤولي التكنولوجيا في البنتاغون، في تصريحٍ له، بأنّ الاعتماد على شركةٍ واحدة كان سيُشكّل خطأً استراتيجياً، في إشارةٍ ضمنية إلى الاحتكاك مع Anthropic. وقال: "حين أدركنا أنّ ذلك الشريك لا يريد العمل معنا بالطريقة التي نريدها، خرجنا وتأكّدنا من أنّ لدينا موردّين متعدّدين."
شركاء قدامى وأسماء جديدة
بعض الشركات الموقِّعة، كAmazon وMicrosoft، تعمل منذ أمدٍ بعيد في البيئات العسكرية السرية، ولم يتّضح بعد إن كانت الاتفاقيات الجديدة تُغيّر جوهر شراكاتها الحكومية القائمة. في المقابل، تدخل Nvidia وReflection هذا الميدان لأوّل مرة؛ وكلتا الشركتين تُنتجان نماذج ذكاء اصطناعي مفتوحة المصدر (Open-Source)، وهو ما وصفه Michael بأنّه أولويةٌ لتوفير "بديلٍ أمريكي" في مواجهة التطوّر الصيني المتسارع لأنظمة الذكاء الاصطناعي التي تُتاح بعض مكوّناتها الرئيسية للعموم.
على أرض الواقع
أعلن البنتاغون أنّ منسوبيه العسكريين والمدنيين والمتعاقدين باتوا يستخدمون فعلياً قدرات الذكاء الاصطناعي عبر منصّته الرسمية GenAI.mil، مؤكّداً أنّ هذه التقنيات "تختصر مهامٍ كانت تستغرق أشهراً لتُنجز في أيام."
التوقعات كبيرة، والتساؤلات أكبر: من يُحدّد حدود الاستخدام المشروع؟ وما الضمانات الفعلية التي تحول دون أن تتحوّل الخوارزمية من أداة دعمٍ للقرار إلى صانعٍ للقرار؟ هذه أسئلةٌ لن تحسمها العقود وحدها.
أخبار ذات صلة

Amazon تسعى لإعادة تعريف سباق التسليم السريع

بعض مالكي iPhone يحصلون على تعويضات بعد تسوية Apple قضية بـ 250 مليون دولار

الصين ومختبرها الضخم: كيف يُعيد الذكاء الاصطناعي تعريف نفسه عالمياً
