تحالف الدين والتقنية لبناء ذكاء اصطناعي أخلاقي
تتجه شركات التقنية الكبرى نحو قادة الأديان لتوجيه الذكاء الاصطناعي نحو مسار أخلاقي. في طاولة مستديرة بنيويورك، ناقش ممثلون دينيون مع شركات مثل OpenAI كيفية دمج القيم الأخلاقية في هذه التقنية المتطورة.

في خطوةٍ لافتة تُعبّر عن تحوّلٍ لافت في مواقف وادي السيليكون التقليدية من المؤسسات الدينية، باتت شركات التقنية الكبرى تتجه بصورةٍ متزايدة نحو قادة الأديان طلباً للإرشاد حول كيفية تشكيل الذكاء الاصطناعي وضبط مساره الأخلاقي.
التقى قادةٌ من مجموعاتٍ دينية متعدّدة الأسبوع الماضي بممثّلين عن شركات من بينها Anthropic وOpenAI، في إطار الطاولة المستديرة الافتتاحية المعنونة بـ"Faith-AI Covenant" في نيويورك، وذلك لبحث أفضل السبل لإدراج المنظومة الأخلاقية والقيمية في هذه التقنية سريعة التطوّر. نظّم هذا اللقاء التحالفُ الديني الدولي لسلامة المجتمعات (Interfaith Alliance for Safer Communities) ومقرّه جنيف، الذي يعمل على معالجة قضايا من قبيل التطرّف والاتجار بالبشر. ومن المتوقّع أن تكون هذه الطاولة المستديرة الأولى في سلسلة لقاءاتٍ مماثلة حول العالم، تشمل بكين ونيروبي وأبوظبي.
دعت Baroness Joanna Shields، الشريك المحوري في هذه المبادرة، المسؤولين التنفيذيين في شركات التقنية إلى إدراك حجم سلطتهم ومسؤوليتهم في اتّخاذ القرارات الصائبة. وقد عملت Shields في مناصب تنفيذية بشركتَي Google وFacebook قبل أن تتحوّل إلى العمل السياسي في بريطانيا.
وقالت: "التنظيم القانوني لا يستطيع مجاراة هذه الوتيرة." وأضافت أن قادة الأديان الكبرى في العالم، الذين يمثّلون مليارات الأتباع، يمتلكون "خبرة رعاية السلامة الأخلاقية للناس". وأكّدت أن لهؤلاء القادة الدينيين صوتاً ينبغي أن يُسمع.
وأوضحت Shields في معرض حديثها عن المسؤولين التنفيذيين في شركات الذكاء الاصطناعي: "هذا الحوار، هذا التواصل المباشر، بالغ الأهمية؛ لأن الذين يبنون هذه التقنية يدركون قوة ما يبنونه وقدراته، ويريدون القيام بذلك على الوجه الصحيح معظمهم على الأقل."
والهدف من هذه المبادرة، وفق Shields، هو التوصّل في نهاية المطاف إلى "مجموعة من المعايير والمبادئ" تستلهم من مختلف الجماعات والأديان من المسيحيين إلى السيخ إلى البوذيين وتلتزم بها الشركات.
تحدّياتٌ تنتظر المبادرة
حضر اللقاء ممثّلون عن طيفٍ واسع من الجماعات الدينية، من بينها: Hindu Temple Society of North America، وBaha'i International Community، وThe Sikh Coalition، والأبرشية الأرثوذكسية اليونانية في أمريكا، وكنيسة يسوع المسيح لقديسي الأيام الأخيرة المعروفة بالكنيسة المورمونية.
وقبل أن تبادر هذه الشركات إلى التواصل مع المؤسسات الدينية، كانت بعض التقاليد الدينية قد أصدرت بالفعل توجيهاتها الأخلاقية الخاصة بشأن استخدام الذكاء الاصطناعي. فقد أبدت كنيسة يسوع المسيح لقديسي الأيام الأخيرة موافقةً مشروطة على التقنية في دليلها الرسمي، إذ ورد فيه: "لا يستطيع الذكاء الاصطناعي أن يحلّ محلّ موهبة الإلهام الإلهي أو الجهد الفردي المطلوب لتلقّيه. غير أنه قد يكون أداةً مفيدة لتعزيز التعلّم والتعليم."
كذلك أصدر المؤتمر침Baptist الجنوبي (Southern Baptist Convention)، أكبر طائفة بروتستانتية في الولايات المتحدة، قراراً عام 2023 جاء فيه: "يجب أن نتعامل بصورةٍ استباقية مع هذه التقنيات الناشئة ونُسهم في تشكيلها، بدلاً من الاكتفاء بالاستجابة لتحدّيات الذكاء الاصطناعي وغيره من التقنيات الناشئة بعد أن تكون قد أثّرت في كنائسنا ومجتمعاتنا."
ومن أبرز التحدّيات التي تواجه صياغة قائمة بالمبادئ المشتركة أن الأديان العالمية، على الرغم مما يجمعها من قواسم مشتركة، تتباين في قيمها واحتياجاتها. وقال الحاخام Diana Gerson، أحد المشاركين في الطاولة المستديرة ونائب الرئيس التنفيذي المساعد لمجلس الحاخامات في نيويورك: "المجتمعات الدينية تتفاوت في ترتيب أولوياتها."
وتكشف هذه الشراكة عن تحالفٍ متنامٍ بين الدين والتقنية، نشأ من رحم السعي إلى بناء ذكاءٍ اصطناعي أخلاقي وهو مفهومٌ خلافي يطرح تساؤلات جوهرية حول إمكانية تحقّقه ومعناه الحقيقي.
وتُصرّح Anthropic في وثيقتها العلنية المعروفة بـ"Claude Constitution" والمكتوبة لروبوت المحادثة Claude: "نريد من Claude أن يفعل ما يفعله شخصٌ بالغ العمق والمهارة في الأخلاق لو كان في موضع Claude." وقد صِيغت هذه الوثيقة بمشاركة عددٍ من القادة الدينيين وخبراء الأخلاقيات.
وفي هذا التحالف الناشئ، تبدو Anthropic الأكثر حضوراً وجرأةً على الأقل على الصعيد العلني في مساعيها لاستقطاب قادة الأديان. ويأتي ذلك في أعقاب خلافٍ علني نشب في وقتٍ سابق من هذا العام مع وزارة الدفاع الأمريكية (البنتاغون) حول الاستخدام العسكري للذكاء الاصطناعي، إذ أعلنت Anthropic أنها ستقيّد استخدام تقنيتها في تطوير الأسلحة المستقلة أو المراقبة الجماعية للمواطنين الأمريكيين.
وعلّق Brian Boyd، المنسّق الديني الأمريكي لمنظمة Future of Life Institute غير الربحية، قائلاً: "ثمّة جانبٌ من العلاقات العامة في هذا كلّه. كان الشعار 'تحرّك بسرعة واكسر الأشياء'، وقد كسروا أشياءً كثيرة وأضرّوا بأناسٍ كثيرين." وأضاف: "هناك التزامٌ أخلاقي تدرك الشركات متأخّرةً أنه يقع على عاتقها، فضلاً عن تساؤلٍ صادق لدى بعض منتسبيها."
تشكّكٌ من بعض الأطراف
بيد أن ثمّة أصواتاً تدعو إلى الحذر من هذه المساعي وتشكّك في نواياها.
وقالت Rumman Chowdhury، الرئيسة التنفيذية لمنظمة Humane Intelligence غير الربحية والمبعوثة العلمية الأمريكية لشؤون الذكاء الاصطناعي في عهد إدارة Biden: "في أحسن الأحوال، هذا إلهاءٌ عن القضايا الجوهرية. وفي أسوأها، هو تحويلٌ للانتباه عمّا يستحقّ الاهتمام حقاً."
وأوضحت Chowdhury أنها لا تميل إلى اعتبار الدين المرجعيةَ الأنسب للإجابة عن أسئلة الذكاء الاصطناعي والأخلاق، لكنها ترى أنها تفهم الدوافع الكامنة وراء توجّه الشركات نحوه.
وقالت: "أعتقد أن وادي السيليكون كان يحمل تصوّراً ساذجاً لسنواتٍ بشأن الذكاء الاصطناعي التوليدي، مفاده أنه يمكن بلوغ مبادئ أخلاقية كونية جامعة. وقد أدركوا بسرعة أن هذا ليس صحيحاً وليس واقعياً. فهم يتطلّعون الآن ربّما إلى الدين بوصفه وسيلةً للتعامل مع الغموض الأخلاقي في المناطق الرمادية."
ويظلّ غير واضحٍ إلى أيّ حدٍّ تُترجم هذه الشركات المعروفة بانعدام الشفافية ما تسمعه من قادة الأديان إلى إجراءاتٍ فعلية، وما قد تبدو عليه هذه الإجراءات. غير أن بعض المنتقدين يخشون أن النقاش حول بناء نسخٍ أخلاقية من الذكاء الاصطناعي يصرف الأنظار عن تساؤلاتٍ أشمل حول دور هذه التقنية في المجتمع.
وقال Dylan Baker، كبير مهندسي الأبحاث في Distributed AI Research Institute: "تحت ذريعة 'سنبني كلّ هذه الأشياء، وهذا أمرٌ محسوم، فكيف نضمن أن تكون النتيجة النهائية جيّدة نوعاً ما' أودّ القول: لحظة، نحن بحاجة إلى التساؤل أوّلاً عمّا إذا كنّا نريد أصلاً بناء هذه الأشياء."
أخبار ذات صلة

البابا في غينيا الاستوائية: مخاوف من تشريع نظام قمعي

البابا في غينيا الاستوائية: تحدٍّ دبلوماسي يختتم جولته الأفريقية

البابا يحث الشباب على مقاومة فساد السلطة في قداس كاميرون الكبير
