مخاطر الذكاء الاصطناعي وتأثيراتها المستقبلية
حذر تقرير دولي من مخاطر الذكاء الاصطناعي المتقدم، مثل فقدان الوظائف وتمكين الإرهاب. يهدف التقرير إلى توجيه صانعي السياسات للخروج ببرامج أمان ملائمة في ظل تطورات سريعة. امنح مستقبلك ومعرفة المخاطر المحتملة!


الذكاء الاصطناعي العام قد يؤدي إلى مجموعة من المخاطر الجديدة، وفقًا لما يقوله الخبراء في تقرير قبيل قمة الذكاء الاصطناعي
قال خبراء في تقرير دولي هو الأول من نوعه يوم الأربعاء يصنف مجموعة من المخاطر التي تشكلها أنظمة الذكاء الاصطناعي المتقدمة التي يمكن أن تخلق مخاطر جديدة شديدة، مثل تأجيج فقدان الوظائف على نطاق واسع، أو تمكين الإرهاب أو الانفلات الأمني، وذلك في تقرير دولي هو الأول من نوعه يوم الأربعاء يصنف مجموعة من المخاطر التي تشكلها هذه التكنولوجيا.
ويصدر التقرير العلمي الدولي حول سلامة الذكاء الاصطناعي المتقدم قبل انعقاد قمة كبرى للذكاء الاصطناعي في باريس الشهر المقبل. وقد حظيت الورقة بدعم 30 دولة من بينها الولايات المتحدة والصين، وهو ما يمثل تعاونًا نادرًا بين البلدين في ظل الصراع على تفوق الذكاء الاصطناعي، والذي أبرزته شركة DeepSeek الصينية الناشئة التي أذهلت العالم هذا الأسبوع بروبوت الدردشة الآلي الخاص بها على الرغم من ضوابط التصدير الأمريكية على الرقائق المتقدمة إلى البلاد.
قال يوشوا بنجيو، وهو عالم بارز في مجال الذكاء الاصطناعي قاد الدراسة، في مقابلة إن التقرير الذي أعدته مجموعة من الخبراء المستقلين هو "توليف" للأبحاث الحالية التي تهدف إلى المساعدة في توجيه المسؤولين الذين يعملون على وضع حواجز حماية للتكنولوجيا التي تتقدم بسرعة.
يقول التقرير: "إن المخاطر كبيرة"، مشيرًا إلى أنه بينما كانت أفضل أنظمة الذكاء الاصطناعي قبل بضع سنوات بالكاد تستطيع أن تنطق فقرة متماسكة، إلا أنها الآن تستطيع كتابة برامج حاسوبية وتوليد صور واقعية وإجراء محادثات مطولة.
في حين أن بعض أضرار الذكاء الاصطناعي معروفة بالفعل على نطاق واسع، مثل التزييف العميق والاحتيال والنتائج المتحيزة، قال التقرير إنه "مع ازدياد قدرات الذكاء الاصطناعي للأغراض العامة، تظهر تدريجياً أدلة على مخاطر إضافية" وأن تقنيات إدارة المخاطر لا تزال في مراحلها الأولى فقط.
يأتي ذلك وسط تحذيرات هذا الأسبوع بشأن الذكاء الاصطناعي من الفاتيكان والمجموعة التي تقف وراء ساعة يوم القيامة.
يركّز التقرير على الذكاء الاصطناعي للأغراض العامة، والذي يتجسد في روبوتات الدردشة مثل ChatGPT من OpenAI المستخدمة لتنفيذ العديد من أنواع المهام المختلفة. وتنقسم المخاطر إلى ثلاث فئات: الاستخدام الخبيث، والأعطال، والمخاطر "النظامية" واسعة الانتشار.
قال بنجيو، الذي فاز مع اثنين آخرين من رواد الذكاء الاصطناعي بجائزة أفضل خبير في علوم الكمبيوتر في عام 2019، إن الخبراء المائة الذين اجتمعوا على التقرير لا يتفقون جميعاً على ما يمكن توقعه من الذكاء الاصطناعي في المستقبل. ومن بين أكبر الخلافات داخل مجتمع أبحاث الذكاء الاصطناعي هو توقيت تفوق هذه التكنولوجيا سريعة التطور على القدرات البشرية في مجموعة متنوعة من المهام وما الذي سيعنيه ذلك.
قال بنجيو: "إنهم يختلفون أيضًا حول السيناريوهات". "بالطبع، لا أحد لديه كرة بلورية. بعض السيناريوهات مفيدة للغاية. وبعضها مرعب. أعتقد أنه من المهم حقًا بالنسبة لصانعي السياسات والجمهور أن يقيّموا حالة عدم اليقين هذه."
شاهد ايضاً: الهيئة البريطانية تركز على أنظمة الهواتف المحمولة لشركتي آبل وجوجل مع قوى السوق الرقمية الجديدة
تعمق الباحثون في التفاصيل المحيطة بالمخاطر المحتملة. فالذكاء الاصطناعي يجعل من الأسهل، على سبيل المثال، تعلم كيفية صنع أسلحة بيولوجية أو كيميائية لأن نماذج الذكاء الاصطناعي يمكن أن توفر خططاً خطوة بخطوة. ولكن "من غير الواضح مدى قدرتها على استيعاب التحديات العملية" المتعلقة بتسليح العوامل وتسليمها، كما جاء في التقرير.
يقول التقرير إن الذكاء الاصطناعي للأغراض العامة من المحتمل أيضًا أن يحول مجموعة من الوظائف و"يزيح العمال"، مشيرًا إلى أن بعض الباحثين يعتقدون أنه يمكن أن يخلق وظائف أكثر مما يأخذ، بينما يعتقد آخرون أنه سيؤدي إلى انخفاض الأجور أو معدلات التوظيف، على الرغم من وجود الكثير من عدم اليقين حول كيفية حدوث ذلك.
كما يمكن أن تخرج أنظمة الذكاء الاصطناعي عن السيطرة، إما لأنها تقوض الرقابة البشرية بشكل فعال أو لأن البشر لا يولون اهتماماً كافياً، بحسب التقرير.
ومع ذلك، قال المؤلفون إن هناك مجموعة من العوامل التي تجعل من الصعب إدارة المخاطر، بما في ذلك عدم معرفة مطوري الذكاء الاصطناعي إلا القليل عن كيفية عمل نماذجهم.
تم التكليف بإعداد الورقة البحثية في قمة عالمية افتتاحية حول سلامة الذكاء الاصطناعي استضافتها بريطانيا في نوفمبر 2023، حيث اتفقت الدول على العمل معاً لاحتواء "المخاطر الكارثية" المحتملة. وفي اجتماع المتابعة الذي استضافته كوريا الجنوبية العام الماضي، تعهدت شركات الذكاء الاصطناعي بتطوير سلامة الذكاء الاصطناعي بينما دعم قادة العالم إنشاء شبكة من معاهد السلامة العامة للذكاء الاصطناعي.
ويهدف التقرير، المدعوم أيضًا من الأمم المتحدة والاتحاد الأوروبي، إلى مواجهة التغييرات في الحكومات، مثل الانتقال الرئاسي الأخير في الولايات المتحدة، تاركًا الأمر لكل دولة لاختيار كيفية استجابتها لمخاطر الذكاء الاصطناعي. وقد ألغى الرئيس دونالد ترامب سياسات سلامة الذكاء الاصطناعي التي وضعها الرئيس السابق جو بايدن في أول يوم له في منصبه، ومنذ ذلك الحين وجه إدارته الجديدة إلى صياغة نهجها الخاص. لكن ترامب لم يتخذ أي خطوة لحل معهد سلامة الذكاء الاصطناعي الذي شكله بايدن العام الماضي، وهو جزء من شبكة دولية متنامية من هذه المراكز.
ومن المتوقع أن يجتمع قادة العالم ورؤساء التكنولوجيا والمجتمع المدني مرة أخرى في قمة عمل باريس للذكاء الاصطناعي يومي 10 و11 فبراير. وقد قال مسؤولون فرنسيون إن الدول ستوقع على "إعلان مشترك" بشأن تطوير الذكاء الاصطناعي، وستتفق على تعهد بشأن التنمية المستدامة للتكنولوجيا.
وقال بينجيو إن هدف التقرير لم يكن "اقتراح طريقة معينة لتقييم الأنظمة أو أي شيء". فقد ابتعد المؤلفون عن تحديد أولويات مخاطر معينة أو تقديم توصيات سياسية محددة. وبدلاً من ذلك، فقد وضعوا ما تقوله الأدبيات العلمية عن الذكاء الاصطناعي "بطريقة يسهل على صانعي السياسات استيعابها".
وقال: "نحن بحاجة إلى فهم أفضل للأنظمة التي نبنيها والمخاطر التي تصاحبها حتى نتمكن من اتخاذ قرارات أفضل في المستقبل".
أخبار ذات صلة

سوق الأسهم اليوم: تباين في الأسهم الآسيوية بعد تراجع وول ستريت تحت وطأة عمالقة التكنولوجيا

تجمع شركتا Consol و Arch لتشكيل منتج للفحم بقيمة 5 مليار دولار مقرها في ولاية بنسلفانيا

سوق الأسهم اليوم: وول ستريت تختتم أفضل أسبوع لها هذا العام بمكاسب إضافية
