الاقتصادي - رسم تقرير جديد، صدر بتكليف من وزارة الخارجية الأميركية، صورة مثيرة للقلق، للمخاطر «الكارثية» التي قد يتسبب بها الذكاء الاصطناعي سريع التطور على البشرية والأمن العالمي، محذراً من أنه قد يتسبب في انقراض البشر.
ووفق شبكة «سي إن إن» الأميركية، فقد استندت النتائج إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بمن في ذلك كبار المسؤولين التنفيذيين من شركات الذكاء الاصطناعي الرائدة، وباحثون في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولو الأمن القومي داخل الحكومة.
ويشير التقرير، الذي صدر هذا الأسبوع من قِبل شركة «غلادستون» للذكاء الاصطناعي، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن، في أسوأ الحالات، «أن تشكل تهديداً خطيراً يتعلق بانقراض الجنس البشري».
وقال التقرير إن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن استخدامها أسلحةً لإحداث أضرار لا يمكن إصلاحها، كما أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أن العلماء أنفسهم قد «يفقدون السيطرة» في مرحلةٍ ما على هذه الأنظمة أثناء تطويرها، الأمر الذي قد تنتج عنه «عواقب مدمّرة محتملة على الأمن العالمي».
وأضاف التقرير: «إن صعود الذكاء الاصطناعي قد يزعزع استقرار الأمن العالمي بطرق تُذكّرنا بفترة ظهور الأسلحة النووية. هناك مخاوف أيضاً من احتمالية حدوث (سباق تسلح) بالذكاء الاصطناعي، الأمر الذي قد يتسبب في حوادث مميتة وعواقب وخيمة بحجم العواقب الناتجة عن استخدام أسلحة الدمار الشامل».
ولفت التقرير إلى أن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير تقنيات الذكاء الاصطناعي «على حساب السلامة والأمن»، مما يزيد احتمال «سرقة» أنظمة الذكاء الاصطناعي الأكثر تقدماً، و«استخدامها أسلحةً» ضد الولايات المتحدة.
وأكد مسؤول بوزارة الخارجية الأميركية، لشبكة «سي إن إن» أن شركة «غلادستون» كُلفت بإعداد التقرير لأنها تقوم باستمرارٍ بتقييم مدى توافق الذكاء الاصطناعي مع هدفه المتمثل في حماية المصالح الأميركية بالداخل والخارج. ومع ذلك أكد المسؤول أن التقرير لا يمثل آراء الحكومة الأميركية.
من جهته، قال جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لشركة «غلادستون»: «إن الذكاء الاصطناعي هو بالفعل تكنولوجيا رائعة يمكن أن تساعدنا على مكافحة بعض الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها، لكنه قد يجلب أيضاً مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب أن نكون على دراية بها».
وأضاف: «وتشير مجموعة متزايدة من الأدلة إلى أنه فوق عتبة معينة من الإمكانات والقدرات، من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة».
ودعا هاريس إلى اتخاذ خطوات جديدة جذرية تهدف إلى مواجهة تهديدات الذكاء الاصطناعي، بما في ذلك فرض إجراءات تنظيمية «طارئة» وقيود على مقدار قوة نماذج الذكاء الاصطناعي التي يجري تطويرها.
ومنذ ما يقرب من عام، استقال جيفري هينتون، المعروف باسم «الأب الروحي للذكاء الاصطناعي»، من وظيفته في شركة «غوغل»، وأطلق صافرة الإنذار بشأن التكنولوجيا التي ساعد في تطويرها. وقال هينتون إن هناك فرصة بنسبة 10 في المائة بأن يؤدي الذكاء الاصطناعي إلى انقراض الإنسان، خلال العقود الثلاثة المقبلة.
ووقّع هينتون وعشرات من قادة صناعة الذكاء الاصطناعي والأكاديميين وغيرهم على بيان، في يونيو (حزيران) الماضي، جاء فيه أن «التخفيف من خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية».