وكالات - الاقتصادي - قضى اختصاصي الذكاء الاصطناعي غاري ماركوس، الأشهر الأخيرة يحذّر أقرانه والنواب والجمهور عموماً من المخاطر المرتبطة بتطوير أدوات هذا المجال الجديدة وانتشارها الفائق السرعة، لكنه اعتبر في حديث أجرته معه وكالة الصحافة الفرنسية في سان فرانسيسكو أن مخاطر انقراض البشرية «مبالغ فيه».
وأوضح الأستاذ الفخري في جامعة نيويورك الذي قدم إلى كاليفورنيا لحضور مؤتمر: «شخصياً، وفي الوقت الحاضر، لست قلقاً جداً بهذا الشأن، لأن السيناريوهات ليست في غاية الواقعية». وتابع: «ما يقلقني هو أن نبني أنظمة ذكاء اصطناعي لا نحكم السيطرة عليها».
وابتكر غاري ماركوس برنامجه الأول للذكاء الاصطناعي في المدرسة الثانوية، وكان برنامجاً لترجمة نصوص من اللاتينية إلى الإنجليزية. وبعد سنوات من دراسة علم النفس للأطفال، أنشأ شركة متخصصة في «تعلّم الآلة» استحوذت عليها «أوبر» لاحقاً.
وفي مارس (آذار)، كان من موقعي الرسالة التي نشرها مئات الخبراء للمطالبة بتعليق تطوير أنظمة ذكاء اصطناعي فائقة القوة مثل روبوت الدردشة «تشات جي بي تي» الذي أطلقته شركة «أوبن إيه آي» الناشئة لمدة 6 أشهر للتثبت من أن البرامج المطروحة حالياً للاستخدام «موثوقة وآمنة وشفافة ووفية... وموائمة» للقيم البشرية.
لكنه لم يوقّع الإعلان المقتضب الذي أصدرته مجموعة من كبار رجال الأعمال والخبراء هذا الأسبوع وكان له وقع شديد.
ودعا موقّعو الإعلان، من أبرزهم مبتكر «تشات جي بي تي» نفسه سام التمان، والمهندس الكبير السابق لدى «غوغل» جيفري هينتون، الذي يعد من الآباء المؤسسين للذكاء الاصطناعي، ورئيس شركة «ديب مايند» للأبحاث في مجال الذكاء الاصطناعي التابعة لـ«غوغل» ديميس هاسابيس، والمدير الفني لـ«مايكروسوف» كيفن سكوت، إلى التصدي لـ«مخاطر انقراض» البشرية «المرتبطة بالذكاء الاصطناعي».
وأطلق النجاح الهائل الذي أحرزه برنامج «تشات جي بي تي» القادر على إنتاج أي نوع من النصوص بناء على طلب مستخدميه، سباقاً بين شركات التكنولوجيا العملاقة إلى هذا الذكاء الاصطناعي «التوليدي»، غير أنه أثار في المقابل الكثير من التحذيرات والدعوات إلى وضع ضوابط لهذا المجال.
وقال غاري ماركوس: «إن كنتم مقتنعين فعلياً بأن هناك خطراً وجودياً، فلماذا تعملون على ذلك بالأساس؟ هذا سؤال منطقي». ورأى أن «انقراض الجنس البشري... مسألة في غاية التعقيد في الواقع، يمكننا تصور كلّ أنواع الآفات، لكن ثمة من سينجو حتماً». وشدد في المقابل على أن هناك سيناريوهات ذات مصداقية يمكن في سياقها أن يتسبب الذكاء الاصطناعي «بأضرار هائلة».
وتابع: «قد ينجح البعض على سبيل المثال في التلاعب بالأسواق... وقد نتهم الروس بتحمل المسؤولية ونهاجمهم في حين أن لا ضلوع لهم إطلاقاً، وقد ننجر إلى حرب عرضية تهدد بأن تتحول إلى حرب نووية».