مايكروسوفت تعتذر عن الرسائل العنصرية التي نشرتها روبوت الدردشة “تاي”
AHC: 0.80(%)   AIB: 1.07(%)   AIG: 0.16(0.00%)   AMLAK: 5.00(%)   APC: 7.25(%)   APIC: 2.20(0.00%)   AQARIYA: 0.78(%)   ARAB: 0.84(%)   ARKAAN: 1.30(0.78%)   AZIZA: 2.84(4.80%)   BJP: 2.80(%)   BOP: 1.48(%)   BPC: 3.73(%)   GMC: 0.79(%)   GUI: 2.00(%)   ISBK: 1.10(1.85%)   ISH: 1.00(%)   JCC: 1.50(1.32%)   JPH: 3.58( %)   JREI: 0.28(%)   LADAEN: 2.50( %)   MIC: 2.47(%)   NAPCO: 0.95( %)   NCI: 1.68(%)   NIC: 3.00(%)   NSC: 2.95(%)   OOREDOO: 0.78(1.27%)   PADICO: 1.00(0.99%)   PALAQAR: 0.42(%)   PALTEL: 3.99(1.79%)   PEC: 2.84(%)   PIBC: 1.07(1.90%)   PICO: 3.50(%)   PID: 1.91(%)   PIIC: 1.72(%)   PRICO: 0.29(%)   PSE: 3.00(%)   QUDS: 1.04(%)   RSR: 4.50(%)   SAFABANK: 0.66(2.94%)   SANAD: 2.20(%)   TIC: 2.98(%)   TNB: 1.21(%)   TPIC: 1.90(%)   TRUST: 2.85(%)   UCI: 0.38(%)   VOIC: 5.29(%)   WASSEL: 1.00(0.00%)  
12:00 صباحاً 26 آذار 2016

مايكروسوفت تعتذر عن الرسائل العنصرية التي نشرتها روبوت الدردشة “تاي”

قدمت شركة مايكروسوفت من خلال تدوينة نشرتها على موقعها، اعتذارها عن التغريدات العنصرية التي نشرها روبوت الذكاء الاصطناعي “تاي” Tay، والذي كانت قد أوقفته بعد أقل من 24 ساعة على طرحه.

وكتب “بيتر لي” رئيس الأبحاث في مايكروسوفت شارحًا ما حدث، ومؤكدًا بأن ما بدر من “تاي” لا يُعبّر عن مايكروسوفت، ولا عن الكيفية التي تم فيها تصميم الروبوت.

و”تاي” وهو عبارة عن برنامج يُمثّل شخصية افتراضية لفتاة مراهقة يُمكن لها الدردشة مع المُستخدمين والإجابة على أسئلتهم. وقد طوّرت الشركة الروبوت بواسطة تقنية الذكاء الاصطناعي Artificial Intelligence وقالت أن “تاي” تستطيع أن تتعلّم وتُحسّن من أجوبتها تدريجيًا من خلال الدردشات التي تقوم بها. لكن “تاي” تحوّلت إلى أداة لنشر العنصرية والكراهية، حيث بدأ حسابها الروبوتي على تويتر بنشر رسائل تُمجّد النازية وهتلر، وتُحرّض ضد السود والمُهاجرين وتدعو إلى التطهير العرقي.

وقد حاول “بيتر لي” شرح ما حدث، قائلًا بأن “تاي” هي ليست أول تجربة لتطبيق بتقنية الذكاء الاصطناعي أطلقته مايكروسوفت، حيث سبق وأطلقت الروبوت XiaoIce في الصين وقد استخدمه حوالي 400 مليون مُستخدم للدردشة وتبادل الأحاديث، وبحسب مايكروسوفت فقد كانت هذه التجربة ناجحة جدًا مما دعاها لتجربة الروبوت “تاي” الموجه للأمريكيين بين عمر 18 إلى 24 عامًا. وذكرت الشركة أنها أثناء تطوير “تاي” حرصت على اختبار الروبوت في مختلف الظروف وسعت كي يقدم تجربة إيجابية خالية من المشاكل.

لكن حدث ما وصفتها الشركة بـ “هجمات مُنسّقة” من قبل أشخاص تمكنوا من استغلال ثغرة في نظام “تاي” مكنتهم من بث الأفكار العنصرية وأفكار الكراهية التي كررها الروبوت الذي يُمكن له أن يتعلّم ويطوّر معارفه من خلال تفاعله مع الآخرين. ورغم أن مايكروسوفت طوّرت “تاي” بشكل لا يُتيح التلاعب بها، إلّا أنها غفلت عن هذا النوع من الهجمات تحديدًا بحسب الشركة.

وأخيرًا، قالت الشركة أن أمامها تحدٍ الآن لتحسين أبحاث الذكاء الاصطناعي لتفادي مثل هذه الحوادث مُستقبلًا.

 

 

 

البوابة العربية

Loading...