زرّ من غوغل لإيقاف الخطر مستقبلاً
AHC: 0.80(%)   AIB: 1.18(0.00%)   AIG: 0.17(%)   AMLAK: 5.00(%)   APC: 7.25(%)   APIC: 2.62(1.55%)   AQARIYA: 0.78(%)   ARAB: 0.91(3.41%)   ARKAAN: 1.32(0.00%)   AZIZA: 2.89(%)   BJP: 2.80(%)   BOP: 1.50(0.00%)   BPC: 4.10(1.49%)   GMC: 0.79(%)   GUI: 1.99(%)   ISBK: 1.45(0.69%)   ISH: 1.10(%)   JCC: 1.59( %)   JPH: 3.83(0.26%)   JREI: 0.28( %)   LADAEN: 2.50( %)   MIC: 2.47( %)   NAPCO: 1.03( %)   NCI: 1.76(%)   NIC: 3.00(0.00%)   NSC: 2.95(%)   OOREDOO: 0.82(1.20%)   PADICO: 1.00(0.99%)   PALAQAR: 0.42(%)   PALTEL: 4.00(0.00%)   PEC: 2.84(%)   PIBC: 1.13(%)   PICO: 3.50(%)   PID: 1.91(%)   PIIC: 1.72(%)   PRICO: 0.28(%)   PSE: 3.00(%)   QUDS: 1.13(0.89%)   RSR: 4.50(%)   SAFABANK: 0.67(4.29%)   SANAD: 2.20(%)   TIC: 2.98(%)   TNB: 1.20(%)   TPIC: 1.90(%)   TRUST: 2.85(%)   UCI: 0.37(2.78%)   VOIC: 7.28(4.90%)   WASSEL: 1.00(0.00%)  
12:00 صباحاً 27 حزيران 2016

زرّ من غوغل لإيقاف الخطر مستقبلاً

في ظل التطور المستمر لتقنيات الذكاء الاصطناعي يحذر العديد من العلماء والمختصين من المخاطر التي قد تسببها عملية تزويد الروبوتات بالذكاء الإصطناعي. ويرى البعض أن التطور السريع لتقنيات الذكاء الاصطناعي قد ينتج في المستقبل أجهزة قادرة على التصرف واتخاذ قرارات دون الحاجة إلى تدخل الإنسان ومن المحتمل مستقبلا مواجهة أجهزة وروبوتات تتصرف بعدوانية تجاه الإنسان.


ذلك ما دفع باحثين من قسم الذكاء الإصطناعي بشركة غوغل DeepMind إلى التفكير بجدية في تطوير أنظمة قادرة على إيقاف برامج الذكاء الإصطناعي، وذلك تفادياً لحدوث كوارث غير متوقعة. ويرى هؤلاء الباحثون أنه من الضروري تطوير زر يمكنه إيقاف ذكاء الآلات بمجرد الضغط عليه.


وأشار القائمون على المشروع، إلى أن الروبوتات ذات الذكاء الاصطناعي من الممكن أن تتصرف بطريقة خاطئة، مما يحتم ضرورة تطوير "زر أحمر" لإيقاف عملها.

 

 

 

 

نقلا عن العربي الجديد

في ظل التطور المستمر لتقنيات الذكاء الاصطناعي يحذر العديد من العلماء والمختصين من المخاطر التي قد تسببها عملية تزويد الروبوتات بالذكاء الإصطناعي. ويرى البعض أن التطور السريع لتقنيات الذكاء الاصطناعي قد ينتج في المستقبل أجهزة قادرة على التصرف واتخاذ قرارات دون الحاجة إلى تدخل الإنسان ومن المحتمل مستقبلا مواجهة أجهزة وروبوتات تتصرف بعدوانية تجاه الإنسان.
ذلك ما دفع باحثين من قسم الذكاء الإصطناعي بشركة غوغل DeepMind إلى التفكير بجدية في تطوير أنظمة قادرة على إيقاف برامج الذكاء الإصطناعي، وذلك تفادياً لحدوث كوارث غير متوقعة. ويرى هؤلاء الباحثون أنه من الضروري تطوير زر يمكنه إيقاف ذكاء الآلات بمجرد الضغط عليه.
وأشار القائمون على المشروع، إلى أن الروبوتات ذات الذكاء الاصطناعي من الممكن أن تتصرف بطريقة خاطئة، مما يحتم ضرورة تطوير "زر أحمر" لإيقاف عملها. - See more at: https://www.alaraby.co.uk/medianews/2016/6/26/%D8%B2%D8%B1-%D9%85%D9%86-%D8%BA%D9%88%D8%BA%D9%84-%D9%84%D8%A5%D9%8A%D9%82%D8%A7%D9%81-%D8%A7%D9%84%D8%AE%D8%B7%D8%B1-%D9%85%D8%B3%D8%AA%D9%82%D8%A8%D9%84%D8%A7-1#sthash.Dhaz2TTx.dpuf
Loading...