جوجل: حاسوبنا الفائق للذكاء الاصطناعي أسرع وأكثر كفاءة من حاسوب إنفيديا
AHC: 0.80(%)   AIB: 1.04(3.70%)   AIG: 0.17(%)   AMLAK: 5.00(%)   APC: 7.25(%)   APIC: 2.27(%)   AQARIYA: 0.78(%)   ARAB: 0.85(3.66%)   ARKAAN: 1.29(0.00%)   AZIZA: 2.84(%)   BJP: 2.80(%)   BOP: 1.49(%)   BPC: 3.73(0.27%)   GMC: 0.76(%)   GUI: 2.00(%)   ISBK: 1.12(%)   ISH: 0.98(%)   JCC: 1.53( %)   JPH: 3.58( %)   JREI: 0.28(%)   LADAEN: 2.50( %)   MIC: 2.47(%)   NAPCO: 0.95( %)   NCI: 1.68(4.00%)   NIC: 3.00(%)   NSC: 2.95(%)   OOREDOO: 0.78(1.27%)   PADICO: 1.00(0.99%)   PALAQAR: 0.42(%)   PALTEL: 3.91(0.00%)   PEC: 2.84(%)   PIBC: 1.09(%)   PICO: 3.50(%)   PID: 1.91(%)   PIIC: 1.72(%)   PRICO: 0.29(0.00%)   PSE: 3.00(%)   QUDS: 1.06(%)   RSR: 4.50(%)   SAFABANK: 0.68(%)   SANAD: 2.20(%)   TIC: 2.98(%)   TNB: 1.20(0.00%)   TPIC: 1.95(%)   TRUST: 2.85(%)   UCI: 0.38(%)   VOIC: 5.29(%)   WASSEL: 1.00(0.00%)  
10:49 صباحاً 06 نيسان 2023

جوجل: حاسوبنا الفائق للذكاء الاصطناعي أسرع وأكثر كفاءة من حاسوب إنفيديا

الاقتصادي - أصدرت شركة جوجل تفاصيل جديدة عن أجهزة الحاسوب الفائقة التي تستخدمها لتدريب نماذج الذكاء الاصطناعي الخاصة بها، قائلةً إن أنظمتها أسرع وأكثر كفاءةً في استهلاك الطاقة مقارنةً بالأنظمة المماثلة من شركة إنفيديا.

وصممت جوجل شريحة مخصصة خاصة بها تسمى Tensor Processing Unit أو TPU. وهي تستخدم هذه الشرائح لأكثر من 90 في المئة من عملها في تدريب الذكاء الاصطناعي، وهي عملية تركز في تغذية البيانات بواسطة النماذج لجعلها مفيدة في تنفيذ المهام، مثل: الرد على الاستفسارات بنصوص تشبه نصوص الإنسان، أو إنشاء الصور.

وتُعد Google TPU الآن في جيلها الرابع. وقد نشرت جوجل يوم الثلاثاء ورقة علمية توضح بالتفصيل كيفية دمج أكثر من 4,000 شريحة معًا في حاسوب فائق باستخدام مفاتيحها الضوئية المطورة خاصةً للمساعدة في توصيل الأجهزة الفردية.

وأصبح تحسين هذه الاتصالات نقطة رئيسية في المنافسة بين الشركات التي تبني أجهزة حاسوب فائقة تعمل بالذكاء الاصطناعي لأن ما يسمى بنماذج اللغات الكبيرة التي تُشغِّل تقنيات، مثل: (بارد) Bard من جوجل، أو (شات جي بي تي) ChatGPT من (أوبن أي آي) OpenAI قد تضخمت، وهذا يعني أنها كبيرة جدًا بحيث لا يمكن تخزينها على شريحة واحدة.

وبدلًا من ذلك، يجب تقسيم النماذج عبر آلاف الشرائح، التي يجب أن تعمل معًا لأسابيع أو أكثر لتدريب النموذج. وقد دُرِّب نموذج PaLM من جوجل، وهو أكبر نموذج لغوي كُشفَ عنه للعامة حتى الآن، وذلك من خلال تقسيمه عبر اثنين من أجهزة الحاسوب الفائقة المكونة من 4,000 شريحة على مدار 50 يومًا.

Loading...