نشرت Google تفاصيل حول أحد حواسيبها الفائقة العاملة بالذكاء الاصطناعي الأربعاء 5 أبريل/نيسان، قائلة إنها أسرع وأكثر كفاءة من أنظمة Nvidia المنافسة، حيث لا تزال نماذج التعلم الآلي هي الجزء الأكثر سخونة في صناعة التكنولوجيا.
بينما تهيمن Nvidia على سوق تدريب وتطوير نموذج الذكاء الاصطناعي بأكثر من 90%، تقوم Google بتصميم ونشر رقائق الذكاء الاصطناعي التي تسمى وحدات معالجة Tensor أو TPU منذ عام 2016.
تعد Google شركة رائدة في مجال الذكاء الاصطناعي، وقد طور موظفوها بعضًا من أهم التطورات في هذا المجال على مدار العقد الماضي. لكن يعتقد البعض أنها تخلفت عن الركب فيما يتعلق بتسويق اختراعاتها، وداخليًا كانت الشركة تتسابق لإطلاق المنتجات وإثبات أنها لم تفقد تقدمها، حسبما ذكرت CNBC سابقًا.
تتطلب نماذج ومنتجات الذكاء الاصطناعي مثل Google Bard أو OpenAI's ChatGPT - المدعومة بشرائح A100 من Nvidia - الكثير من أجهزة الكمبيوتر ومئات أو آلاف الرقائق للعمل معًا لتدريب النماذج، مع تشغيل أجهزة الكمبيوتر على مدار الساعة لأسابيع أو شهور.
قالت Google الثلاثاء 4 أبريل/نيسان إنها قامت ببناء نظام به أكثر من 4000 TPU مرتبطة بمكونات مخصصة مصممة لتشغيل وتدريب نماذج الذكاء الاصطناعي.
يتم تشغيله منذ عام 2020، وقد تم استخدامه لتدريب نموذج PaLM من Google، والذي يتنافس مع نموذج OpenAI's GPT على مدار 50 يومًا.
كتب باحثو Google أن الحاسب الفائق المستند إلى TPU من Google ، والمسمى TPU v4 ، "أسرع بـ 1.2x–1.7xويستخدم طاقة أقل بمقدار 1.3x–1.9x من Nvidia A100".
تعتبر الكمية الكبيرة من طاقة الكمبيوتر اللازمة للذكاء الاصطناعي باهظة الثمن ، ويركز الكثيرون في الصناعة على تطوير رقائق جديدة أو مكونات مثل التوصيلات الضوئية أو تقنيات البرامج التي تقلل من كمية طاقة الحواسب المطلوبة.
تابعونا على منصات التواصل الاجتماعي