Home
» ويكي
»
Cerebras تطلق أسرع تقنية استدلال ذكاء اصطناعي في العالم، بأداء أعلى بعشرين ضعفًا من NVIDIA
Cerebras تطلق أسرع تقنية استدلال ذكاء اصطناعي في العالم، بأداء أعلى بعشرين ضعفًا من NVIDIA
أعلنت شركة Cerebras Systems للتو رسميًا عن Cerebras Inference، والذي يعتبر أسرع حل استدلال بالذكاء الاصطناعي في العالم. يوفر Cerebras Inference أداءً يصل إلى 1800 رمز في الثانية لنماذج Llama 3.1 8B (8 مليار معلمة) و450 رمز في الثانية لنماذج Llama 3.1 70B، وهو أسرع بما يصل إلى 20 مرة تقريبًا من حلول الاستدلال بالذكاء الاصطناعي المستندة إلى وحدة معالجة الرسومات NVIDIA المتوفرة في السحابات الضخمة اليوم في جميع أنحاء العالم، بما في ذلك Microsoft Azure.
بالإضافة إلى أدائها المذهل، فإن سعر خدمة حل الاستدلال الجديد هذا رخيص للغاية أيضًا، حيث يمثل جزءًا بسيطًا من سعر منصات السحابة GPU الشائعة. على سبيل المثال، يمكن للعميل الحصول على مليون رمز مقابل 10 سنتات فقط، مما يوفر أداءً سعريًا أعلى بمقدار 100 مرة لأحمال عمل الذكاء الاصطناعي.
ستتيح دقة Cerebras البالغة 16 بت وسرعة الاستدلال الأسرع بمقدار 20 مرة للمطورين بناء تطبيقات الذكاء الاصطناعي عالية الأداء من الجيل التالي دون المساومة على السرعة أو التكلفة. أصبح من الممكن تحقيق هذه النسبة المذهلة من السعر إلى الأداء بفضل نظام Cerebras CS-3 ومعالج الذكاء الاصطناعي Wafer Scale Engine 3 (WSE-3). يقدم CS-3 نطاق ترددي للذاكرة أكبر بـ 7000 مرة من Nvidia H100، مما يحل التحدي الفني المتمثل في نطاق ترددي للذاكرة للذكاء الاصطناعي التوليدي.
يتوفر Cerebras Inference حاليًا على المستويات الثلاثة التالية:
توفر الطبقة المجانية إمكانية الوصول إلى واجهة برمجة التطبيقات مجانًا وحدود استخدام سخية لأي شخص يقوم بالتسجيل.
تم تصميم Developer Tier للنشر المرن بدون خادم، مما يوفر للمستخدمين نقاط نهاية API مقابل جزء بسيط من تكلفة البدائل الموجودة في السوق، مع تسعير طرازي Llama 3.1 8B و70B بمبلغ 10 سنتات و60 سنتًا فقط لكل مليون رمز على التوالي.
توفر خطط Enterprise Tier نماذج دقيقة واتفاقيات مستوى خدمة مخصصة ودعمًا مخصصًا. يُعد Cerebras Inference مثاليًا لأحمال العمل المستمرة، حيث يمكن للشركات الوصول إليه عبر السحابة الخاصة التي تديرها Cerebras أو محليًا.
بفضل الأداء القياسي والأسعار التنافسية والوصول إلى واجهة برمجة التطبيقات المفتوحة، تضع Cerebras Inference معيارًا جديدًا لتطوير ونشر LLM المفتوح. باعتباره الحل الوحيد القادر على تقديم التدريب والاستدلال عالي السرعة، يفتح Cerebras إمكانيات جديدة تمامًا للذكاء الاصطناعي.
مع تطور اتجاهات الذكاء الاصطناعي بسرعة، وتولي NVIDIA حاليًا مكانة مهيمنة في السوق، فإن ظهور شركات مثل Cerebras و Groq يشير إلى تحول محتمل في ديناميكيات الصناعة بأكملها. مع تزايد الطلب على حلول استدلال الذكاء الاصطناعي الأسرع والأكثر فعالية من حيث التكلفة، فإن الحلول مثل Cerebras Inference في وضع جيد للمخاطرة بهيمنة NVIDIA، وخاصة في مجال الاستدلال.