أطلقت شركة OpenAI رسميًا ثلاثة نماذج جديدة: GPT-4.1، وGPT-4.1 mini، وGPT-4.1 nano. تتمتع هذه النماذج بقدرات معالجة سياقية هائلة تصل إلى مليون رمز وحدود معرفة محدثة حتى يونيو 2024.
وتقول الشركة إن هذه النماذج تتفوق على GPT-4o وGPT-4o mini المحدثتين مؤخرًا، واللتين تم إطلاقهما في يوليو/تموز الماضي. يتوفر GPT-4.1 حاليًا عبر واجهة برمجة التطبيقات فقط، لذا لن تتمكن من استخدامه بشكل مباشر في ChatGPT حتى الآن.
تشير OpenAI إلى أن GPT-4.1 سيكون متاحًا فقط عبر واجهة برمجة التطبيقات (API). في ChatGPT، تم دمج العديد من التحسينات في الامتثال للتعليمات والبرمجة والذكاء تدريجيًا في أحدث إصدار من GPT-4o، وستواصل الشركة إضافة المزيد في الإصدارات المستقبلية.

تظهر المعايير التحسينات الملحوظة التي يجلبها GPT-4.1. حصل هذا النموذج على 54.6% على SWE-bench Verified، وهي زيادة قدرها 21.4 نقطة عن GPT-4o. وسجل النموذج 38.3% على MultiChallenge - وهو معيار يقيس الالتزام بالمبادئ التوجيهية - وحقق رقمًا قياسيًا جديدًا لفهم مقاطع الفيديو الطويلة بنتيجة 72.0% على معيار Video-MME، حيث تقوم النماذج بتحليل مقاطع فيديو تصل مدتها إلى ساعة واحدة دون ترجمات.
كما تعاونت OpenAI أيضًا مع شركاء ألفا لاختبار أداء GPT-4.1 في حالات الاستخدام في العالم الحقيقي.
- قامت شركة Thomson Reuters باختبار GPT-4.1 باستخدام مساعدها القانوني بالذكاء الاصطناعي CoCounsel. بالمقارنة مع GPT-4o، يسجل GPT-4.1 زيادة بنسبة 17% في الدقة في تقييم المستندات المتعددة. يعتمد هذا النوع من العمل بشكل كبير على القدرة على تتبع السياق عبر مصادر متعددة وتحديد العلاقات المعقدة مثل المصطلحات المتضاربة أو التبعيات المخفية، وقد أظهر GPT-4.1 أداءً قويًا باستمرار.
- استخدمت شركة Carlyle برنامج GPT-4.1 لاستخراج البيانات المالية من المستندات الطويلة والمعقدة، بما في ذلك ملفات Excel وPDF. وفقًا للمعايير الداخلية للشركة، فإن أداء النموذج أفضل بنسبة 50% من النماذج السابقة في استرجاع المستندات. إنه أول نموذج يتعامل بشكل موثوق مع مشكلات مثل البحث عن "إبرة في كومة قش"، وفقدان المعلومات في منتصف المستند، والحجج التي تتطلب ربط المعلومات عبر ملفات متعددة.
الأداء شيء، ولكن السرعة مهمة بنفس القدر. وتقول OpenAI أن GPT-4.1 يعيد الرمز المميز الأول في حوالي 15 ثانية عند معالجة 128000 رمز مميز، وما يصل إلى 30 ثانية عند معالجة مليون رمز مميز كامل. GPT-4.1 mini و nano أسرع أيضًا.
يستجيب GPT-4.1 nano عادةً في أقل من 5 ثوانٍ للمطالبات التي تحتوي على 128000 رمز إدخال. يمكن أن يؤدي التخزين المؤقت الفوري إلى تقليل زمن الوصول بشكل أكبر مع توفير التكاليف.
كما أحرز فهم الصورة تقدما كبيرا. على وجه الخصوص، يتفوق GPT-4.1 mini على GPT-4o في معايير بصرية مختلفة.
- في MMMU (بما في ذلك الرسوم البيانية والمخططات والخرائط)، حصل GPT-4.1 mini على 73%. وهذا أعلى من GPT-4.5 ويتجاوز بكثير 56% من GPT-4o mini.
- في برنامج MathVista (الذي يختبر القدرة على حل مشكلات الصور)، حصل كل من GPT-4.1 وGPT-4.1 mini على 57%، متجاوزين بكثير نسبة 37% التي حصل عليها GPT-4o mini.
- في CharXiv-Reasoning ، حيث تجيب النماذج على الأسئلة استنادًا إلى الرسوم البيانية العلمية، يواصل GPT-4.1 الريادة.
- وفي Video-MME (مقاطع الفيديو الطويلة بدون ترجمة)، حقق GPT-4.1 نسبة 72%، وهو تحسن كبير مقارنة بـ 65% التي حققها GPT-4o.
حول السعر:
- تبلغ تكلفة GPT-4.1 2 دولارًا لكل مليون رمز مدخل و8 دولارات للإخراج.
- يبلغ سعر GPT-4.1 mini 0.40 دولارًا أمريكيًا للإدخال و1.60 دولارًا أمريكيًا للإخراج.
- تبلغ تكلفة GPT-4.1 nano 0.10 دولارًا أمريكيًا للإدخال و0.40 دولارًا أمريكيًا للإخراج.
إن استخدام التخزين المؤقت الفوري أو واجهة برمجة التطبيقات الدفعية قد يؤدي إلى تقليل هذه التكاليف بشكل أكبر، وهو أمر رائع للتطبيقات واسعة النطاق. تستعد OpenAI أيضًا لإيقاف دعم GPT-4.5 Preview في 14 يوليو 2025، مشيرة إلى الأداء الأفضل لـ GPT-4.1، والزمن الأقل، والتكلفة الأقل.