أصدرت Openai نموذجين لغويين مفتوحين في الوزن يوم الثلاثاء يقدمان أداءً يطابق عروضه التجارية أثناء تشغيله على أجهزة المستهلكين-يحتاج GPT-OSS-120B إلى وحدة معالجة الرسومات بنسبة 80 جيجابايت ، ويعمل GPT-OSS-20B على الأجهزة التي تحتوي على 16 جيجابايت فقط من الذاكرة.
النماذج ، المتوفرة بموجب ترخيص Apache 2.0 ، تحقق بالقرب من Openai's O4-Mini على معايير التفكير. ينشط إصدار المعلمة البالغ 120 مليار فقط 5.1 مليار معلمة لكل رمز من خلال بنية الخبرة في الخبرة ، بينما ينشط نموذج المعلمة البالغ 20 مليار 3.6 مليار. يطول كلا السياق المقبض حتى 128000 رمز-مثل GPT-4O.
حقيقة أن يتم إصدارها بموجب هذا الترخيص المحدد هي صفقة كبيرة. هذا يعني أنه يمكن لأي شخص استخدام هذه النماذج وتعديلها وربحها دون قيود. ويشمل ذلك أي شخص منك إلى منافسي Openai مثل شركة Deepseek الصينية.
ويأتي هذا الإصدار في الوقت الذي يتصاعد فيه المضاربة حول وصول GPT-5 الوشيك والمنافسة في مساحة الذكاء الاصطناعى مفتوح المصدر. تعد نماذج OSS أحدث نماذج لغوية Openai OpenWight منذ GPT-2 في عام 2019.
لا يوجد بالفعل تاريخ إصدار لـ GPT-5 ، لكن سام ألتمان ألمح إلى أنه قد يحدث عاجلاً وليس آجلاً. “لدينا الكثير من الأشياء الجديدة لك على مدار الأيام القليلة المقبلة” ، تويت في وقت مبكر اليوم ، ووعد “ترقية كبيرة في وقت لاحق من هذا الأسبوع.”
لدينا الكثير من الأشياء الجديدة لك خلال الأيام القليلة القادمة!
شيء كبير ولكن small اليوم.
ثم ترقية كبيرة في وقت لاحق من هذا الأسبوع.
– سام التمان (sama) 5 أغسطس ، 2025
النماذج المفتوحة المصدر التي انخفضت اليوم قوية للغاية. “هذه النماذج تتفوق على النماذج المفتوحة ذات الحجم المشابه حول مهام التفكير ، وتظهر إمكانيات استخدام الأدوات القوية ، ويتم تحسينها للنشر الفعال على أجهزة المستهلك” ، صرحت Openai في إعلانها. قامت الشركة بتدريبهم باستخدام التعلم والتقنيات من O3 وأنظمة الحدود الأخرى.
على ترميز مسابقة Codeforces ، سجل GPT-OSS-120B تصنيف ELO من 2622 مع الأدوات و 2463 بدون-تصنيف O4-MINI 2719 ويقترب من 2706. 50.1 ٪ درجة.
الصورة: Openai
يتطابق GPT-OSS-20B الأصغر أو تجاوز O3-MINI عبر هذه المعايير على الرغم من حجمه. وسجل 2516 elo على كود فورسيز مع الأدوات ، وصلت إلى 95.2 ٪ في AIME 2024 ، وضرب 42.5 ٪ على HealthBench – كل ذلك مع تركيب قيود الذاكرة مما يجعلها قابلة للحياة لنشر الحافة.
يدعم كلا النموذجين ثلاثة مستويات جهد التفكير – الذروة والمتوسطة والعالية – التي تداول الأداء. يمكن للمطورين ضبط هذه الإعدادات مع جملة واحدة في رسالة النظام. تم تدريب النماذج بعد ذلك باستخدام عمليات مشابهة لـ O4-Mini ، بما في ذلك الضبط الخاضع للإشراف وما وصفه Openai بأنه “مرحلة RL عالية الحمل”.
ولكن لا تفكر فقط لأن أي شخص يمكنه تعديل هذه النماذج في الإرادة ، سيكون لديك وقت سهل. تم ترشيح Openai بعض البيانات الضارة المتعلقة بالتهديدات الكيميائية والبيولوجية والإشعاعية والنووية أثناء التدريب المسبق. استخدمت مرحلة ما بعد التدريب المحاذاة التداولية والتسلسل الهرمي للتعليم لتدريس رفض المطالبات غير الآمنة والدفاع ضد الحقن السريعة.
بمعنى آخر ، تدعي Openai أنها صممت نماذجها لجعلها آمنة للغاية ، ولا يمكنها توليد استجابات ضارة حتى بعد التعديلات.
كشف إريك والاس ، وهو خبير في محاذاة Openai ، أن الشركة أجرت اختبارًا غير مسبوق للسلامة قبل الإصدار. “لقد صممنا النماذج لزيادة قدراتها الحيوية والسيبر عن عمد” ، نشرت والاس على X. قام الفريق برعاية البيانات الخاصة بالمجال لعلم الأحياء وتدريب النماذج في بيئات الترميز لحل تحديات الالتقاط.
نطلق اليوم GPT-OSS-120B و GPT-OSS-20B-LLMS Open-Weight LLMS التي تقدم أداءً قويًا وأدوات الوكيل.
قبل الإصدار ، قمنا بتشغيل أول تحليل للسلامة من نوعه حيث قمنا بتنشيط النماذج لزيادة قدراتها الحيوية والسيبرانية عن قصد 🧵 pic.twitter.com/err2mbcggx
– إريك والاس (eric_wallace_) 5 أغسطس 2025
خضعت للإصدارات التي تم ضبطها بشكل جيد تقييمها من قبل ثلاث مجموعات خبراء مستقلة. “في تقييماتنا للمخاطر الحدودية ، فإن GPT-OSS من الخيل ، OPENAI O3 ، نموذج أقل من القدرة على الاستعداد” ، صرح والاس. أشار الاختبار إلى أنه حتى مع وجود صقل قوي باستخدام كومة تدريب Openai ، لم تتمكن النماذج من الوصول إلى مستويات القدرة الخطرة وفقًا لإطار التأهب للشركة.
ومع ذلك ، فإن النماذج تحافظ على التفكير غير الخاضع للإشراف ، والتي قال Openai إنها ذات أهمية قصوى لتراقب الذكاء الاصطناعي. “لم نضع أي إشراف مباشر على سرير الأطفال لأي نموذج GPT-OSS” ، قالت الشركة. “نعتقد أن هذا أمر بالغ الأهمية لمراقبة سوء سلوك النموذج والخداع وسوء الاستخدام.”
يخفي Openai السلسلة الكاملة من التفكير في أفضل نماذجها لمنع المنافسة من تكرار نتائجها – وتجنب حدث Deepseek آخر ، والذي يمكن أن يحدث الآن أسهل.
النماذج متوفرة على Hugginface. ولكن كما قلنا في البداية ، ستحتاج إلى عملاق من وحدة معالجة الرسومات مع 80 جيجابايت على الأقل من VRAM (مثل NVIDIA A100 دولار بقيمة 17 ألف دولار) لتشغيل الإصدار مع 120 مليار معلمة. ر
سيتطلب إصدار أصغر مع 20 مليار معلمة ما لا يقل عن 16 جيجابايت من VRAM (مثل 3K $ NVIDIA RTX 4090) على وحدة معالجة الرسومات الخاصة بك ، والتي تعد كثيرًا-ولكن ليس أيضًا مجنونًا بالنسبة للأجهزة على مستوى المستهلك.

