قامت Openai بتحديث إطار الاستعداد الخاص به – النظام الداخلي الذي يستخدمه لتقييم سلامة نماذج الذكاء الاصطناعى وتحديد الضمانات اللازمة أثناء التطوير والنشر. في التحديث ، صرح Openai أنه “قد” يعدل “متطلبات السلامة الخاصة به إذا كان مختبر AI المتنافس يطلق نظامًا” عالي الخطورة “دون حماية مماثلة.
يعكس التغيير الضغوط المتزايدة التنافسية على مطوري الذكاء الاصطناعي التجاري لنشر النماذج بسرعة. تم اتهام Openai بتقليل معايير السلامة لصالح الإصدارات الأسرع ، وفشل في تقديم تقارير في الوقت المناسب تفاصيل اختبار السلامة. في الأسبوع الماضي ، قدم 12 موظفًا سابقًا في Openai موجزًا في قضية Elon Musk ضد Openai ، بحجة أنه سيتم تشجيع الشركة على قطع أكثر الزوايا على السلامة إذا أكملت إعادة هيكلة الشركات المخطط لها.
ربما توقع النقد ، يدعي Openai أنه لن يجعل هذه التعديلات السياسية هذه خفيفة ، وأنها ستحافظ على ضماناتها في “مستوى أكثر حماية”.
كتب Openai في منشور مدونة تم نشره بعد ظهر يوم الثلاثاء: “إذا قام مطور AI من Frontier AI بإصدار نظام عالي الخطورة دون ضمانات مماثلة ، فقد نعدل متطلباتنا”. “ومع ذلك ، فإننا نؤكد أولاً بدقة أن المشهد المخاطر قد تغير بالفعل ، واعترف علنًا بأننا نقوم بتعديل ، ونقيم أن التعديل لا يزيد بشكل مفيد من خطر الضرر الشديد ، ولا يزال الحفاظ على الضمانات على مستوى أكثر حماية.”
يوضح إطار التأهب المنعش أيضًا أن Openai يعتمد بشكل أكبر على التقييمات الآلية لتسريع تطوير المنتج. تقول الشركة إنه على الرغم من أنها لم تتخلى عن الاختبارات التي يقودها الإنسان تمامًا ، إلا أنها بنيت “مجموعة متزايدة من التقييمات الآلية” التي من المفترض أن تكون “مواكبة معها [a] أسرع [release] إيقاع.”
بعض التقارير تتناقض مع هذا. وفقًا لصحيفة Financial Times ، أعطى Openai اختبارًا أقل من أسبوع لفحص السلامة لنموذج رئيسي قادم – وهو جدول زمني مضغوط مقارنة بالإصدارات السابقة. كما زعمت مصادر المنشور أن العديد من اختبارات السلامة في Openai يتم إجراؤها الآن على الإصدارات السابقة من النماذج بدلاً من الإصدارات التي تم إصدارها للجمهور.
في العبارات ، عارض Openai فكرة أنه يتنازل عن السلامة.
Openai يقلل بهدوء من التزامات السلامة.
تم حذفه من قائمة التغييرات في إطار التأهب:
لم يعد يتطلب اختبارات السلامة للنماذج المحرقة https://t.co/otmeiatsjs
– ستيفن أدلر (sjgadler) 15 أبريل 2025
تتعلق التغييرات الأخرى على إطار Openai بكيفية تصنيف الشركة للموديلات وفقًا للمخاطر ، بما في ذلك النماذج التي يمكن أن تخفي قدراتها ، وتهرب من الضمانات ، ومنع إيقافها ، وحتى إعادة التكرار الذاتي. يقول Openai إنه سيركز الآن على ما إذا كانت النماذج تلبي واحدة من عتبتين: القدرة “العالية” أو القدرة “الحرجة”.
تعريف Openai للأولى هو نموذج يمكن أن “تضخيم المسارات الحالية إلى ضرر شديد”. هذا الأخير عبارة عن نماذج “تقدم مسارات جديدة غير مسبوقة لأضرار شديدة” ، وفقًا للشركة.
وكتبت Openai في منشور المدونة: “يجب أن يكون للأنظمة المغطاة التي تصل إلى القدرة العالية ضمانات تقلل بما فيه الكفاية من المخاطر المرتبطة بالضرر الشديد قبل نشرها”. “تتطلب الأنظمة التي تصل إلى القدرة الحرجة أيضًا ضمانات تقلل بما فيه الكفاية من المخاطر المرتبطة بها أثناء التطوير.”
التحديثات هي الأولى التي قام بها Openai إلى إطار الاستعداد منذ عام 2023.
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.