تنتقل Openai لنشر نتائج تقييمات السلامة النموذجية للنيظمة العفوية الداخلية بشكل منتظم في ما يقوله الزي هو محاولة لزيادة الشفافية.
في يوم الأربعاء ، أطلقت Openai مركز تقييمات السلامة ، وهي صفحة ويب توضح كيفية تسجيل نماذج الشركة في اختبارات مختلفة لتوليد المحتوى الضار ، والكسبون ، والهلوسة. يقول Openai إنه سيستخدم المحور لتبادل المقاييس على أساس “مستمر” وأنه يعتزم تحديث المحور من خلال “تحديثات النموذج الرئيسية” للمضي قدمًا.
“مع تطور علم تقييم الذكاء الاصطناعى ، فإننا نهدف إلى مشاركة تقدمنا في تطوير طرق أكثر قابلية للتطوير لقياس قدرة النموذج والسلامة” ، كتب Openai في منشور مدونة. “من خلال مشاركة مجموعة فرعية من نتائج تقييم السلامة لدينا هنا ، نأمل أن لا يسهل هذا الأمر فحسب من فهم أداء السلامة لأنظمة Openai مع مرور الوقت ، ولكن أيضًا يدعمون جهود المجتمع – لزيادة الشفافية في جميع أنحاء المجال.”
يقول Openai إنه قد يضيف تقييمات إضافية إلى المحور بمرور الوقت.
في الأشهر الأخيرة ، رفعت Openai غضب بعض الأخلاقيات لرعاية اختبار السلامة لبعض النماذج الرائدة وفشلها في إصدار تقارير فنية للآخرين. الرئيس التنفيذي للشركة ، سام ألمان ، متهم أيضًا بتضليل المديرين التنفيذيين في Openai حول مراجعات السلامة النموذجية قبل طرده الموجز في نوفمبر 2023.
في أواخر الشهر الماضي ، اضطرت Openai إلى تراجع تحديث إلى النموذج الافتراضي الذي يعمل على تشغيل ChatGPT ، GPT-4O ، بعد أن بدأ المستخدمون في الإبلاغ عن أنه استجاب بطريقة مفرطة التحقق من صحة ومقبولة. لقد غمرت X لقطات شاشة من ChatGPT مع الإشادة بجميع أنواع القرارات والأفكار الخطيرة.
قال Openai إنها ستنفذ عدة إصلاحات وتغييرات لمنع مثل هذه الحوادث في المستقبل ، بما في ذلك تقديم “مرحلة ألفا” لبعض النماذج التي من شأنها أن تسمح لبعض مستخدمي ChatGPT باختبار النماذج وتقديم الملاحظات قبل الإطلاق.
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.