في يوم الخميس ، بعد أسابيع من إطلاق نموذج الذكاء الاصطناعي الأقوى حتى الآن ، نشرت Gemini 2.5 Pro ، تقريرًا فنيًا يوضح نتائج تقييمات السلامة الداخلية. ومع ذلك ، فإن التقرير يضيء على التفاصيل ، كما يقول الخبراء ، مما يجعل من الصعب تحديد المخاطر التي قد يشكلها النموذج.
توفر التقارير الفنية معلومات مفيدة – وغير متوقعة ، في بعض الأحيان – لا تعلن الشركات دائمًا على نطاق واسع عن الذكاء الاصطناعي. على العموم ، يرى مجتمع الذكاء الاصطناعى أن هذه التقارير تبذل جهودًا جيدة لدعم تقييمات الأبحاث والسلامة المستقلة.
تتبع Google نهجًا مختلفًا للإبلاغ عن أمان عن بعض منافسيها من الذكاء الاصطناعي ، حيث تنشر التقارير الفنية فقط بمجرد أن تعتبر نموذجًا تخرج من مرحلة “التجريبية”. لا تتضمن الشركة أيضًا نتائج من جميع تقييمات “قدرتها الخطيرة” في هذه الكتابة ؛ إنه يحتفظ بتدقيقات منفصلة.
ما زال العديد من الخبراء الذين تحدثوا مع TechCrunch بخيبة أمل بسبب تباين تقرير Gemini 2.5 Pro ، والذي لاحظوا أنه لا يذكر إطار السلامة من Google (FSF). قدمت Google FSF العام الماضي فيما وصفه بأنه محاولة لتحديد قدرات الذكاء الاصطناعى المستقبلي التي يمكن أن تسبب “ضررًا شديدًا”.
“هذا [report] وقال بيتر وايلدفيورد ، المؤسس المشارك لمعهد سياسة واستراتيجية الذكاء الاصطناعى ، “إنه ضئيل للغاية ، ويحتوي على الحد الأدنى من المعلومات ، وخرج بعد أسابيع من إتاحة النموذج للجمهور.
قال توماس وودسايد ، المؤسس المشارك لمشروع AI Secure ، إنه على الرغم من أنه سعيد ، أصدرت Google تقريرًا عن Gemini 2.5 Pro ، إلا أنه غير مقتنع بالتزام الشركة بتقديم تقييمات سلامة تكميلية في الوقت المناسب. أشار وودسايد إلى أن آخر مرة نشرت فيها Google نتائج اختبارات القدرة الخطرة كانت في يونيو 2024 – لنموذج تم الإعلان عنه في فبراير في نفس العام.
لا تلهم الكثير من الثقة ، لم توفر Google تقريراً لـ Gemini 2.5 Flash ، وهو نموذج أصغر وأكثر كفاءة أعلنت الشركة الأسبوع الماضي. وقال متحدث باسم TechCrunch تقرير عن Flash هو “قريبا”.
وقال وودسايد لـ TechCrunch: “آمل أن يكون هذا وعدًا من Google لبدء نشر المزيد من التحديثات المتكررة”. “يجب أن تتضمن هذه التحديثات نتائج تقييمات النماذج التي لم يتم نشرها علنًا حتى الآن ، لأن هذه النماذج قد تشكل أيضًا مخاطر خطيرة.”
قد تكون Google واحدة من أوائل مختبرات AI التي اقترحت تقارير موحدة للنماذج ، ولكنها ليست الوحيدة التي تم اتهامها بالتحلل في الشفافية مؤخرًا. أصدرت Meta تقييمًا سلامة مبنيًا مماثلًا لنماذج Llama 4 الجديدة الجديدة ، واختار Openai عدم نشر أي تقرير لسلسلة GPT-4.1.
يعد التسكع على رأس Google تأكيدات التي قام بها عملاق التكنولوجيا للمنظمين للحفاظ على مستوى عالٍ من اختبار سلامة الذكاء الاصطناعي وتقاريره. قبل عامين ، أخبرت Google الحكومة الأمريكية أنها ستنشر تقارير السلامة لجميع نماذج الذكاء الاصطناعى “المهمة” “ضمن النطاق”. تابعت الشركة هذا الوعد بالتزامات مماثلة تجاه بلدان أخرى ، متعهدا “توفير الشفافية العامة” حول منتجات الذكاء الاصطناعى.
وصف كيفن بانكستون ، كبير المستشارين في حوكمة الذكاء الاصطناعى في مركز الديمقراطية والتكنولوجيا ، الاتجاه المتقطع والغامض أن “سباق إلى القاع” على سلامة الذكاء الاصطناعي.
“بالاقتران من التقارير التي تفيد بأن المختبرات المتنافسة مثل Openai قد حلق وقت اختبار السلامة قبل الإصدار من أشهر إلى أيام ، فإن هذه الوثائق الضئيلة لأفضل طراز AI من Google تروي قصة مقلقة عن سباق إلى أسفل على سلامة الذكاء الاصطناعي والشفافية مع اندفاع الشركات نماذجها إلى السوق”.
قالت Google في عبارات أنه ، على الرغم من عدم تفصيلها في تقاريرها الفنية ، فإنها تجري اختبار السلامة و “فريق Red Teaming” للخصائص “للموديلات التي تم إصدارها.
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.