في تقرير جديد ، تشير مجموعة السياسات التي تتخذ من كاليفورنيا مقراً لها إلى Fei-Fei Li ، وهي رائدة في منظمة العفو الدولية ، إلى أنه ينبغي على المشرعين النظر في مخاطر الذكاء الاصطناعي التي “لم يتم ملاحظتها بعد في العالم” عند صياغة السياسات التنظيمية لمنظمة العفو الدولية.
يأتي التقرير المؤقت المكون من 41 صفحة الصادر يوم الثلاثاء من مجموعة عمل السياسة المشتركة في كاليفورنيا على طرازات حدود الذكاء الاصطناعى ، وهو جهد نظمه الحاكم غافن نيوزوم بعد حق النقض في مشروع قانون السلامة المثير للجدل في كاليفورنيا ، SB 1047. بينما وجد Newsom أن SB 1047 ضاعت العلامة ، فقد اعترف في العام الماضي بالحاجة إلى إجراء تقييم أكثر شمولاً لمخاطر AI.
في التقرير ، لي ، إلى جانب المؤلفين المشاركين جنيفر تشايس (كلية جامعة كاليفورنيا في بيركلي للحوسبة) ، وماريانو-فلورنتينو كويلار (كارنيجي هبات لرئيس السلام الدولي) ، يجادلون لصالح القوانين التي من شأنها أن تزيد من الشفافية إلى مختبرات الجبهة AI مثل Openai. استعرض أصحاب المصلحة في الصناعة من جميع أنحاء الطيف الأيديولوجي التقرير قبل نشره ، بما في ذلك دعاة السلامة من الذكاء الاصطناعي مثل تورينج يوشوا بينجيو وأولئك الذين جادلوا ضد SB 1047 ، مثل المؤسس المشارك لـ Databricks Ion Stoica.
وفقًا للتقرير ، قد تتطلب المخاطر الجديدة التي تطرحها أنظمة الذكاء الاصطناعي قوانين من شأنها أن تجبر مطوري النماذج من الذكاء الاصطناعي على الإبلاغ عن اختبارات السلامة الخاصة بهم وممارسات استحواذ البيانات والتدابير الأمنية علنًا. يدعو التقرير أيضًا إلى زيادة المعايير حول تقييمات الطرف الثالث لهذه المقاييس وسياسات الشركات ، بالإضافة إلى حماية المبلغين عن المخالفات الموسعة لموظفي شركة AI والمقاولين.
لي وآخرون. اكتب أن هناك “مستوى غير حاسم من الأدلة” لإمكانية منظمة العفو الدولية للمساعدة في تنفيذ الهجمات الإلكترونية ، أو إنشاء أسلحة بيولوجية ، أو إحداث تهديدات “متطرفة” أخرى. ومع ذلك ، يجادلون أيضًا بأن سياسة الذكاء الاصطناعى لا ينبغي أن تعالج المخاطر الحالية فحسب ، بل تتوقع أيضًا العواقب المستقبلية التي قد تحدث دون ضمانات كافية.
“على سبيل المثال ، لا نحتاج إلى مراقبة سلاح نووي [exploding] يقول التقرير: “للتنبؤ بشكل موثوق بأنه يمكن أن يسبب ضررًا واسعًا ،” إذا كان أولئك الذين يتكهنون بالمخاطر الأكثر تطرفًا على صواب – ونحن غير متأكدين مما إذا كانوا – في ذلك الحصون وتكاليف التقاعس عن العمل على الحدود في هذه اللحظة الحالية للغاية. “
يوصي التقرير باستراتيجية ذات شقين لتعزيز شفافية تطوير نموذج الذكاء الاصطناعي: الثقة ولكن التحقق. يقول التقرير إن مطوري النماذج من الذكاء الاصطناعى وموظفيهم يجب أن يتم تقديم طرق للإبلاغ عن مجالات الاهتمام العام ، مثل اختبار السلامة الداخلية ، بينما يُطلب منهم أيضًا تقديم مطالبات الاختبار للتحقق من الطرف الثالث.
على الرغم من أن التقرير ، الذي سيصدر النسخة النهائية منه في يونيو 2025 ، لا يؤيد تشريعًا محددًا ، فقد استقبله خبراء على جانبي مناقشة صنع السياسة.
قال دين بول ، وهو زميل أبحاث يركز على الذكاء الاصطناعى في جامعة جورج ماسون والذي كان ينتقد SB 1047 ، في منشور عن X أن التقرير كان خطوة واعدة لتنظيم سلامة الذكاء الاصطناعي في كاليفورنيا. إنه أيضًا فوز لمدافع السلامة من الذكاء الاصطناعى ، وفقًا لما ذكره السناتور في ولاية كاليفورنيا سكوت وينر ، الذي قدم SB 1047 العام الماضي. وقال وينر في بيان صحفي إن التقرير يعتمد على “محادثات عاجلة حول حوكمة الذكاء الاصطناعي بدأنا في الهيئة التشريعية [in 2024]”
يبدو أن التقرير يتوافق مع عدة مكونات من SB 1047 و Wiener’s Follow Bill ، SB 53 ، مثل مطالبة مطوري نماذج الذكاء الاصطناعى بالإبلاغ عن نتائج اختبارات السلامة. مع مراعاة رؤية أوسع ، يبدو أنه فوز تمس الحاجة إليه لأفراد سلامة الذكاء الاصطناعي ، الذين فقدت أجندتهم الأرضية في العام الماضي.
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.