نشرت Google DeepMind يوم الأربعاء ورقة شاملة حول نهج السلامة لأجني ، والتي تم تعريفها تقريبًا بأنها منظمة العفو الدولية التي يمكن أن تنجز أي مهمة يمكن للإنسان.
AGI هو موضوع مثير للجدل في حقل الذكاء الاصطناعى ، حيث يشير الرافضون إلى أنه أكثر من مجرد حلم الأنابيب. يحذر آخرون ، بما في ذلك مختبرات منظمة العفو الدولية الرئيسية مثل الأنثروبور ، من أنها قاب قوسين أو أدنى ، وقد تؤدي إلى أضرار كارثية إذا لم يتم اتخاذ خطوات لتنفيذ الضمانات المناسبة.
تتوقع وثيقة DeepMind التي تبلغ 145 صفحة ، والتي شاركت في تأليفها المؤسس المشارك لشركة DeepMind ، شين ليج ، أن AGI قد يصل بحلول عام 2030 ، وأنه قد يؤدي إلى ما يسميه المؤلفون “ضررًا شديدًا”. لا تحدد الورقة هذا بشكل ملموس ، ولكنها تعطي مثالًا على الإطلاق على “المخاطر الوجودية” التي “تدمر الإنسانية بشكل دائم”.
“[We anticipate] كتب المؤلفون: “إن تطوير AGI استثنائي قبل نهاية العقد الحالي ،” إن AGI استثنائي هو نظام له القدرة على مطابقة ما لا يقل عن 99 من البالغين المهرة على مجموعة واسعة من المهام غير المادية ، بما في ذلك المهام ما وراء المعرفية مثل تعلم المهارات الجديدة “.
خارج الخفافيش ، تتناقض الورقة مع معاملة DeepMind لتخفيف المخاطر AGI مع الأنثروبور و Openai’s. إن الأنثروبور ، كما يقول ، يركز بشكل أقل على “التدريب القوي والمراقبة والأمن” ، في حين أن Openai متفائل للغاية على “أتمتة” شكل من أشكال أبحاث السلامة AI المعروفة باسم أبحاث المحاذاة.
تثير الورقة أيضًا شكاً في صلاحية الذكاء الاصطناعى الممتاز – الذكاء الاصطناعي التي يمكن أن تؤدي وظائف أفضل من أي إنسان. (ادعى Openai مؤخرًا أنه يحول هدفه من Agi إلى superintelligence.) في غياب “الابتكار المعماري الهام” ، فإن مؤلفي DeepMind ليسوا مقتنعين بأن الأنظمة الممتازة ستظهر قريبًا – إن وجدت.
ومع ذلك ، تجد الورقة أنه من المعقول ، أن النماذج الحالية ستمكن من “تحسين الذكاء الاصطناعي المتكرر”: حلقة ردود فعل إيجابية حيث تجري AI أبحاث AI الخاصة بها لإنشاء أنظمة AI أكثر تطوراً. وهذا يمكن أن يكون خطيرًا بشكل لا يصدق ، يؤكد المؤلفين.
على مستوى عالٍ ، تقترح الورقة وتدافع عن تطوير التقنيات لمنع وصول الجهات الفاعلة السيئة إلى AGI الافتراضي ، وتحسين فهم تصرفات أنظمة الذكاء الاصطناعى ، و “تصلب” البيئات التي يمكن أن تعمل فيها الذكاء الاصطناعي. ويعترف بأن العديد من التقنيات ناشئة وأنها “مشاكل بحثية مفتوحة” ، ولكنها تحذر من تجاهل تحديات السلامة التي ربما في الأفق.
يكتب المؤلفون: “إن الطبيعة التحويلية لـ AGI لديها إمكانية لكل من الفوائد المذهلة وكذلك الأضرار الشديدة”. “ونتيجة لذلك ، لبناء AGI بمسؤولية ، من الأهمية بمكان لمطوري الذكاء الاصطناعى الحدود التخطيط بشكل استباقي لتخفيف الأضرار الشديدة.”
لكن بعض الخبراء لا يوافقون على أماكن عمل الورقة.
وقالت هايدي خلااف ، رئيسة عالم الذكاء الاصطناعي في معهد الذكاء الاصطناعى غير الربحي الآن ، لـ TechCrunch إنها تعتقد أن مفهوم AGI غير محدد للغاية بحيث لا يمكن تقييمه بشكل علمي “. وقال باحث آخر من الذكاء الاصطناعي ، ماثيو جوزديال ، أستاذ مساعد بجامعة ألبرتا ، إنه لا يعتقد أن تحسن الذكاء الاصطناعى العودية واقعي في الوقت الحالي.
“[Recursive improvement] وقال جوزديال لـ TechCrunch: “هو أساس حجج الذكاء المفرد” ، لكننا لم نر أي دليل على العمل “.
تقول ساندرا واشتر ، الباحثة التي تدرس التكنولوجيا والتنظيم في أكسفورد ، أن القلق الأكثر واقعية هو تعزيز الذكاء الاصطناعي مع “المخرجات غير الدقيقة”.
وقالت لـ TechCrunch: “مع انتشار مخرجات الذكاء الاصطناعى التوليدي على الإنترنت والاستبدال التدريجي للبيانات الأصلية ، تتعلم النماذج الآن من مخرجاتها الخاصة التي تم تصويرها مع سوء القصور ، أو الهلوسة”. “في هذه المرحلة ، يتم استخدام chatbots في الغالب لأغراض البحث والوقاية من الحقيقة. وهذا يعني أننا معرضون باستمرار لخطر التغذية المسلمين والإيمان بها لأنها يتم تقديمها بطرق مقنعة للغاية.”
يبدو أن ورقة DeepMind شاملة ، من غير المرجح أن تسوية المناقشات حول مدى واقعية AGI – ومجالات سلامة الذكاء الاصطناعى في الحاجة الأكثر إلحاحًا إلى الاهتمام.
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.