في ورقة سياسية نُشرت يوم الأربعاء ، قال الرئيس التنفيذي السابق لشركة Google Eric Schmidt ، المدير التنفيذي لشركة SCELE ALEXANDR WANG ، ومركز سلامة الذكاء الاصطناعى دان هندريكس إنه لا ينبغي للولايات المتحدة متابعة دفعة على غرار مشروع مانهاتن لتطوير أنظمة الذكاء الاصطناعي مع استخبارات “Superhuman” ، والمعروفة أيضًا باسم AGI.
تؤكد الورقة ، التي تحمل عنوان “استراتيجية SuperIncligence” ، أن عرضًا عدوانيًا من قبل الولايات المتحدة للتحكم حصريًا في أنظمة الذكاء الاصطناعى الممتاز يمكن أن يدفع إلى الانتقام الشديد من الصين ، وربما في شكل هجوم إلكتروني ، والذي يمكن أن يزعزع استقرار العلاقات الدولية.
“[A] مشروع مانهاتن [for AGI] يفترض أن المنافسين سيوافقون على خلل دائم أو مبيد بدلاً من التحرك لمنعه “، يكتب المؤلفون المشاركون. “ما يبدأ كضغط من أجل السلاح الخارق والسيطرة العالمية يخاطر بتدابير مضادة معادية وتوترات تصعيد ، وبالتالي تقويض الاستقرار الذي تهدف إليه الاستراتيجية التي تهدف إلى تأمينها.”
شارك في تأليفها ثلاثة شخصيات مؤثرة للغاية في صناعة الذكاء الاصطناعى في أمريكا ، وتأتي هذه الورقة بعد أشهر قليلة من اقتراح لجنة الكونغرس الأمريكية جهد “على غرار مشروع مانهاتن” لتمويل تنمية AGI ، على غرار برنامج القنابل الذرية الأمريكية في الأربعينيات. قال وزير الطاقة الأمريكي كريس رايت مؤخراً إن الولايات المتحدة في “بداية مشروع مانهاتن الجديد” على الذكاء الاصطناعي أثناء الوقوف أمام موقع الحاسوب الخارق إلى جانب المؤسس المشارك لشركة Openai جريج بروكمان.
تتحدى ورقة إستراتيجية Superintelligence الفكرة ، التي دافع عنها العديد من قادة السياسة والصناعة الأمريكية في الأشهر الأخيرة ، بأن برنامجًا مدعومًا من الحكومة يتابع AGI هو أفضل طريقة للتنافس مع الصين.
في رأي شميدت ، وانغ ، وهندريكس ، فإن الولايات المتحدة في شيء من مواجهة AGI لا تختلف عن التدمير المتبادل بشكل متبادل. بنفس الطريقة التي لا تسعى فيها القوى العالمية إلى الاحتكارات على الأسلحة النووية-والتي يمكن أن تؤدي إلى إضراب وقائي من خصم-يجادل شميدت ومؤلفوه المشاركين بأن الولايات المتحدة يجب أن تكون حذرة في السباق نحو السيطرة على أنظمة الذكاء الاصطناعى القوي للغاية.
في حين أن تشبيه أنظمة الذكاء الاصطناعى بالأسلحة النووية قد يبدو متطرفًا ، فإن قادة العالم يعتبرون بالفعل منظمة العفو الدولية ميزة عسكرية أفضل. بالفعل ، يقول البنتاغون إن الذكاء الاصطناعى يساعد في تسريع سلسلة قتل الجيش.
شميدت وآخرون. إدخال مفهوم يسمونه عطلًا متضمنًا في الذكاء الاصطناعي (MAIM) ، حيث يمكن للحكومات أن تعطيل بشكل استباقي مشاريع تهديد الذكاء الاصطناعي بدلاً من انتظار خصوم الأسلحة.
يقترح Schmidt و Wang و Hendrycks أن تقوم الولايات المتحدة بتحويل تركيزها من “الفوز بالسباق إلى Superintelligence” إلى تطوير أساليب ذلك ردع البلدان الأخرى من إنشاء SuperIntyligent AI. يجادل المؤلفون المشاركون بأنه يجب على الحكومة “التوسع [its] ترسانة الهجمات الإلكترونية لتعطيل مشاريع تهديد الذكاء الاصطناعي “التي تسيطر عليها دول أخرى بالإضافة إلى الحد من وصول الخصوم إلى رقائق الذكاء الاصطناعى المتقدمة ونماذج المصادر المفتوحة.
يحدد المؤلفون المشاركون الانقسام الذي لعب في عالم سياسة الذكاء الاصطناعي. هناك “Doomers” ، الذين يعتقدون أن النتائج الكارثية من تنمية الذكاء الاصطناعى هي خاتمة متتالية وتدعو للبلدان التي تبطئ تقدم الذكاء الاصطناعي. على الجانب الآخر ، هناك “النعام” ، الذين يعتقدون أن الدول يجب أن تسريع تطور الذكاء الاصطناعي وآمل أن تنجح كل شيء.
تقترح الورقة طريقة ثالثة: نهج مقاس لتطوير AGI يعطي الأولوية للاستراتيجيات الدفاعية.
هذه الاستراتيجية ملحوظة بشكل خاص من شميدت ، الذي كان في السابق صوتيًا حول الحاجة إلى الولايات المتحدة للتنافس بقوة مع الصين في تطوير أنظمة الذكاء الاصطناعى المتقدمة. قبل بضعة أشهر فقط ، أصدرت شميدت مقالًا مقالًا يقول ديبسيك يمثل نقطة تحول في سباق الذكاء الاصطناعى في أمريكا مع الصين.
يبدو أن إدارة ترامب ميتة على المضي قدمًا في تطوير الذكاء الاصطناعي في أمريكا. ومع ذلك ، كما يلاحظ المؤلفون المشاركون ، فإن قرارات أمريكا حول AGI غير موجودة في فراغ.
بينما يشاهد العالم أمريكا تدفع الحد الأقصى لوكالة الذكاء الاصطناعى ، يشير شميدت ومؤلفيه المشاركين إلى أنه قد يكون من الحكمة اتباع نهج دفاعي.
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.