قدمت Character AI، وهي منصة تتيح للمستخدمين المشاركة في لعب الأدوار مع روبوتات الدردشة المدعومة بالذكاء الاصطناعي، طلبًا لرفض القضية المرفوعة ضدها من قبل والد مراهق انتحر، بزعم أنه أصبح مدمنًا على تكنولوجيا الشركة.
وفي أكتوبر/تشرين الأول، رفعت ميجان جارسيا دعوى قضائية ضد شركة Character AI في المحكمة الجزئية الأمريكية للمنطقة الوسطى من فلوريدا، قسم أورلاندو، بشأن وفاة ابنها سيويل سيتزر الثالث. وفقًا لجارسيا، طور ابنها البالغ من العمر 14 عامًا ارتباطًا عاطفيًا ببرنامج الدردشة الآلي على شخصية الذكاء الاصطناعي، “داني”، والذي كان يرسل له رسائل نصية باستمرار – لدرجة أنه بدأ في الابتعاد عن العالم الحقيقي.
بعد وفاة Setzer، قالت شركة Character AI إنها ستطرح عددًا من ميزات الأمان الجديدة، بما في ذلك تحسين الكشف والاستجابة والتدخل المتعلق بالمحادثات التي تنتهك شروط الخدمة الخاصة بها. لكن غارسيا يناضل من أجل حواجز حماية إضافية، بما في ذلك التغييرات التي قد تؤدي إلى فقدان روبوتات الدردشة المستندة إلى الذكاء الاصطناعي لقدرتها على سرد القصص والحكايات الشخصية.
في طلب الرفض، أكد محامي شركة Character AI أن النظام الأساسي محمي ضد المسؤولية بموجب التعديل الأول، تمامًا كما هو الحال مع رمز الكمبيوتر. قد لا يقنع الاقتراح القاضي، وقد تتغير المبررات القانونية لشركة Character AI مع استمرار القضية. لكن ربما تشير الحركة إلى العناصر المبكرة لدفاع الشخصية AI.
“يحظر التعديل الأول المسؤولية التقصيرية ضد شركات الإعلام والتكنولوجيا الناشئة عن الخطاب الضار المزعوم، بما في ذلك الخطاب الذي يُزعم أنه يؤدي إلى الانتحار”، كما جاء في التسجيل. “الفرق الوحيد بين هذه الحالة وتلك التي سبقتها هو أن بعض الخطاب هنا يتعلق بالذكاء الاصطناعي. لكن سياق الكلام التعبيري – سواء كان محادثة مع روبوت محادثة يعمل بالذكاء الاصطناعي أو تفاعل مع شخصية في لعبة فيديو – لا يغير تحليل التعديل الأول.
ولا يتناول الاقتراح ما إذا كان من الممكن حماية شخصية الذكاء الاصطناعي بموجب المادة 230 من قانون آداب الاتصالات، وهو قانون الملاذ الآمن الفيدرالي الذي يحمي وسائل التواصل الاجتماعي والمنصات الأخرى عبر الإنترنت من المسؤولية عن محتوى الطرف الثالث. أشار مؤلفو القانون ضمنًا إلى أن القسم 230 لا يحمي المخرجات من الذكاء الاصطناعي مثل روبوتات الدردشة الخاصة بـ Character AI، ولكنها بعيدة كل البعد عن كونها مسألة قانونية محسومة.
يدعي محامي شخصية الذكاء الاصطناعي أيضًا أن نية جارسيا الحقيقية هي “إيقاف” الذكاء الاصطناعي للشخصية وإصدار تشريعات سريعة تنظم التقنيات المشابهة لها. يقول مستشار المنصة إنه في حالة نجاح المدعين، فسيكون لذلك “تأثير مروع” على كل من الذكاء الاصطناعي للشخصية وصناعة الذكاء الاصطناعي الناشئة بأكملها.
“بصرف النظر عن نية المحامي المعلنة بـ “إيقاف” الذكاء الاصطناعي للشخصية، [their complaint] يسعى إلى إجراء تغييرات جذرية من شأنها أن تحد بشكل ملموس من طبيعة وحجم الكلام على المنصة،” كما جاء في الملف. “ستؤدي هذه التغييرات إلى تقييد قدرة الملايين من مستخدمي Character AI بشكل جذري على إنشاء محادثات مع الشخصيات والمشاركة فيها.”
الدعوى القضائية، التي تسمي أيضًا الشركة الأم لشركة Character AI Alphabet كمدعى عليها، ليست سوى واحدة من العديد من الدعاوى القضائية التي تواجهها شركة Character AI فيما يتعلق بكيفية تفاعل القاصرين مع المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على نظامها الأساسي. وتزعم الدعاوى الأخرى أن شركة Character AI عرّضت طفلاً يبلغ من العمر 9 سنوات إلى “محتوى جنسي مفرط” وروجت لإيذاء النفس لمستخدم يبلغ من العمر 17 عامًا.
في ديسمبر/كانون الأول، أعلن المدعي العام في تكساس، كين باكستون، أنه سيبدأ تحقيقًا في شركة Character AI و14 شركة تقنية أخرى بشأن الانتهاكات المزعومة لقوانين الولاية المتعلقة بالخصوصية والسلامة للأطفال على الإنترنت. وقال باكستون في بيان صحفي: “تعد هذه التحقيقات خطوة حاسمة نحو ضمان امتثال وسائل التواصل الاجتماعي وشركات الذكاء الاصطناعي لقوانيننا المصممة لحماية الأطفال من الاستغلال والأذى”.
يعد الذكاء الاصطناعي للشخصية جزءًا من صناعة مزدهرة لتطبيقات الذكاء الاصطناعي المصاحبة، والتي لم تتم دراسة تأثيراتها على الصحة العقلية إلى حد كبير. أعرب بعض الخبراء عن مخاوفهم من أن هذه التطبيقات قد تؤدي إلى تفاقم مشاعر الوحدة والقلق.
ادعت شركة Character AI، التي أسسها باحث الذكاء الاصطناعي في جوجل نعوم شازير في عام 2021، والتي يقال إن جوجل دفعت 2.7 مليار دولار “لعكس الاستحواذ”، أنها تواصل اتخاذ خطوات لتحسين السلامة والاعتدال. في ديسمبر، طرحت الشركة أدوات أمان جديدة، ونموذجًا منفصلاً للذكاء الاصطناعي للمراهقين، وحظر المحتوى الحساس، وإخلاء المسؤولية الأكثر بروزًا لإعلام المستخدمين بأن شخصيات الذكاء الاصطناعي الخاصة بها ليست أشخاصًا حقيقيين.
لقد مرت شركة Character AI بعدد من التغييرات في الموظفين بعد مغادرة Shazeer والمؤسس المشارك الآخر للشركة، Daniel De Freitas، إلى Google. استأجرت المنصة مديرًا تنفيذيًا سابقًا على YouTube، إيرين تيج، كرئيس تنفيذي للمنتج، وعين دومينيك بيريلا، الذي كان المستشار العام لشركة Character AI، والرئيس التنفيذي المؤقت.
بدأت شركة Character AI مؤخرًا في اختبار الألعاب على الويب في محاولة لتعزيز تفاعل المستخدمين والاحتفاظ بهم.
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.