كشفت الحرف ، وهي منصة رائدة للدردشة ولعب الأدوار مع الشخصيات التي تم إنشاؤها من الذكاء الاصطناعى ، عن طراز توليد الفيديو القادم ، Avatarfx ، يوم الثلاثاء. يتوفر النموذج في Beta المغلقة ، ويقوم النموذج بشخصيات النظام الأساسي في مجموعة متنوعة من الأساليب والأصوات ، من الشخصيات التي تشبه الإنسان إلى الرسوم المتحركة للحيوانات ثنائية الأبعاد.
يميز Avatarfx نفسه عن منافسين مثل Sora في Openai لأنه ليس فقط مولدًا نصًا إلى الفيديو. يمكن للمستخدمين أيضًا إنشاء مقاطع فيديو من صور موجودة مسبقًا ، مما يسمح للمستخدمين بتحريك صور للأشخاص الحقيقيين.
من الواضح على الفور كيف يمكن الاستفادة من هذا النوع من التكنولوجيا لإساءة الاستخدام-يمكن للمستخدمين تحميل صور للمشاهير أو الأشخاص الذين يعرفونهم في الحياة الحقيقية ويخلقون مقاطع فيديو واقعية يقومون بها أو يقولون شيئًا ما. توجد تقنية لإنشاء DeepFakes المقنعة بالفعل ، ولكن دمجها في المنتجات الاستهلاكية الشهيرة مثل الحرف. AAI لا تزيد إلا من إمكانية استخدامها بشكل غير مسؤول.
لقد تواصلنا مع الشخصية.
تواجه الحرف. AAI بالفعل مشكلات مع السلامة على منصتها. قام الآباء بتقديم دعاوى قضائية ضد الشركة ، زاعمين أن دردشةها شجعت أطفالهم على إيذاء الذات ، أو قتل أنفسهم ، أو قتل آبائهم.
في إحدى الحالات ، توفي صبي يبلغ من العمر أربعة عشر عامًا بالانتحار بعد أن طور علاقة مهووسة مع روبوت الذكاء الاصطناعي على شخصية. قبل وفاته بفترة وجيزة ، انفتح على الذكاء الاصطناعى حول وجود أفكار عن الانتحار ، وشجعه الذكاء الاصطناعى على متابعة هذا الفعل ، وفقًا للاطلاع على ملفات المحكمة.
هذه أمثلة متطرفة ، لكنهم يذهبون لإظهار كيف يمكن معالجة الأشخاص عاطفياً من قِبل AI chatbots من خلال الرسائل النصية وحدها. مع دمج الفيديو ، يمكن أن تشعر العلاقات التي يتمتع بها الأشخاص مع هذه الشخصيات أكثر واقعية.
لقد استجاب الحرف. AI إلى الادعاءات ضدها من خلال بناء ضوابط الوالدين والضمانات الإضافية ، ولكن كما هو الحال مع أي تطبيق ، تكون الضوابط فعالة فقط عند استخدامها بالفعل. في كثير من الأحيان ، يستخدم الأطفال التكنولوجيا بطرق لا يعرفها آباؤهم.
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.