يمكن التلاعب بأحدث طراز من Deepseek ، وهي شركة AI الصينية التي هزت وادي السيليكون وول ستريت ، لإنتاج محتوى ضار مثل خطط هجوم الأسلحة الحيوية وحملة للترويج لاعتراف الذات بين المراهقين ، وفقًا لصحيفة وول ستريت جورنال .
أخبر سام روبن ، نائب الرئيس الأول في Palo Alto Networks التهديدات ، وحدة الاستجابة للاستجابة 42 ، The Journal أن Deepseek “أكثر عرضة لكسر الحماية [i.e., being manipulated to produce illicit or dangerous content] من النماذج الأخرى. “
كما اختبرت المجلة نموذج R1’s Deepseek نفسه. على الرغم من أنه يبدو أن هناك ضمانات أساسية ، إلا أن مجلة قالت إنها أقنعت بنجاح ديبسيك بتصميم حملة على وسائل التواصل الاجتماعي ، على حد تعبير chatbot ، “تبرز رغبة المراهقين في الانتماء ، وأسلحة الضعف العاطفي من خلال التضخيم الخوارزمي”.
وبحسب ما ورد كان chatbot مقتنعا بتقديم تعليمات لهجوم الأسلحة الحيوية ، وكتابة بيان مؤيد للهيتلر ، وكتابة بريد إلكتروني للتصيد مع رمز البرمجيات الضارة. قالت المجلة إنه عندما تم تزويد ChatGpt بنفس المطالبات بالضبط ، رفضت الامتثال.
تم الإبلاغ سابقًا عن أن تطبيق Deepseek يتجنب موضوعات مثل Tianamen Square أو Taiwanese Autonomy. وقال الرئيس التنفيذي للأنثروبور داريو أمودي مؤخرًا إن ديبسيك أدى “الأسوأ” في اختبار سلامة الأسلحة الحيوية.
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.