اعتبارًا من يوم الأحد في الاتحاد الأوروبي ، يمكن للمنظمين في الكتلة حظر استخدام أنظمة الذكاء الاصطناعى التي يرون أنها تشكل “خطرًا غير مقبول” أو ضرر.
2 فبراير هو الموعد النهائي للامتثال لقانون AI للاتحاد الأوروبي ، وهو الإطار التنظيمي الشامل لمنظمة العفو الدولية التي وافق عليها البرلمان الأوروبي في شهر مارس الماضي بعد سنوات من التنمية. دخل الفعل رسميًا في 1 أغسطس ؛ ما يتبع الآن هو أول مواعيد نهائية للامتثال.
تم تحديد التفاصيل في المادة 5 ، ولكن على نطاق واسع ، تم تصميم الفعل لتغطية عدد لا يحصى من حالات الاستخدام حيث قد تظهر الذكاء الاصطناعى والتفاعل مع الأفراد ، من تطبيقات المستهلك إلى البيئات المادية.
بموجب نهج الكتلة ، هناك أربعة مستويات مخاطر واسعة: (1) الحد الأدنى من المخاطر (على سبيل المثال ، مرشحات البريد العشوائي عبر البريد الإلكتروني) لن تواجه أي إشراف تنظيمي ؛ (2) مخاطر محدودة ، والتي تشمل chatbots خدمة العملاء ، سيكون لها إشراف تنظيمي لللمسة الخفيفة ؛ (3) المخاطر العالية – الذكاء الاصطناعي لتوصيات الرعاية الصحية هي مثال على ذلك – سيواجه الرقابة التنظيمية الثقيلة ؛ و (4) سيتم حظر تطبيقات المخاطر غير المقبولة – محور متطلبات الامتثال لهذا الشهر – بالكامل.
بعض الأنشطة غير المقبولة تشمل:
- AI المستخدمة للتسجيل الاجتماعي (على سبيل المثال ، بناء ملفات تعريف المخاطر على أساس سلوك الشخص).
- منظمة العفو الدولية التي تتلاعب قرارات الشخص بشكل ملموس أو خادع.
- الذكاء الاصطناعي التي تستغل نقاط الضعف مثل العمر أو الإعاقة أو الحالة الاجتماعية والاقتصادية.
- الذكاء الاصطناعي الذي يحاول التنبؤ بالأشخاص الذين يرتكبون جرائم بناءً على مظهرهم.
- AI التي تستخدم القياسات الحيوية لاستنتاج خصائص الشخص ، مثل ميوله الجنسية.
- الذكاء الاصطناعي التي تجمع البيانات البيومترية “في الوقت الحقيقي” في الأماكن العامة لأغراض إنفاذ القانون.
- منظمة العفو الدولية التي تحاول استنتاج مشاعر الناس في العمل أو المدرسة.
- AI التي تنشئ – أو يوسع – قواعد بيانات التعرف على الوجه عن طريق تجريد الصور عبر الإنترنت أو من كاميرات الأمان.
ستخضع الشركات التي تم العثور عليها على استخدام أي من تطبيقات الذكاء الاصطناعى أعلاه في الاتحاد الأوروبي للغرامات ، بغض النظر عن المكان الذي يقع مقره الرئيسي. يمكن أن يكونوا على خطاف ما يصل إلى 35 مليون يورو (حوالي 36 مليون دولار) ، أو 7 ٪ من إيراداتهم السنوية من السنة المالية السابقة ، أيهما أكبر.
وأشار روب سومروي ، رئيس التكنولوجيا في شركة Slaughter ومايه ، في مقابلة مع TechCrunch.
وقال سومروي: “من المتوقع أن تكون المنظمات متوافقة تمامًا بحلول 2 فبراير ، ولكن … الموعد النهائي التالي الذي تحتاجه الشركات إلى أن تكون على دراية به في أغسطس”. “بحلول ذلك الوقت ، سنعرف من هي السلطات المختصة ، وسوف تصبح الغرامات وإنفاذ أحكام الإنفاذ.”
تعهدات أولية
الموعد النهائي في 2 فبراير هو في بعض النواحي إجراء شكلي.
في شهر سبتمبر الماضي ، وقعت أكثر من 100 شركة على اتفاق الاتحاد الأوروبي للاتحاد الأوروبي ، وهو تعهد طوعي للبدء في تطبيق مبادئ AI قبل دخولها إلى التطبيق. كجزء من الاتفاقية ، تلتزم الموقعون – الذي شملت Amazon و Google و Openai – بتحديد أنظمة الذكاء الاصطناعي التي من المحتمل أن يتم تصنيفها على أنها عالية المخاطر بموجب قانون الذكاء الاصطناعي.
تخطي بعض عمالقة التكنولوجيا ، وخاصة Meta و Apple ، الاتفاق. اختارت شركة AI French AI Mistral ، أحد أقسى منتقدي AI AI ، عدم التوقيع.
هذا لا يعني أن Apple أو Meta أو Mistral أو غيرهم الذين لم يوافقوا على الاتفاق لن يفي بالتزاماتهم – بما في ذلك الحظر المفروض على الأنظمة المحفوفة بالمخاطر. يشير Sumroy إلى أنه ، نظرًا لطبيعة حالات الاستخدام المحظورة الموضوعة ، فإن معظم الشركات لن تشارك في هذه الممارسات على أي حال.
وقال سومروي: “بالنسبة للمنظمات ، فإن القلق الرئيسي حول قانون الاتحاد الأوروبي لمنظمة العفو الدولية هو ما إذا كانت الإرشادات والمعايير الواضحة ورموز السلوك ستصل في الوقت المناسب – وبشكل حاسم ، ما إذا كانت ستزود المنظمات بوضوح بشأن الامتثال”. “ومع ذلك ، فإن مجموعات العمل ، حتى الآن ، تلبية المواعيد النهائية على مدونة قواعد السلوك للمطورين.”
إعفاءات محتملة
هناك استثناءات للعديد من محظورات قانون الذكاء الاصطناعي.
على سبيل المثال ، يسمح القانون لإنفاذ القانون باستخدام بعض الأنظمة التي تجمع القياسات الحيوية في الأماكن العامة إذا كانت هذه الأنظمة تساعد إلى الحياة. يتطلب هذا الإعفاء إذنًا من الهيئة الحاكمة المناسبة ، ويؤكد القانون على أن تطبيق القانون لا يمكنه اتخاذ قرار “ينتج عنه تأثير قانوني سلبي” على شخص يعتمد فقط على مخرجات هذه الأنظمة.
ينفذ القانون أيضًا استثناءات للأنظمة التي تستنتج العواطف في أماكن العمل والمدارس حيث يوجد مبرر “طبي أو أمان” ، مثل الأنظمة المصممة للاستخدام العلاجي.
وقالت المفوضية الأوروبية ، الفرع التنفيذي للاتحاد الأوروبي ، إنها ستصدر إرشادات إضافية في “أوائل عام 2025” ، بعد استشارة مع أصحاب المصلحة في نوفمبر. ومع ذلك ، لم يتم نشر هذه الإرشادات بعد.
وقال سومروي إنه من غير الواضح أيضًا كيف يمكن أن تتفاعل القوانين الأخرى في الكتب مع حظر قانون الذكاء الاصطناعي والأحكام ذات الصلة. قد لا يصل الوضوح حتى وقت لاحق من العام ، مع اقتراب نافذة التنفيذ.
وقال سومروي: “من المهم أن تتذكر المنظمات أن تنظيم الذكاء الاصطناعي غير موجود في عزلة”. “ستتفاعل الأطر القانونية الأخرى ، مثل إجمالي الناتج المحلي ، NIS2 ، و DORA ، مع قانون الذكاء الاصطناعى ، مما يخلق تحديات محتملة – لا سيما حول متطلبات الإخطار المتداخلة للحوادث. سيكون فهم كيفية تناسب هذه القوانين معًا بنفس أهمية فهم قانون الذكاء الاصطناعي نفسه. “
Source link
اكتشاف المزيد من مؤسسة اشراق العالم لتقنية المعلومات-خدمات مواقع ومتاجر الإنترنت
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.