أوروبا تريد حظر الذكاء الاصطناعي للمراقبة الجماعية

أوروبا تريد حظر الذكاء الاصطناعي للمراقبة الجماعية

وتخطط لحظر استخدام الذكاء الاصطناعي لعدة أغراض ، بما في ذلك المراقبة الجماعية وعشرات الائتمان الاجتماعي.

يأتي ذلك وفقًا لاقتراح تم تسريبه تم تداوله على الإنترنت ، نشرته بوليتيكو لأول مرة ، قبل الإعلان الرسمي المقرر الأسبوع المقبل.

إذا تم اعتماد مشروع الاقتراح ، يمكن أن يفرض الاتحاد الأوروبي موقفًا قويًا بشأن تطبيقات محددة للذكاء الاصطناعي ، ويميزه عن الولايات المتحدة والصين.

تتم مراقبة حالات استخدام معينة بطريقة مشابهة للوائح الخصوصية الرقمية للاتحاد الأوروبي بموجب تشريعات القانون العام لحماية البيانات (GDPR).

قد يُطلب من الدول الأعضاء إنشاء لوحات معلومات لاختبار أنظمة الذكاء الاصطناعي عالية الخطورة والتحقق من صحتها.

يمكن تغريم الشركات التي تطور أو تبيع برامج الذكاء الاصطناعي المحظورة في الاتحاد الأوروبي ، بما في ذلك بقية العالم ، حتى 4٪ من إيراداتها العالمية.

يتضمن مشروع اللائحة:

  • تمنع أنظمة الاستخبارات المراقبة العشوائية ، بما في ذلك الأنظمة التي تتعقب الأفراد مباشرة في البيئات المادية أو تجمع البيانات من مصادر أخرى.
  • حظر أنظمة الذكاء التي تنشئ درجات ائتمانية اجتماعية ، مما يعني الحكم على جدارة الشخص بالثقة بناءً على السلوك الاجتماعي المتوقع أو سمات الشخصية.
  • تصريح خاص باستخدام أنظمة الذكاء للتعرف عن بعد مثل التعرف على الوجه في الأماكن العامة.
  • الإخطارات المطلوبة عندما يتفاعل الأشخاص مع أنظمة الاستخبارات ، ما لم يكن ذلك واضحًا من ظروف الاستخدام وسياقه.
  • إشراف جديد على أنظمة الاستخبارات عالية الخطورة ، بما في ذلك تلك التي تشكل تهديدًا مباشرًا للأمن ، مثل: السيارات ذاتية القيادة ، وتلك التي من المحتمل أن تؤثر على معيشة الشخص ، مثل تلك المستخدمة في التوظيف ، وأحكام المحاكم ، والائتمان التاريخ.
  • قم بتقييم أنظمة الاستخبارات عالية المخاطر قبل وضعها في الخدمة ، بما في ذلك التأكد من أن هذه الأنظمة قابلة للتفسير للمشرفين البشريين وأنهم مدربون على مجموعات بيانات عالية الجودة تم اختبارها من أجل التحيز.
  • إنشاء المجلس الأوروبي للذكاء الاصطناعي ، المكون من ممثلين من كل دولة ، لمساعدة اللجنة على تحديد أنظمة الاستخبارات التي تعتبر عالية المخاطر والتوصية بإجراء تغييرات على الحظر.

Leave a Reply