الاتحاد الأوروبي يُرسي معايير عالمية للذكاء الاصطناعي

وافق صانعو السياسات في الاتحاد الأوروبي امس الثلاثاء على أول مجموعة شاملة من القواعد في العالم لتنظيم استخدام الذكاء الاصطناعي في أدوات مثل «تشات جي بي تي» والمراقبة البيومترية والتي من المرجح أن تدخل حيز التنفيذ الشهر المقبل.

وتشمل النقاط الرئيسية لقانون الذكاء الاصطناعي:

– أنظمة عالية المخاطر: يجب أن تتوافق أنظمة الذكاء الاصطناعي عالية المخاطر – تلك التي يُعتقد أنها تشكل ضرراً كبيراً على الصحة والسلامة والحقوق الأساسية والبيئة والديمقراطية والانتخابات وسيادة القانون – مع مجموعة من المتطلبات، مثل الخضوع لتقييم تأثير الحقوق الأساسية، والتزامات للوصول إلى سوق الاتحاد الأوروبي.

– أنظمة منخفضة المخاطر: تخضع أنظمة الذكاء الاصطناعي التي يُعد أنها تشكل مخاطر محدودة لالتزامات شفافية بسيطة للغاية، مثل ملصقات الإفصاح التي تعلن أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي للسماح للمستخدمين باتخاذ قرار في كيفية استخدامه.

– استخدام الذكاء الاصطناعي في إنفاذ القانون: سيُسمح فقط باستخدام أنظمة التعريف البيومترية عن بعد في الوقت الفعلي في الأماكن العامة من قبل سلطات إنفاذ القانون للمساعدة في تحديد ضحايا الاختطاف والاتجار بالبشر والاستغلال الجنسي ومنع تهديد إرهابي محدد وحالي. وسيُسمح لهم أيضاً بتعقب الأشخاص المشتبه في ارتكابهم جرائم إرهابية، والاتجار، والاستغلال الجنسي، والقتل، والاختطاف، والاغتصاب، والسطو المسلح، والمشاركة في منظمة إجرامية وجريمة بيئية.

– أنظمة الذكاء الاصطناعي العامة (GPAI) والنماذج الأساسية: ستخضع أنظمة GPAI والنماذج الأساسية لمتطلبات شفافية أخف مثل إعداد وثائق فنية والامتثال لقانون حقوق النشر في الاتحاد الأوروبي ونشر ملخصات تفصيلية حول المحتوى المستخدم لتدريب الخوارزميات. وسيتعين على نماذج المؤسسة المصنفة على أنها تشكل مخاطر نظامية وGPAI عالية التأثير إجراء تقييمات نموذجية، وتقييم المخاطر وتخفيفها، وإجراء اختبارات الخصومة، وتقديم تقارير إلى المفوضية الأوروبية بشأن الحوادث الخطيرة، وضمان الأمن السيبراني والإبلاغ عن كفاءتها في استخدام الطاقة.

وإلى أن يتم نشر معايير الاتحاد الأوروبي المنسقة، قد تعتمد GPAIs ذات المخاطر النظامية على قواعد الممارسة للامتثال للائحة.

الذكاء الاصطناعي المحظور

يحظر القانون ما يلي:

– أنظمة التصنيف البيومتري التي تستخدم خصائص حساسة مثل المعتقدات السياسية والدينية والفلسفية والتوجه الجنسي والعرق.

– الاستخلاص غير المستهدف لصور الوجه من الإنترنت أو لقطات كاميرات المراقبة لإنشاء قواعد بيانات التعرف على الوجه.

– التعرف على الانفعالات في مكان العمل والمؤسسات التعليمية.

– التصنيف الاجتماعي بناءً على السلوك الاجتماعي أو الخصائص الشخصية.

– أنظمة الذكاء الاصطناعي التي تتلاعب بالسلوك البشري للالتفاف على إرادته الحرة.

– الذكاء الاصطناعي المستخدم لاستغلال نقاط ضعف الأشخاص بسبب العمر أو الإعاقة أو الوضع الاجتماعي أو الاقتصادي.

من الذي ينفذ قانون الذكاء الاصطناعي؟

سيقوم مكتب للذكاء الاصطناعي داخل المفوضية الأوروبية بفرض القواعد بينما يساعد مجلس للذكاء الاصطناعي يضم ممثلين عن الاتحاد الأوروبي المفوضية ودول الاتحاد الأوروبي في تطبيق التشريعات الجديدة.

وستبدأ الغرامات حسب المخالفة وحجم الشركة المعنية، من 7.5 مليون يورو (8 ملايين دولار) أو 1.5 في المائة من إجمالي المبيعات السنوية العالمية، لتصل إلى 35 مليون يورو أو 7 في المائة من إجمالي المبيعات العالمية.