الاتحاد الأوروبي يتخذ خطوة تاريخية لتنظيم الذكاء الاصطناعي
توصّل مفاوضو البرلمان الأوروبي والمجلس الأوروبي إلى اتفاقٍ مؤقت حول القواعد التي تحكم استخدام الذكاء الاصطناعي.
تغطّي الاتفاقية الاستخدام الحكومي للذكاء الاصطناعي في المراقبة البيومترية، وكيفية تنظيم نماذج الذكاء الاصطناعي مثل ChatGPT، إلى جانب قواعد الشفافية التي يجب اتباعها قبل دخول السوق. ويشمل ذلك مشاركة الوثائق التقنية وملخصات محتوى التدريب، بالإضافة إلى الالتزام بحقوق الطبع والنشر الخاصة بالاتحاد الأوروبي .
يريدُ الاتحاد الأوروبي أن يكون أول سلطة فوق وطنية تملك قوانين تحكُم تكنولوجيا الذكاء الاصطناعي وتحدد كيفية استخدامها بشكل مفيد بعد الحماية من المخاطر المُحتملة. وتم التوصلُ إلى الاتفاق بعد نقاشٍ دام ما يقرب من 24 ساعة في 8 ديسمبر، و15 ساعة من المفاوضات بعد ذلك.
وتنص الاتفاقية على وجوب تقييم نماذج الذكاء الاصطناعي ذات التأثير الكبير للمخاطر المُحتملة ومعالجتها، وإجراء اختبار دقيق لمرونة النظام، بالإضافة إلى الإبلاغ عن الحوادث إلى المفوضية الأوروبية وضمان فعاليّة اجراءات الأمن السيبراني وتقارير الكشف عن كفاءة الطاقة.
اعتبر الاتحاد الأوروبي الاتفاق الأولي الذي تم التوصل إليه بشأن تنظيم الذكاء الاصطناعي، خطوة “غير مسبوقة”، تهدف إلى ضمان أن تكون هذه الأنظمة التي تُطرح في السوق الأوروبية “آمنة”.
ويهدف هذا الاتفاق أيضاً إلى تحفيز الاستثمار والابتكار في مجال الذكاء الاصطناعي في أوروبا، وتسهيل تطويره.
وبالمقارنة مع الاقتراح الأولي للمفوضية، وضع المجلس الأوروبي تلخيصاً للعناصر الرئيسية الجديدة للاتفاق المؤقت، والتي جاءت كالتالي:
- قواعد بشأن نماذج الذكاء الاصطناعي العامة عالية التأثير التي قد تسبب خطراً نظامياً في المستقبل، فضلاً عن النظام العالي الخطورة لأنظمة الذكاء الاصطناعي.
- نظام معدل للحوكمة مع بعض الصلاحيات التنفيذية على مستوى الاتحاد الأوروبي.
- توسيع قائمة المحظورات، ولكن مع إمكانية استخدام التعرف البيومتري عن بُعد من قبل السلطات الأمنية في الأماكن العامة، بشرط وجود ضمانات.
- تعزيز حماية الحقوق من خلال إلزام القائمين على نشر أنظمة الذكاء الاصطناعي عالية المخاطر بإجراء تقييم بشأن تأثير الحقوق الأساسية، قبل وضع نظام الذكاء الاصطناعي قيد الاستخدام.
وفيما ستخضع النماذج التي تُشكل “خطراً نظامياً” لقواعد إضافية، بحسب الوثيقة، سيقوم الاتحاد الأوروبي بتحديد هذا الخطر استناداً إلى حجم الطاقة الحاسوبية المستخدمة في تدريب النموذج. وتم وضع عتبة على تلك النماذج التي تستخدم أكثر من 10 تريليونات تريليون (أو سيبتليون) عملية في الثانية الواحدة.
وأشارت “بلومبرغ” إلى أن النموذج الوحيد الذي يتجاوز هذه العتبة حالياً هو “GPT-4” التابع لشركة “OpenAI”. ومع ذلك، يمكن للذراع التنفيذية للاتحاد الأوروبي تحديد نماذج أخرى بناءً على معايير مختلفة، مثل وجود لديها ما لا يقل عن 10 آلاف مستخدم تجاري مسجل في الاتحاد الأوروبي، أو عدد المستخدمين المسجلين، وغيرها من المقاييس المحتملة.
وتتطلب الشركات المطورة لنماذج ذات القدرة العالية الالتزام بمدونة سلوك، في حين ستقوم المفوضية الأوروبية بتطوير ضوابط طويلة المدى ومتسقة أكثر. بالإضافة إلى ذلك، سيكون على الشركات التي لا توقع على الوثيقة إثبات الامتثال لقانون الذكاء الاصطناعي. ومع ذلك، لن يتم تطبيق استثناء النماذج مفتوحة المصدر على تلك التي يُعتبر أنها تشكل خطراً نظامياً.
والجدير بالذكر أنه لا يزال الاتفاق المبدئي بحاجة إلى الحصول على موافقة البرلمان الأوروبي والدول الأعضاء الـ27 في الاتحاد الأوروبي.