دول العالم تتعاون لتعزيز أمان الذكاء الاصطناعي
أصدرت كُل من الولايات المتحدة والمملكة المتحدة وأستراليا، إلى جانب 15 دولة أخرى، إرشاداتٍ عالمية للمساعدةِ في حماية نماذج الذكاء الاصطناعي من العبث بها، كما حثّت الشركات على جعل نماذجها “آمنةً بتصميمها”.
في السادس والعشرين من نوفمبر، أصدرت 18 دولة وثيقة تتألف من 20 صفحة، تُوضح كيفية تعامل شركات الذكاء الاصطناعي مع أمنها السيبراني عند تطوير أو استخدام نماذج الذكاء الاصطناعي، حيث زعمت الدول أنه في العديد من الأحيان “قد لا تُعطي الشركات الأولوية للأمن” في هذا الصناعة سريعة التطور.
تتألفُ المبادئ التوجيهية في الغالب من توصياتٍ عامة، مثل إبقاء الرقابة الصارمة على البنية التحتية لنماذج الذكاء الاصطناعي، ومراقبة أي تلاعبٍ بالنماذج قبل وبعد الإصدار، وتدريب الموظفين على معالجة مخاطر الأمن السيبراني.
إلا أن المبادئ التوجيهية الجديدة لم تتطرق إلى بعض القضايا المثيرة للجدل في مجال الذكاء الاصطناعي، بما في ذلك الضوابط المُحتملة التي تتعلق باستخدام نماذج توليد الصور وتقنية التزييف العميق، إلى جانب طرق جمع البيانات واستخدامها في نماذج التدريب، حيث تمت مقاضاة العديد من شركات الذكاء الاصطناعي لمزاعم تتعلق بانتهاك حقوق الطبع والنشر.
وتعليقاً في هذا الصدد، قال وزير الأمن الداخلي الأميركي “أليخاندرو مايوركاس” في بيانٍ له: “لقد وصلنا إلى نقطةٍ محورية في مسيرتنا الرامية إلى تطوير تكنولوجيا الذكاء الاصطناعي، التي قد تكون التكنولوجيا الأكثر أهمية في عصرنا. إن الأمن السيبراني هو المفتاح لبناء أنظمة ذكاء اصطناعي آمنة وجديرة بالثقة.”
تتبع الإرشادات المُقترحة المبادرات الحكومية الأخرى التي تؤثر على الذكاء الاصطناعي، بما في ذلك اجتماع الحكومات وشركات الذكاء الاصطناعي خلال قمة سلامة الذكاء الاصطناعي، التي عُقدت في وقتٍ سابقٍ من هذا الشهر في لندن، لوضع اتفاقيةٍ حول تطوير الذكاء الاصطناعي.
وفي الوقت عينه، يقوم الاتحاد الأوروبي بالتمعّن في تفاصيل قانون الذكاء الاصطناعي الذي سيشرف على الفضاء، كما أصدر الرئيس الأميركي “جو بايدن” أمراً تنفيذياً في أكتوبر لوضع معاييرٍ خاصة للسلامة والأمن في مجال الذكاء الاصطناعي، إلا أن كليهما شهد رداً من قطاع الذكاء الاصطناعي يدّعي أنه من الممكن أن تخنق الرقابة الزائدة الابتكار.