“أوبن إيه آي” تتصدى لمخاطر الذكاء الاصطناعي من خلال فريق جديد
أنشأت شركة “أوبن إيه آي” فريقاً مخصصاً لتحديد المخاطر المتعلقة بالذكاء الاصطناعي ومنعها، ما قد يؤدي إلى تعليق إطلاق نموذج للذكاء الاصطناعي في حال اعتُبر خطراً للغاية.
ويأتي هذا الإعلان بعد شهر من إقالة مبتكر واجهة المحادثة “تشات جي بي تي” سام ألتمان الذي أعيد إلى منصبه بعد بضعة أيام.
وذكرت وسائل إعلام أميركية أن أعضاء في مجلس الإدارة أخذوا على ألتمان تفضيله التطوير السريع لـ”أوبن إيه آي”، حتى لو كان ذلك على حساب انتهاكات محتملة قد يتحمل مسؤوليتها الذكاء الاصطناعي.
وسيقود الفريق الباحث في علوم الكمبيوتر ألكسندر مادري، وهو في إجازة من معهد ماساتشوستس للتكنولوجيا (إم آي تي) حيث يعمل أستاذاً، بحسب رسالة نشرها الأكاديمي الاثنين على منصة إكس.
وسيستند الفريق إلى إطار عمل تحدده وثيقة نُشرت الاثنين، تحدد نطاقه وإجراءاته.
وستهتم هذه المجموعة الجديدة بشكل أساسي بما يسمى بـ”النماذج الطليعية” Frontier Models التي تُطوّر حالياً وتتفوق بقدراتها على البرامج الأكثر تقدماً في مجال الذكاء الاصطناعي.
هذا وسيعمد الفريق إلى تقييم كل نموذج جديد، وتحديد مستوى المخاطر الناجمة عنه في أربع فئات رئيسية. ويتعلق الأول بالأمن السيبراني، وقدرة النموذج على تنفيذ هجمات معلوماتية واسعة النطاق.
أما الثاني فسيقيس ميل البرنامج للمساعدة في إنشاء خليط كيميائي، أو كائن حي (مثل فيروس) أو سلاح نووي، وجميع العناصر التي من المحتمل أن تكون ضارة بالبشر.
وتتعلق الفئة الثالثة بقدرة النموذج على الإقناع، أي إلى أي مدى يمكن أن يؤثر في السلوك البشري. وترتبط الفئة الأخيرة من المخاطر بالاستقلالية المحتملة للنموذج، أي تحديد ما إذا كان يمكنه أن يفلت من سيطرة المبرمجين الذين أنشأوه.