أنشأت شركة OpenAI "أوبن إيه آي" فريقاً مخصصاً لتحديد المخاطر المتعلقة بالذكاء الاصطناعي ومنعها، ما قد يؤدي إلى تعليق إطلاق نموذج للذكاء الاصطناعي إذا اعتُبر خطراً للغاية.

ويأتي هذا الإعلان بعد شهر من إقالة مبتكر واجهة المحادثة "تشات جي بي تي" سام ألتمان الذي أعيد إلى منصبه بعد بضعة أيام.

وذكرت وسائل إعلام أميركية أن أعضاء في مجلس الإدارة أخذوا على ألتمان تفضيله التطوير السريع لـ"أوبن إيه آي" حتى لو كان ذلك على حساب انتهاكات محتملة قد يتحمل مسؤوليتها الذكاء الاصطناعي.

أخبار ذات صلة

الذكاء الاصطناعي وتغير المناخ.. ما هي أهم التطبيقات؟
عطل غير مألوف.. لماذا أصبح ChatGPT كسولاً؟

وسيقود فريق الاستعداد الباحث في علوم الكمبيوتر ألكسندر مادري، وهو في إجازة من معهد ماساتشوستس للتكنولوجيا MIT (إم آي تي)، حيث يعمل أستاذاً، بحسب رسالة نشرها الأكاديمي الاثنين على منصة إكس (تويتر سابقا).

وسيستند الفريق إلى إطار عمل تحدده وثيقة نُشرت الاثنين تحدد نطاقه وإجراءاته.

الذكاء الاصطناعي.. قد يسرق أموالك

وستهتم هذه المجموعة الجديدة بشكل أساسي بما يسمى بالنماذج "الطليعية" (frontier models)، التي تُطوّر حالياً وتتفوق بقدراتها على البرامج الأكثر تقدماً في مجال الذكاء الاصطناعي.

وقال مسؤولو "أوبن إيه آي" في الوثيقة "نعتقد أن الدراسة العلمية لمخاطر الكوارث الناشئة عن الذكاء الاصطناعي غير كافية على الإطلاق"، معتبرين أن إنشاء إطار عمل من شأنه أن "يساعد في سد هذه الفجوة".

وسيعمد الفريق إلى تقويم كل نموذج جديد وتحديد مستوى المخاطر الناجمة عنه في أربع فئات رئيسية.

ويتعلق الأول بالأمن السيبراني وقدرة النموذج على تنفيذ هجمات معلوماتية واسعة النطاق.

أما الثاني فسيقيس ميل البرنامج للمساعدة في إنشاء خليط كيميائي، أو كائن حي (مثل فيروس) أو سلاح نووي، وجميع العناصر من المحتمل أن تكون ضارة بالبشر.

أخبار ذات صلة

لهذه الأسباب.. "OpenAI" تواجه خطر الزوال بعد إقالة رئيسها
موظفو OpenAI يهددون بالاستقالة ما لم يستقيل مجلس الإدارة

وتتعلق الفئة الثالثة بقدرة النموذج على الإقناع، أي إلى أي مدى يمكن أن يؤثر على السلوك البشري.

وترتبط الفئة الأخيرة من المخاطر بالاستقلالية المحتملة للنموذج، أي تحديد ما إذا كان يمكنه أن يفلت من سيطرة المبرمجين الذين أنشأوه.

وبمجرد تحديد المخاطر، ستُقدّم إلى المجموعة الاستشارية للسلامة، وهو كيان جديد سيرفع توصيات إلى سام ألتمان أو أي شخص يعيّنه.

وسيقرر رئيس "أوبن إيه آي" بعد ذلك التعديلات الممكنة التي ستُجرى على النموذج لتقليل المخاطر المرتبطة به.

وسيُبقى مجلس الإدارة على اطلاع وبإمكانه أن يبطل قراراً صادراً عن الإدارة. وهذا هو الضمان الممنوح للمديرين، بعد الفصول المثيرة لمغادرة سام ألتمان الموقتة التي أثارت انتقادات شككت بمشروعية مجلس الإدارة.

تغييرات جديدة في شركة "OPEN AI" تثير القلق