يواجه المشرعون في مختلف أنحاء العالم الذكاء الاصطناعي من خلال جهود مبكرة ضخمة لكنها ليست سريعة على الإطلاق؛ فقانون الذكاء الاصطناعي في الاتحاد الأوروبي ، وهو أول قانون يصدره الاتحاد في هذا السياق، يتألف من 144 صفحة، فيما تتخلف القواعد التنظيمية عن الابتكار بمسافة كبيرة. وبالتالي اضطر الاتحاد الأوروبي إلى إضافة فصل خاص بالذكاء الاصطناعي التوليدي في منتصف الطريق خلال عملية إصداره.
وبينما القليل من القضايا الاقتصادية والمالية والاجتماعية لم تتأثر بالتكنولوجيا المتنقلة، فإن هذا يتطلب الكثير من الحواجز والتشريعات، بحسب تقرير لصحيفة "فاينانشال تايمز"البريطانية.
يشير التقرير إلى أنه على عكس النهج القائم على المبادئ الذي يتبناه الاتحاد الأوروبي تجاه البيانات في اللائحة العامة لحماية البيانات، يتبنى قانون الذكاء الاصطناعي نهجًا لسلامة المنتج، على غرار تنظيم السيارات أو الأجهزة الطبية، على سبيل المثال. ويسعى إلى تحديد المخاطر ومعالجتها، مع الالتزام بالمعايير والتحقق منها قبل طرحها في السوق. يمكن مقارنة ذلك باختبار تحطم نموذج سيارة قبل طرحه.
يصنف الاتحاد الأوروبي القدرات والمتطلبات اللاحقة وفقًا لملف المخاطر. في قمة الهرم توجد الأمور المتعلقة بالتحكم السلوكي وتصنيف الأفراد اجتماعيًا، والتي يحظرها القانون. أما في القاع، فتوجد فلاتر البريد العشوائي العادية والألعاب المدعومة بالذكاء الاصطناعي، حيث يكون كود طوعي كافيًا.
ووفق التقرير، فمن الطبيعي أن الطبقتين الوسيطتين (من ضمن طبقات المخاطر)، هما الأكثر تأثيرًا على مطوري التكنولوجيا ومستخدميها. على سبيل المثال، ستندرج الخدمات المالية والشركات الأخرى التي تستخدم أدوات الذكاء الاصطناعي لتحديد الجدارة الائتمانية أو لتوظيف الموظفين ضمن هذه الفئة.
كما يقع المستخدمون أيضًا على المحك في فئات ذات مخاطر أعلى إذا قاموا بتعديل نموذج ما: فقد تقوم الشركة بمرور الوقت بالتبديل إلى استخدام الذكاء الاصطناعي، على سبيل المثال من غربلة السير الذاتية إلى اتخاذ القرارات بشأن من يستحق الترقية.
وتقول ليليان إدواردز، الأستاذة بجامعة نيوكاسل، إن إحدى النتائج المحتملة لذلك هي الاستخدام المكثف للعقود بين أولئك الذين ينشرون الذكاء الاصطناعي ومقدمي التكنولوجيا الكبار.
ووفق التقرير، فإن تحديد ما يشكل خطراً منهجياً في الذكاء الاصطناعي التوليدي أمر صعب. فقد لجأ الاتحاد الأوروبي ــ والولايات المتحدة في أمرها التنفيذي بشأن استخدام الذكاء الاصطناعي ــ إلى مقاييس القدرة الحاسوبية. ويحدد الاتحاد الأوروبي حده الأقصى عند 10⊃2;⁵ عمليات الفاصلة العائمة في الثانية، وهو مقياس لأداء الحوسبة، في حين حددته الولايات المتحدة عند 10⊃2;⁶. والتجاوز عن هذا الحد يؤدي إلى فرض التزامات إضافية.
المشكلة هنا أن هذا الرقم يتعلق بالطاقة المستخدمة في التدريب. وقد ترتفع هذه الطاقة، أو حتى تنخفض، بمجرد نشرها. وهو أيضاً رقم زائف إلى حد ما: فهناك عديد من العوامل الأخرى التي تحدد الأداء، بما في ذلك جودة البيانات وتسلسل التفكير المنطقي، والتي قد تعزز الأداء دون الحاجة إلى قوة حوسبة إضافية للتدريب. وسوف يصبح هذا الرقم قديماً بسرعة: فقد يصبح الرقم الكبير الحالي سائداً في العام المقبل.
ويشير التقرير إلى أن القانون الذي دخل حيز التنفيذ رسميا في أغسطس من هذا العام، يتم تطبيقه تدريجيا. ومن المتوقع أن تنشأ عقبات أخرى مع تطور القدرات. وحتى مع تطور القواعد، فإن الخطر يكمن في أنها تظل متخلفة عن المنحنى التكنولوجي.
تحديات
المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، الدكتور أحمد بانافع، يقول في تصريحات خاصة لموقع "اقتصاد سكاي نيوز عربية"، إن الجهات التنظيمية تواجه تحديات كبيرة في مواكبة هذا التطور السريع المرتبط بالذكاء الاصطناعي؛ لعدة أسباب:
- سرعة التطور: يتطور مجال الذكاء الاصطناعي بسرعة هائلة، مما يجعل من الصعب على الجهات التنظيمية وضع قوانين ولوائح ثابتة.
- التعقيد التقني: تطبيقات الذكاء الاصطناعي معقدة للغاية، وقد يصعب على غير المتخصصين فهمها وتنظيمها.
- الطبيعة العابرة للحدود: الذكاء الاصطناعي ليس مقيدًا بحدود جغرافية، مما يجعل من الصعب تنسيق الجهود التنظيمية على المستوى الدولي.
- التأثيرات الاجتماعية والأخلاقية: تطبيقات الذكاء الاصطناعي لها آثار اجتماعية وأخلاقية عميقة، مما يثير قضايا جديدة تتطلب إطارًا تنظيميًا شاملًا.
ومع ذلك، هناك بعض الجهود المبذولة من قبل الجهات التنظيمية لمواكبة هذا التطور، من بينها على سبيل المثال ما يرصده بانافع على النحو التالي:
- إنشاء فرق عمل متخصصة: تعمل عديد من الحكومات على إنشاء فرق عمل متخصصة في مجال الذكاء الاصطناعي لدراسة التطورات الأخيرة واقتراح السياسات المناسبة.
- التعاون الدولي: تسعى الدول إلى التعاون على المستوى الدولي لوضع معايير مشتركة للذكاء الاصطناعي.
- الاستفادة من الخبراء: تستشير الجهات التنظيمية الخبراء في مجال الذكاء الاصطناعي للحصول على نصائح حول كيفية تنظيم هذا المجال.
- تحديث القوانين القائمة: تعمل بعض الدول على تحديث القوانين القائمة لتشمل تطبيقات الذكاء الاصطناعي.
ويوضح أن تنظيم الذكاء الاصطناعي يتطلب توازنًا بين الابتكار وحماية الحقوق الفردية. اختلاف القيم الثقافية بين الدول يمكن أن يؤدي إلى تنظيمات متباينة.
كما يلفت إلى أنه لتحقيق تنظيم فعال، يجب أن يكون هناك تعاون مستمر بين الجهات الحكومية والشركات العاملة في مجال الذكاء الاصطناعي.
ويختتم بانافع حديثه مع موقع "اقتصاد سكاي نيوز عربية"، بقوله:
- مواكبة التطور السريع في مجال الذكاء الاصطناعي تتطلب جهدًا مستمرًا من جانب الجهات التنظيمية.
- يتعين على هذه الجهات أن تكون مرنة وقادرة على التكيف مع التغيرات المستمرة في هذا المجال.
- كما يجب عليها أن تعمل بشكل وثيق مع الخبراء والصناعة والمجتمع المدني لوضع إطار تنظيمي شامل وعادل للذكاء الاصطناعي.
مواكبة التطورات
بدوره، يشير الخبير التكنولوجي، محمد الحارثي، في تصريحات خاصة لموقع "اقتصاد سكاي نيوز عربية" إلى أن قدرة الجهات التنظيمية على مواكبة التطورات السريعة في تطبيقات الذكاء الاصطناعي تتفاوت حسب الدولة والقطاع، مما يطرح تحديات متعددة:
- أولًا، تبرز قضية السرعة والتعقيد، إذ تتطور تقنيات الذكاء الاصطناعي بشكل سريع، مما يجعل من الصعب على الأنظمة والتشريعات التكيف في الوقت المناسب.
- ثانيًا، هناك نقص في المعرفة والخبرة لدى العديد من المنظمين، مما يؤدي إلى صعوبة في صياغة قوانين فعالة.
ويرى أنه من المهم أيضًا تحقيق توازن بين تحفيز الابتكار ومنع المخاطر المحتملة، ذلك أن تشديد القيود قد يحد من التطوير، بينما التراخي قد يسمح باستخدامات غير أخلاقية، موضحاً في الوقت نفسه أن التعاون الدولي يعد أمرًا ضروريًا، لكنه معقد بسبب اختلاف الأنظمة والقوانين بين الدول.
ويضيف: فيما يتعلق بالقوانين، يعمل الاتحاد الأوروبي على "قانون الذكاء الاصطناعي" الذي يسعى لوضع معايير تنظيمية شاملة. وفي الولايات المتحدة، تُعقد مناقشات حول تنظيم الذكاء الاصطناعي، ولكن لا توجد قوانين فيدرالية شاملة حتى الآن. وفي الصين، تم إصدار توجيهات تتعلق بالذكاء الاصطناعي لضمان الاستخدام الأخلاقي. بينما في كندا، تم إطلاق "استراتيجية الذكاء الاصطناعي" التي تتضمن معايير تنظيمية ونماذج أخلاقية.