تمثل تقنيات الذكاء الاصطناعي (AI) مجالاً متنوعاً ومتطوراً يشمل تطبيقات عديدة تتراوح بين التعلم الآلي، والتحليل الضخم للبيانات، والتفاعل الذكي مع الآلات. أثرت تلك التطبيقات بشكل كبير على عديد من الصناعات والقطاعات.

وعلى اعتبار أنها تشهد تطوراً سريعاً، فإن وضع قواعد تنظيمية للذكاء الاصطناعي أصبح أمراً بالغ الأهمية؛ لضمان استفادة البشرية من تلك التقنيات بأقصى إمكاناتها مع الحفاظ على قيم وأخلاقيات مجتمعاتنا وضمان عدم تعرض الأفراد للمخاطر أو التمييز.

وتستهدف الجهود المتسارعة لوضع قواعد تنظيمية بصورة أوضح وأعم للذكاء الاصطناعي (في مختلف القطاعات التي يظهر بها أثر تلك التقنيات) إلى تحقيق عدد من الأهداف، أهمها: حماية الخصوصية والأمان، إضافة إلى تجنب الانحياز والتمييز، وكذلك المسؤولية والشفافية، علاوة على تحفيز الابتكار والتنافسية، وتوجيه التنمية المستدامة، وتعزيز الثقة وقبول التكنولوجيا، وغيرها من الأهداف.

وفي يونيو الماضي،  أكد الأمين العام للأمم المتحدة أنطونيو غوتيريش، أن تطوير الذكاء الاصطناعي "من أجل الصالح العام" يتطلب ضوابط متجذرة في حقوق الإنسان والشفافية والمحاسبة، وذلك خلال كلمته في القمة العالمية للذكاء الاصطناعي، والتي أكد فيها الحاجة الماسة للتوصل إلى إجماع بشأن ما يجب أن تكون عليه القواعد الإرشادية لاستخدام الذكاء الاصطناعي.

والشهر الماضي، كشف استطلاع أجرته شركة MITRE عن أن 39 بالمئة فقط من الأميركيية يعتقدون بأن تقنيات الذكاء الاصطناعي "آمنة".

وطالب 85 بالمئة من المشاركين في الاستطلاع بأهمية وضع قواعد تنظيمية في بلادهم من جانب الحكومة.

أخبار ذات صلة

مستقبل العمل.. ما الذي يجب على رواد الأعمال التفكير به؟
وزير فرنسي: المخاطر "الجيوسياسية" ستكون لها عواقب ثقيلة

واجتمع عمالة التكنولوجيا والذكاء الاصطناعي مع مشرعين أميركيين الشهر الماضي، في ظل الحاجة الماسة للاستخدام الآمن لتطبيقات الذكاء الاصطناعي. وضم الاجتماع كل من الرئيس التنفيذي لشركة Tesla، إيلون ماسك، والرئيس التنفيذي لشركة Meta Platforms مارك زوكربيرج، والرئيس التنفيذي لشركة Alphabet، ساندر بيتشاي، وغيرهم، لمناقشة تنظيم الـ AI.

كما سبق وأن أعلن الاتحاد الأوروبي أخيراًعن قواعد لتنظيم تطوير أدوات الـ AI وحالات الاستخدام. بينما نقلت تقارير أيضاً عن اتجاه المملكة المتحدة لوضع قواعد خاصة.

كذلك تم إطلاق عديد من الجهود في هذا السياق، والخطوات المرتبطة بتنظيم تطوير الذكاء الاصطناعي، كان آخرها على سبيل المثال تعاون اليونسكو مع الهيئة الهولندية للبنية التحتية الرقمية (NCCA) لإطلاق مشروع الإشراف على الذكاء الاصطناعي.

أهمية القواعد التنظيمية

ولقد برز الذكاء الاصطناعي (AI) كقوة تحويلية في العالم الرقمي اليوم، بما يؤثر على جوانب مختلفة من حياتنا، من الرعاية الصحية والنقل إلى التمويل والترفيه.

وفي حين يجلب الذكاء الاصطناعي إمكانات هائلة للابتكار والتقدم، فإنه يثير أيضاً مخاوف أخلاقية وقانونية واجتماعية بالغة الأهمية، بحسب المستشار الأكاديمي في جامعة "سان خوسيه" الحكومية في كاليفورنيا، أحمد بانافع، والذي يقول في تصريحات خاصة لموقع "اقتصاد سكاي نيوز عربية"، إنه مع استمرار تقدم تقنيات الذكاء الاصطناعي، أصبح من الضروري بشكل متزايد إنشاء أطر تنظيمية تحكم تطويرها ونشرها واستخدامها.

الذكاء الاصطناعي.. سلاح ذو حدين لصحتنا النفسية

ويشرح الأكاديمي المتخصص في تكنولوجيا المعلومات أهمية وجود أطر تنظيمية للذكاء الاصطناعي، على النحو التالي:

أولاً: ضمان الذكاء الاصطناعي الأخلاقي والعادل

يقول بانافع إن "أحد الأسباب الرئيسية لإنشاء أطر تنظيمية للذكاء الاصطناعي هو ضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها بشكل أخلاقي وعادل".

  • يمكن لخوارزميات الذكاء الاصطناعي أن تؤدي عن غير قصد إلى إدامة التحيزات، والتمييز ضد مجموعات معينة، وتؤدي إلى معاملة غير عادلة.
  • بدون لوائح مناسبة هناك خطر يتمثل في إمكانية أن يؤدي الذكاء الاصطناعي إلى تفاقم عدم المساواة المجتمعية القائمة.
  • يمكن للأطر التنظيمية أن تضع مبادئ توجيهية للمطورين والمستخدمين لضمان التزام أنظمة الذكاء الاصطناعي بالمبادئ الأخلاقية، واحترام حقوق الإنسان، وتعزيز الإنصاف والعدالة.

ثانياً: حماية الخصوصية وأمن البيانات

ثاني الأسباب يرتبط بحماية الخصوصية وأمن البيانات، على اعتبار أنه غالباً ما تعتمد أنظمة الذكاء الاصطناعي على كميات هائلة من البيانات لتعمل بفعالية.

  • يمكن أن تتضمن هذه البيانات معلومات شخصية، والتي إذا تم التعامل معها بشكل خاطئ، يمكن أن تؤدي إلى انتهاكات الخصوصية ومخاوف تتعلق بأمن البيانات.
  • يمكن للأطر التنظيمية وضع معايير صارمة لحماية البيانات والخصوصية في تطبيقات الذكاء الاصطناعي، بما يضمن حماية حقوق الأفراد.
  • يساعد الامتثال لهذه القواعد في بناء الثقة بين مطوري الذكاء الاصطناعي والجمهور، مما يعزز قبول واعتماد تقنيات الذكاء الاصطناعي بشكل أكبر.

ثالثاً: تخفيف المخاطر وضمان المساءلة

من المخاطر التي ينطوي عليها الذكاء الاصطناعي المخاوف المتعلقة بالسلامة في الأنظمة الذاتية، واستبدال الوظائف، واحتمال إساءة الاستخدام في التطبيقات الضارة.

  • يمكن أن تتطلب الأطر التنظيمية من مطوري الذكاء الاصطناعي تنفيذ تدابير السلامة وإجراء تقييمات المخاطر والالتزام بمبادئ الشفافية والمساءلة.
  • إضافة إلى ذلك يمكن أن تساعد هذه القواعد في تقليل الآثار السلبية للذكاء الاصطناعي ومحاسبة الأطراف المسؤولة عن أي ضرر تسببه أنظمة الذكاء الاصطناعي.

رابعاً: تشجيع الابتكار والمنافسة

يضيف بانافع أنه رغم أن القواعد التنظيمية ضرورية للذكاء الاصطناعي، إلا أنها يجب أن تحقق التوازن الذي يشجع الابتكار والمنافسة.

  • القواعد المفرطة في التقييد يمكن أن تخنق التقدم التكنولوجي، وتمنع تطوير تطبيقات الذكاء الاصطناعي المفيدة.
  • ينبغي تصميم الأطر التنظيمية لتعزيز نظام بيئي مزدهر للذكاء الاصطناعي يشجع الابتكار مع معالجة المخاطر المحتملة والمخاوف الأخلاقية.

أخبار ذات صلة

في سابقة من نوعها.. هكذا انتصر البشر على AI في نزاعهم الأول
3 تحديات رئيسية تواجه صناعة الاستشارات العالمية

ما هي القواعد التنظيمية الرئيسية المطلوبة للذكاء الاصطناعي؟

وإلى ذلك، يتحدث المستشار الأكاديمي في جامعة "سان خوسيه" الحكومية في كاليفورنيا، في معرض تصريحاته لموقع "اقتصاد سكاي نيوز عربية"، حول أهم القواعد التنظيمية المطلوبة، موضحاً أنه  لإنشاء أطر تنظيمية فعالة للذكاء الاصطناعي، يتعين وضع قواعد أساسية معينة. يجب أن تتناول هذه القواعد الجوانب المختلفة لتطوير الذكاء الاصطناعي ونشره واستخدامه، على النحو التالي:

الشفافية وقابلية الشرح: يجب أن تكون أنظمة الذكاء الاصطناعي شفافة، ويجب أن تكون عمليات صنع القرار الخاصة بها قابلة للشرح للمستخدمين.

تضمن هذه القاعدة أن الأفراد يمكنهم فهم كيفية اتخاذ خوارزميات الذكاء الاصطناعي للقرارات ومحاسبة المطورين عن أي تحيزات أو أخطاء.

تخفيف التحيز: يجب أن تتطلب اللوائح التنظيمية من مطوري الذكاء الاصطناعي معالجة التحيزات في خوارزمياتهم والتخفيف منها، خاصة تلك التي قد تؤدي إلى التمييز ضد المجموعات المحمية. كما يجب أن تكون عمليات تقييم التحيز والتدقيق جزءًا من تطوير الذكاء الاصطناعي.

خصوصية البيانات وأمنها: يجب أن تحكم القواعد الصارمة جمع البيانات وتخزينها واستخدامها في أنظمة الذكاء الاصطناعي لحماية خصوصية الأفراد وأمن البيانات. كذلك يتعين أن يكون الامتثال للوائح حماية البيانات، مثل اللائحة العامة لحماية البيانات  (GDPR)، إلزامياً.

المبادئ التوجيهية الأخلاقية: ينبغي للأطر التنظيمية أن تضع مبادئ توجيهية أخلاقية لتطوير واستخدام الذكاء الاصطناعي، مع التركيز على مبادئ مثل العدالة وعدم التمييز واحترام حقوق الإنسان. يجب أن تؤدي انتهاكات هذه الإرشادات إلى فرض عقوبات.

المساءلة والمسؤولية: يتعين أن توضح القواعد مسؤوليات مطوري الذكاء الاصطناعي ومستخدميه وأصحاب المصلحة الآخرين في حالة حدوث ضرر أو أخطاء متعلقة بالذكاء الاصطناعي. إن إنشاء آليات المسؤولية أمر ضروري لضمان المساءلة.

معايير السلامة: بالنسبة لأنظمة الذكاء الاصطناعي ذات المكونات المادية أو تلك المشاركة في وظائف حيوية (مثل المركبات ذاتية القيادة والأجهزة الطبية)، يجب فرض معايير وشهادات السلامة لمنع الحوادث وضمان السلامة العامة.

الاعتماد والامتثال: يجب أن تخضع منتجات وخدمات الذكاء الاصطناعي لعمليات اعتماد للتحقق من امتثالها للقواعد التنظيمية. لا ينبغي السماح بأنظمة الذكاء الاصطناعي غير المتوافقة في السوق.

موافقة المستخدم: يجب أن يكون للمستخدمين الحق في تقديم موافقة مستنيرة قبل التفاعل مع أنظمة الذكاء الاصطناعي، وخاصة تلك التي تجمع البيانات الشخصية أو تتخذ قرارات مهمة تؤثر على حياة الأفراد.

التعاون الدولي: يجب أن تشجع لوائح الذكاء الاصطناعي التعاون والمواءمة الدوليين لضمان معايير عالمية متسقة، كما هو الحال مع الذكاء الاصطناعي

أخبار ذات صلة

الذكاء الاصطناعي يقترب من مجال الموضة
غوغل تضيف قدرات الذكاء الصناعي لمساعدها الافتراضي

أهداف "حكومية" خاصة

على الجانب الآخر، يلفت أخصائي التطوير التكنولوجي، هشام الناطور، في تصريحات خاصة لموقع "اقتصاد سكاي نيوز عربية"، إلى أهداف أخرى تسعى لتحقيقها حكومات القوى الكبرى من خلال وضع قواعد تنظيمية للذكاء الاصطناعي، مشيراً إلى أن:

  • من يحاول وضع قوانين تنظيمية للذكاء الاصطناعي هي الأقطاب الدولية الكبرى مثل (الولايات المتحدة الأميركية والاتحاد الأوروبي والمملكة المتحدة والصين وروسيا).
  • مساعي هذه الدول لوضع تلك القواعد تأتي في سياق المنافسة الشديدة بين الدول العظمى، وحتى لا يتم ترك المجال أمام شركات الذكاء الاصطناعي بشكل كامل.
  • بالتالي فإن وضع قواعد تنظيمية يهدف في المقام الأول إلى أن تكون هذه الدول مسيطرة على الذكاء الاصطناعي، وأن تنمي اقتصاداتها بشكل أو بآخر من خلاله.
  • هذه الدول رأت نجاحات الشركات الكبرى مثل "فيس بوك وتويتر" ولم تكن قد وضعت قواعد تنظيمية تستطيع من خلالها السيطرة عليها (..)بالتالي هي تريد الآن وضع قواعد للذكاء الاصطناعي. وتبعاً لذلك ستكون المهمة صعبة أمام أية شركة كبرى تريد الانخراط في هذا النشاط مستقبلاً لكونها ستخضع لقواعد وشروط صارمة.

ويوضح في الوقت نفسه أن هذه القوى تسعى كذلك إلى ضمان عدم استخدام تقنيات الـ AI في قرارات الحرب والسلام، مشيراً إلى أن "الذكاء الاصطناعي يدخل في مجالات مختلفة في حياتنا، من بينها على سبيل المثال الطب، إذ يمكن أن تغني التطبيقات عن الذهاب للطبيب مثلاً.. وترفض هذه الدول أن يلبي الأفراد احتياجاتهم الكبيرة والصغيرة من الذكاء الاصطناعي (بما يؤثر على وظائف وخدمات مختلفة)".

ويقول الناطور إن الولايات المتحدة ألزمت سبع شركات من عمالقة التكنولوجيا، بضمان الأمان بمنتجاتها من الذكاء الاصطناعي، من خلال إجراء اختبارات أمنية يقوم بها خبراء مستقلون للحماية من المخاطر مثل الأمن السيبراني والأمن البيولوجي وكذلك الأساليب المتبعة للإبلاغ عن نقاط الضعف والمخاطر بهذه الأنظمة، وكذلك استخدام العلامات المائية الرقمية للتمييز بين الصور ومنع التزوير (..)، موضحاً أن "هذه خطوة استباقية مهمة يمكن معها الحد من المخاطر وإخضاع التقنيات لمجموعة من المعايير (..) حتى تكون آمنة بشكل كاف".

مدى تأثر الشركات بالقواعد

ويحدد أخصائي التطوير التكنولوجي، في السياق نفسه، مدى تأثر الشركات بهذه القواعد، سواء لجهة احتمالية التأثيرات السلبية وكذلك الإيجابية، موضحاً أن:

  • حجم التأثر يعتمد على عددٍ من العوامل؛ من بينها طبيعة اللوائح التنظيمية نفسها ومدى صرامتها.
  • يمكن للقواعد الصارمة أن تؤثر على ربحية الشركات، وبشكل خاص الشركات الصغيرة، بينما الشركات الكبيرة التي لديها موارد كافية لمتطلباتها سوف يكون تأثرها أقل، لأنها لا تعتمد كلياً على الـ AI فحسب.
  • يتوقف حجم التأثير أيضاً على أنواع التطبيقات التي تقدمها الشركات؛ ذلك أن تطبيقات مثل الرعاية الصحية والأمن السيبراني سوف تخضع لشروط وتنظيمات أكثر من التطبيقات الأخرى.

ويضيف: "شركات الذكاء الاصطناعي حساسة أكثر من غيرها، وكل مجال بالذكاء الاصطناعي لابد أن تكون لها شروط وتنظيمات مختلفة"، مشدداً على أن "تقييد قدرة الشركات  على جمع واستخدام البيانات إذا ما تم وضع قواعد صارمة، يضع الشركات أمام مخاطر قانونية مرتبطة بالمسؤولية عن الأضرار التي يمكن أن تسببها أنظمة الـ AI".

ويعتقد بأن ثمة مجموعة من الآثار الإيجابية أيضاً على الشركات، لا سيما وأن تلك القواعد من شأنها زيادة ثقة المستخدمين، الأمر الذي ينعكس على الشركات، ويسهل فتح أسواق جديدة لها وفق اللوائح والقوانين المنظمة، إضافة إلى تشجيع المنافسة والتطور.