لا تزال السرعة التي تنمو بها تطبيقات الذكاء الاصطناعي في حياتنا اليومية محل سجال وجدل واسعين، بين متفائلين بهذا التطور وانعكاساته على تسهيل حياة الناس، وآخرين يرون "مخاطر حقيقية محتملة" من هذا التطور.
هيئة مراقبة المنافسة في المملكة المتحدة كانت أحدث المنضمين إلى مجموعة المتخوفين من تبعات الذكاء الاصطناعي، لا سيما على الصعيد الاقتصادي، بعد أن حذرت أخيراً من أنه "لا ينبغي للناس أن يتوقعوا نتيجة إيجابية من ازدهار الذكاء الاصطناعي"، مشيرة إلى مجموعة من المخاطر بما في ذلك انتشار المعلومات الكاذبة والاحتيال والمراجعات المزيفة بالإضافة إلى ارتفاع أسعار استخدام التكنولوجيا.
الهيئة ذكرت أن الأفراد والشركات يمكن أن يستفيدوا من جيل جديد من أنظمة الذكاء الاصطناعي، إلا أن هيمنة اللاعبين الأساسيين وانتهاك قانون حماية المستهلك يشكلان عدداً من التهديدات المحتملة، بحسب ما ورد في بيان تحذيري صادر عن الهيئة أخيراً.
وبحسب صحيفة الغارديان البريطانية، فإن ظهور ChatGPT على وجه الخصوص قد أثار جدلاً حول تأثير تطبيقات الذكاء الاصطناعي التوليدية على الاقتصاد، سواء لجهة القضاء على وظائف أصحاب الياقات البيضاء في مجالات مثل القانون وتكنولوجيا المعلومات ووسائل الإعلام، بالإضافة إلى إمكانية إنتاج معلومات مضللة على نطاق واسع تستهدف الناخبين والمستهلكين.
الصحيفة نقلت عن الرئيسة التنفيذية لهيئة المنافسة والأسواق، سارة كارديل، قولها إن السرعة التي أصبح بها الذكاء الاصطناعي جزءاً من الحياة اليومية للأشخاص والشركات كانت مثيرة، مع إمكانية تسهيل ملايين المهام اليومية بالإضافة إلى تعزيز الإنتاجية، أو مقدار الإنتاج الذي ينجزه العامل لكل ساعة عمل.
ومع ذلك، حذرت كارديل من أنه لا ينبغي للناس أن يفترضوا نتائج مفيدة، وقالت في بيان لها: "لا يمكننا أن نعتبر المستقبل الإيجابي أمراً مفروغاً منه.. لا يزال هناك خطر حقيقي من أن يتطور استخدام الذكاء الاصطناعي بطريقة تقوض ثقة المستهلك أو يهيمن عليه عدد قليل من اللاعبين الذين يمارسون قوة السوق التي تمنع الشعور بالفوائد الكاملة في جميع أنحاء الاقتصاد".
وأضافت الهيئة أن عديداً من الشركات لديها بالفعل وجود في جانبين أو أكثر من الجوانب الرئيسية للنظام الخاصة بنماذج الذكاء الاصطناعي، حيث يمتلك مطورو الذكاء الاصطناعي الكبار مثل غوغل ومايكروسوفت وأمازون، بنية تحتية حيوية لإنتاج وتوزيع النماذج الأساسية مثل مراكز البيانات والخوادم ومستودعات البيانات، بالإضافة إلى التواجد في أسواق مثل التسوق عبر الإنترنت والبحث والبرمجيات.
وقالت الهيئة التنظيمية أيضاً إنها ستراقب عن كثب تأثير استثمارات شركات التكنولوجيا الكبرى في مطوري الذكاء الاصطناعي، مشيرة إلى أنه من الضروري ألا تقع سوق الذكاء الاصطناعي في أيدي عدد صغير من الشركات، مع ما يترتب على ذلك من عواقب قصيرة المدى تتمثل في تعرض المستهلكين لمستويات كبيرة من المعلومات الكاذبة والاحتيال المدعوم بالذكاء الاصطناعي والمراجعات المزيفة.
أدوات مواجهة المخاطر
وفي تحليله لتلك المخاوف والمخاطر التي عبرت عنها الهيئة البريطانية، يقول المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، الدكتور أحمد بانافع، في تصريحات خاصة لموقع "اقتصاد سكاي نيوز عربية" إن الذكاء الاصطناعي هو تقنية رائدة بشرت بعصر جديد من الإمكانيات والفرص؛ إلا أن الأمر لا يخلو من التحديات والمخاطر المحتملة.
تتعمق وجهة نظر بانافع في هذا السياق في موضوع متعدد الأوجه للمخاطر التي يحركها الذكاء الاصطناعي، مع التركيز على أربعة مجالات رئيسية -أوردها بيان الهيئة البريطانية ضمن المخاطر الرئيسية للذكاء الاصطناعي- وهي ارتفاع الأسعار وانتشار المعلومات الكاذبة، علاوة على الاحتيال والمراجعات المزيفة.
الأسعار المتصاعدة
فيما يخص "الأسعار المتصاعدة"، لقد أحدث ظهور الذكاء الاصطناعي ثورة في استراتيجيات التسعير في مختلف الصناعات، بحيث يمكن للخوارزميات المدعومة بالذكاء الاصطناعي تعديل الأسعار في الوقت الفعلي، مع الأخذ في الاعتبار عوامل مثل الطلب والعرض وأسعار المنافسين وسلوك العملاء.
في حين أن التسعير الديناميكي يمكن أن يفيد الشركات والمستهلكين على حد سواء، فإنه يثير تساؤلات حول العدالة والشفافية.
أما حول الأساس المنطقي للقلق في هذا السياق، فيشير الخبير المتخصص في الذكاء الاصطناعي، إلى أن التمييز في الأسعار هو مصدر قلق حقيقي، إذ يمكن للذكاء الاصطناعي أن يمكّن الشركات من تخصيص الأسعار، ما قد يلحق الضرر بالمستهلكين الأقل اطلاعاً أو الأقل ذكاءً في مجال التكنولوجيا.
وقد أدى هذا إلى مناقشات حول أخلاقيات التسعير الشخصي وما إذا كان يمكن أن يؤدي إلى ارتفاع الأسعار.
ولمعالجة هذه المشكلة، ثمة مجموعة من الأدوات التي يقترحها على النحو التالي:
- التنظيم والشفافية: يمكن للحكومات تطبيق أنظمة لضمان الشفافية في استراتيجيات التسعير؛ قد يُطلب من الشركات الكشف عن خوارزميات التسعير الخاصة بها وتقديم تفسيرات واضحة لتغيرات الأسعار.
- تثقيف المستهلك: إن تثقيف المستهلكين حول التسعير الديناميكي وكيفية التعامل معه يمكن أن يمكّنهم من اتخاذ قرارات مستنيرة: يتضمن ذلك استخدام أدوات تتبع الأسعار وفهم متى وكيف تتقلب الأسعار.
- المبادئ التوجيهية الأخلاقية: يمكن للجمعيات والمنظمات الصناعية وضع مبادئ توجيهية أخلاقية للتسعير القائم على الذكاء الاصطناعي، وتعزيز العدالة وتثبيط الممارسات المفترسة.
انتشار المعلومات الكاذبة
ويتطرق بانافع بالحديث عن المخاطر المرتبطة بـ "انتشار المعلومات المضللة" كما ورد في البيان التحذيري الصادر في بريطانيا، موضحاً أن انتشار المعلومات الكاذبة يعد مصدر قلق متزايد في عصر الذكاء الاصطناعي.
ويمكن لتقنية Deepfake أو التزييف العميق، المدعومة بالذكاء الاصطناعي، إنشاء محتوى مزيف واقعي للغاية، ما يجعل من الصعب تمييز الحقيقة من الخيال.
بالإضافة إلى ذلك، يمكن للروبوتات التي تعمل بالذكاء الاصطناعي تضخيم المعلومات الخاطئة على منصات وسائل التواصل الاجتماعي، والتأثير على الرأي العام والثقة.
الأساس المنطقي للقلق يكمن في التآكل المحتمل للثقة في وسائل الإعلام، والسياسة، والخطاب العام.
يمكن أن تؤدي المعلومات الكاذبة إلى عواقب في العالم الحقيقي، بما في ذلك الاضطرابات الاجتماعية والسياسية، فضلاً عن مخاطر الصحة العامة أثناء الأزمات.. ولمعالجة المشكلة، يقترح ما يلي من الأدوات:
- الثقافة الإعلامية: يعد تعزيز الثقافة الإعلامية ومهارات التفكير النقدي أمراً ضرورياً لمساعدة الأفراد على التعرف إلى المعلومات الكاذبة؛ يمكن للمبادرات التعليمية أن تعلم الناس كيفية التحقق من صحة المصادر وتقييمها.
- المساءلة الخوارزمية: يجب أن تتحمل شركات التكنولوجيا المسؤولية عن الخوارزميات التي تستخدمها؛ يمكنهم تطوير أدوات الذكاء الاصطناعي لاكتشاف المعلومات الكاذبة ومواجهتها، بالإضافة إلى تقليل انتشار المحتوى المزيف.
- التنظيم: يمكن للحكومات فرض اللوائح التي تجعل منصات التواصل الاجتماعي مسؤولة عن المعلومات الكاذبة المنتشرة على منصاتها؛ يمكن أن يشمل ذلك غرامات الفشل في إزالة المحتوى المضلل أو تصنيفه.
الاحتيال
أما الخطر الثالث، والمرتبط بـ "الاحتيال"، فيشير المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، لدى حديثه مع موقع "اقتصاد سكاي نيوز عربية" إلى أن دور الذكاء الاصطناعي في الأمن السيبراني هو سيف ذو حدين؛ في حين أن الذكاء الاصطناعي يمكنه تعزيز التدابير الأمنية واكتشاف التهديدات السيبرانية، فإنه يمكّن أيضًا مجرمي الإنترنت من خلال أدوات متطورة. يمكن للهجمات التي تعتمد على الذكاء الاصطناعي استغلال نقاط الضعف بسرعات وحجم غير مسبوقين.
ويوضح أن الأساس المنطقي للقلق في هذا السياق يتركز حول التصعيد المستمر للتهديدات السيبرانية.
ومع تطور الذكاء الاصطناعي، تتطور أيضًا التكتيكات والتقنيات التي يستخدمها مجرمو الإنترنت، مما قد يؤدي إلى المزيد من الهجمات الضارة والمنتشرة.. ولمعالجة المشكلة، يقترح:
- الدفاع المدعوم بالذكاء الاصطناعي: يمكن للمؤسسات الاستفادة من الذكاء الاصطناعي في الأمن السيبراني من خلال تطوير أنظمة متقدمة للكشف عن التهديدات؛ يمكن لخوارزميات التعلم الآلي تحليل كميات هائلة من البيانات لتحديد الحالات الشاذة والتهديدات المحتملة.
- التعاون وتبادل المعلومات: يمكن للقطاعين العام والخاص التعاون لتبادل المعلومات المتعلقة بالتهديدات؛ كما يمكن أن تساعد مشاركة المعلومات في الوقت المناسب المؤسسات على البقاء في صدارة التهديدات المتطورة.
- تدريب المستخدم: غالباً ما يكون الخطأ البشري حلقة ضعيفة في الأمن السيبراني؛ وبالتالي فإن توفير التدريب على الأمن السيبراني للموظفين يمكن أن يقلل من خطر الوقوع ضحية لهجمات التصيد الاحتيالي والتهديدات السيبرانية الأخرى.
المراجعات الوهمية
أما فيما يخص "المراجعات الوهمية" (المراجعات هي آراء لمستخدمين حول منتج ما يتم نشرها على وسائل التواصل الاجتماعي)، فيلفت بانافع في السياق نفسه إلى أن آراء المستهلكين تلعب دوراً مهماً في تشكيل قرارات الشراء.
ومع ذلك، أصبحت المراجعات المزيفة المعتمدة على الذكاء الاصطناعي منتشرة بشكل متزايد، حيث تولد الروبوتات والخوارزميات مراجعات إيجابية للمنتجات والخدمات، حتى عندما تكون دون المستوى أو غير موجودة.
والأساس المنطقي للقلق يكمن في هذا السياق، في احتمال تضليل المستهلكين وتقويض مصداقية منصات المراجعة.
يمكن للمراجعات المزيفة أن تضر الشركات والمستهلكين على حد سواء من خلال تشويه التصورات حول جودة المنتج، بحسب بانافع، الذي يشير إلى أدوات معالجة تلك المشكلة، على النحو التالي:
- تحسين الإشراف: يمكن لمنصات المراجعة تحسين عمليات الإشراف الخاصة بها لاكتشاف المراجعات المزيفة وإزالتها: يمكن أن يساعد الذكاء الاصطناعي في تحديد الأنماط والمحتوى المشبوه.
- الشفافية: يمكن أن تكون المنصات أكثر شفافية بشأن سياسات المراجعة الخاصة بها وكيفية مكافحة التقييمات المزيفة.