وفي ظل السباق المحموم الذي تخوضه الدول فيما بينها، لتطوير برامج وتقنيات الذكاء الاصطناعي التوليدي ومحاولة كل طرف من الأطراف حجز موقع متقدم له في هذه الصناعة، تسعى الصين لتعزيز موقفها في هذا المشهد الحيوي للابتكار التكنولوجي.

وتعمل الصين على ذلك من خلال استثمارات كبيرة تقوم بها في مجالات البحث والتطوير، ما يمنحها القدرة على إنتاج نماذج متقدمة، من برامج وتقنيات الذكاء الاصطناعي التوليدي، قادرة على التفاعل بطريقة ذكية مع البيانات والأنظمة المعقدة.

ورغم التقدم الذي تحققه الصين في مجال الذكاء الاصطناعي، إلا أن المخاطر الأخلاقية والأمنية من هذه التكنولوجيا تظل واضحة بالنسبة لها، خصوصاً عند الحديث عن نماذج اللغة الكبيرة (LLM) التي تشغّل روبوتات الدردشة مثل  ChatGPT وGemini.

حيث تشدد بكين على ضرورة أن تكون روبوتات الدردشة العاملة في البلاد، متناسبة من حيث أجوبتها مع التوجهات السياسية العامة التي تضعها الحكومة الصينية، بما يضمن استخدامها بطرق تعزز الفائدة العامة وتقلل المخاطر السلبية.

وبحسب تقرير أعدته صحيفة "فاينانشال تايمز" وإطلع عليه موقع "اقتصاد سكاي نيوز عربية"، فإن النماذج اللغوية الكبيرة التي تنتجها شركات الذكاء الاصطناعي في الصين يتم اخضاعها لمراجعة حكومية، للتأكد من أن ردودها على المواضيع الحساسة، تجسد القيم الاشتراكية الأساسية للبلاد، إذ تتم هذه المراجعة من قبل إدارة الفضاء الإلكتروني في الصين (CAC) وهي الجهة المنظمة للإنترنت في البلاد.

أخبار ذات صلة

شركة "أبل" توقع على خطة لإدارة "مخاطر الذكاء الاصطناعي"
محرك بحث جديد من "أوبن إيه آي".. هل يهدد "غوغل"؟

"الذكاء الاصطناعي الاشتراكي"

يتطلب تطبيق مبدأ "الذكاء الاصطناعي الاشتراكي" قيام الشركات بـ "تصفية أمنية" على مجموعة متنوعة من الأسئلة التي تتعلق بموضوعات عامة حساسة وموضوعات سياسية وشؤون الرئيس الصيني شي جين بينغ.

وتتم "التصفية الأمنية" عن طريق إزالة "المعلومات الإشكالية" الموجودة ضمن البيانات التي يتم تدريب روبوتات الدردشة عليها، ليصار بعدها إلى إنشاء قاعدة بيانات بالكلمات والعبارات الحساسة التي يجب تجنب استخدامها، بما يضمن عدم توليد الروبوتات لمحتوى "غير قانوني".

كما أن هذه العملية قد تدفع روبوتات وبرامج الدردشة الأكثر شهرة في الصين إلى رفض الإجابة عن أسئلة حول مواضيع حساسة مثل احتجاجات ميدان السلام السماوي عام 1989، وذلك وفقاً لما ذكرته صحيفة فايننشال تايمز.

ويعد تطبيق مبدأ الرقابة على النماذج اللغوية الكبيرة في الصين وتلبية شروطه أمراً معقداً، حيث يجب على الشركات مراجعة بيانات التدريب باللغتين الصينية والإنجليزية، كي تكون نماذجها قادرة على توليد "إجابات صحيحة سياسياً"، وهو ما يعد امراً صعباً نظراً لصعوبة التوفيق بين اللغتين.

في حين تشدد إدارة الفضاء الإلكتروني في الصين (CAC) أثناء الاختبارات التي تقوم بها، على ضرورة أن تكون هناك حدود لعدد الأسئلة التي لا يمكن لروبوتات الدردشة الإجابة عليها، وذلك لحث الشركات على ابتكار حلول بعيداً عن خيار عدم الرد على الأسئلة.

وبحسب التقرير الذي أعدته صحيفة فاينانشال تايمز واطلع عليه موقع "اقتصاد سكاي نيوز عربية"، فإن العديد من المهندسين والمطلعين على الصناعة وخبراء الذكاء الاصطناعي، يرون أنه من الصعب منع النماذج اللغوية الكبيرة من توليد المحتوى الضار تماماً، لذلك تقوم الشركات ببناء طبقة أمنية إضافية داخل هذه النماذج، لتتدخل في الوقت الفعلي عند رصد أي احتمال لظهور معلومات غير مرغوبة، وبالتالي تقوم هذه الطبقة بتصحيح مسار الأمور وتقديم معلومات تلتزم بالقيم الاشتراكية الصينية.

والشروط التي تضعها إدارة الفضاء الإلكتروني في الصين (CAC) تشمل جميع اللاعبين الأساسيين في تطوير هذه التكنولوجيا، من عمالقة التكنولوجيا مثل ByteDance وAlibaba إلى الشركات الناشئة الصغيرة.

أخبار ذات صلة

ما الذي يُمكن أن تقدمه كامالا هاريس لـ "التجارة الدولية"؟
تفوق شريحة ماسك.. شريحة دماغ "عربية" تمهد لاتصال المخ بالـAI

إنحياز ضد الصين

ويقول مطوّر التطبيقات والبرامج التكنولوجية جورج ضاهر، في حديث لموقع "اقتصاد سكاي نيوز عربية" إن المنافسة التي تخوضها الصين للتفوق في مجال الذكاء الاصطناعي التوليدي، ليست مجرد منافسة فنية، بل هي منافسة استراتيجية، تهدف إلى تحقيق التفوق الاقتصادي والعسكري والسياسي في المستقبل القريب.

ولكن وفي الوقت نفسه، تواجه بكين تحديات ومخاطر سلبية ناتجة عن هذه التكنولوجيا وخصوصاً روبوتات الدردشة ذات المنشأ الأميركي أو الأوروبي أو الياباني، التي تشغلها النماذج اللغوية الكبيرة، حيث ترى الصين أن إجابات هذه الروبوتات ستكون منحازة ضدها، وستحاول نشر وجهة النظر الغربية في عدة نقاط خلافية معها، وبالتالي فإن ما تريده بكين هو أن تكون المعلومات التي تمنحها روبوتات الدردشة للمستخدمين المنتشرين على الأراضي الصينية، مستقاة من مصادر رسمية تلتزم بقيم السياسة الاشتراكية التي تنتهجها البلاد.

ويشرح ضاهر أن أولويات روبوتات الدردشة المدعومة بالذكاء الاصطناعي التوليدي، تختلف بين الولايات المتحدة والصين، فعلى على سبيل المثال ترى برامج مثل ChatGPT وGemini عند سؤالها عن الديمقراطية، أنها أمر ايجابي يعزز من الحريات، وهذه الإجابة تتعارض مع السياسات الصينية، التي ترى أن الديمقراطية تعزز انتشار الفوضى، مشيراً إلى أن الاختلاف في الآراء يمتد ليشمل مواضيع مثل التجسس وتايوان وهونغ كونغ، والحريات الشخصية وسياسة الحزب الحاكم في الصين، كما أن الاختلاف في الآراء يشمل دور بعض الشركات الصينية مثل هواوي وByteDance وSMIC، فجميع هذه المواضيع هي نقاط خلافية بين الغرب وبكين، ولذلك فإن الصين لا يمكنها أن تقف مكتوفة الأيدي، وهي تريد التأكد من أن المعلومات التي تظهر للمستخدمين على أراضيها، تتبنى خطاً معيناً يتوافق مع نظرتها لمجريات الأمور.

ويرى ضاهر أن روبوتات الدردشة الصينية تم تصميمها بطريقة تتماشى مع المنظور الصيني العام، تماماً مثل روبوتات الدردشة الأميركية التي تسعى لنقل وجهة النظر الأميركية في عدد من الأمور السياسة الهامة، وهو ما سيتجسد بانقسام عامودي حاد في الإجابات التي تقدمها الروبوتات الأميركية مثل ChatGPT والروبوتات الصينية مثل Ernie.

أخبار ذات صلة

الذكاء الاصطناعي يعزز أرباح "ألفابت" في الربع الثاني
كيف يعيد الـ AI تشكيل متاجر البقالة وسلاسل الوجبات السريعة؟

ومن جهته يقول المطور التكنولوجي فادي حيمور في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن هناك فرقاً رئيسياً بين الطريقة التي تدير بها الولايات المتحدة والصين سباق التسلح بالذكاء الاصطناعي، حيث يجب على الشركات الصينية العمل ضمن إطار تنظيمي صارم مصمم لتعزيز شرعية الدولة.

في حين أن الولايات المتحدة تشجع على قيم الحرية الفردية والديموقراطية، وهذا ما يؤدي إلى ظهور بعض التناقضات في الإجابات بين الروبوتات الصينية والأميركية، مشيراً إلى أن روبوتات الدردشة تنقل رأي الطرف الذي صنعها، فالمعلومات التي يتم تلقينها لهذه البرامج والخورازميات التي تعمل من خلالها، يتم التحكم بهما من قبل الانسان ولذلك يصبح الروبوت واجهة منحازة لأفكار الشخص الذي صنعه.

ويشدد حيمور على أن الذكاء الاصطناعي التوليدي والبيانات المتعلقة به هي من العناصر التي قد تقلب موازين القوى العالمية، فالبيانات تعتبر الوقود الأساسي لتدريب نماذج الذكاء الاصطناعي، وفي حال تم تدريب هذه البرامج على بيانات تحتوي على معلومات تراها الصين أنها تضر بها، فإن ذلك سينعكس سلباً على صورتها العامة في العالم، وعلى قدرتها على الاستفادة من هذه التكنولوجيا المهمة، ولذلك نرى أن بكين تحاول جاهدة خلق نماذج للذكاء الاصطناعي تساعدها في تعزيز نفوذها الثقافي والسياسي عبر العالم، وتضع أمام المستخدمين وجهة نظر أخرى ومعاكسة لتلك التي توفرها البرامج الأميركية.

وبحسب حيمور فإن الذكاء الاصطناعي الاشتراكي في الصين يشير إلى الاستراتيجيات والمبادئ الاشتراكية التي تقوم عليها الحكومة الصينية، بما يحافظ على الاستقرار الاجتماعي والسياسي، ويمنع انتشار معلومات سلبية عن الدولة وأركانها وشركاتها.