شهدت أدوات وتقنيات الذكاء الاصطناعي التوليدي مثل "شات جي بي تي" انتشاراً كبيراً في الأشهر الأخيرة، وقد تسبب التطور السريع الذي حققته هذه التقنيات بردود فعل متخوفة من توغل الذكاء الاصطناعي في حياة البشر.
فالتقدم في مجال الذكاء الاصطناعي التوليدي يعني بالنسبة للكثيرين، أن الروبوتات تزحف نحو تسلم مهام ووظائف كانت حكراً على البشر.
سيناريو أشد قتامة
ورغم أن هذه المخاوف محقة، فإن التأثير السلبي للذكاء الاصطناعي التوليدي على وظائف البشر، لا يشكل سوى جزء صغير جد من السيناريو الأشد قتامة، الذي ينتظر العالم في حال لم يتم تدارك الوضع، وهذه التحذيرات أتت على لسان رائد التقنية والأب الروحي للذكاء الاصطناعي جيفري هينتون، الذي غادر منذ أيام وظيفته في شركة غوغل حتى يتمكن من التحدث عن مخاطر الذكاء الاصطناعي، دون التفكير في مدى تأثير ذلك على الشركة.
من هو جيفري هينتون وما سبب اكتسابه للقب الأب الروحي للذكاء الاصطناعي؟
"يعتبر أحد أهم الشخصيات في تاريخ الذكاء الاصطناعي، وهو قائد ذو رؤية، ساعد في تشكيل مستقبل الذكاء الاصطناعي"، باختصار هذا هو رأي برنامج Bard الذي يعمل بتقنيات الذكاء الاصطناعي التوليدي، بالأب الروحي للذكاء الاصطناعي جيفري هينتون.
ابن عائلة من العلماء
ولد جيفري هينتون في ويمبلدون في بريطانيا عام 1947، وينحدر من عائلة من العلماء بما في ذلك جده عالم الرياضيات جورج بول، إضافة إلى ابنة عمه جوان هينتون، عالمة الفيزياء النووية التي عملت في مشروع مانهاتن، الذي أنتج أول أسلحة نووية في العالم خلال الحرب العالمية الثانية، ومن ثم والده جيفري تايلور، وهو عالم أصبح عضواً في الجمعية الملكية البريطانية، وهي أقدم أكاديمية علمية في العالم.
تكنولوجيا الروبوتات
حصل جيفري هينتون على شهادة في علم النفس التجريبي من جامعة كامبريدج ودكتوراه في الذكاء الاصطناعي من جامعة إدنبرة، وعمل ما بعد الدكتوراه في علوم الكمبيوتر، في جامعات رائدة حول العالم، وشارك إضافة إلى آخرين، في تأليف ورقة بحثية في عام 1986، تناولت مفهوم تكنولوجيا "الانتشار العكسي"، وهي طريقة لتدريب الشبكات العصبية الاصطناعية، على تعزيز التعلم الآلي، وهذه التكنولوجيا تستخدمها روبوتات المحادثة حالياً، لتفسير الطلبات وتوليد الإجابات للمستخدمين.
في عام 1987 بدأ هينتون برنامجاً مخصصاً للتعلم الآلي، في جامعة تورنتو في كندا، وواصل التعاون مع زملائه وطلابه، مفتوناً بكيفية تدريب أجهزة الكمبيوتر، على التفكير والرؤية والفهم، وهو ما وصفه المشككون حينها بأنه "هراء".
جعل الكمبيوتر قادراً على الفهم
وبحسب "سكاي نيوز"، فقد فاز جيفري هينتون وباحثان آخران في عام 2012، بمسابقة لبناء نظام يتيح للكمبيوتر التعرف إلى مئات الأشياء في الصور، محققاً حلمه بجعل الكمبيوتر قادراً على التفكير والفهم، وهي الميزة التي يتميز بها أحدث إصدار من برنامج ChatGPT، ومن هنا فإن جميع هذه الابتكارات ساهمت باكتسابه للقب الأب الروحي للذكاء الاصطناعي.
وقد أسس هينتون وزميلاه Alex Krizhevsky و Ilya Sutskever شركة DNNresearch لأنظمة الذكاء الاصطناعي والتعلم الآلي والتعرف إلى الصور، ما أثار اهتمام غوغل التي استحوذت على شركتهم في عام 2013.
تخليه عن العمل
وبعد عملية الاستحواذ، بدأ هينتون العمل بدوام جزئي في غوغل، إضافة لعمله في جامعة تورنتو، ومن هناك أنشأ فريقاً بحثياً مكرساً لتطوير الذكاء الاصطناعي لدى غوغل، ليعلن قبل أيام قليلة أنه تخلى عن العمل مع الشركة، التي وصفها بأنها تصرفت بمسؤولية كبيرة مع برامج الذكاء الاصطناعي.
ممَّ يخاف؟
تعود مصداقية التحذيرات التي أطلقها جيفري هينتون إلى الشخصية الرصينة التي يتمتع بها، فهو وعبر العديد من المقابلات الصحفية، التي أعقبت تركه لعمله في شركة غوغل، حاول إيصال رسالة مفادها أن الخطر الداهم والأكثر إلحاحاً للبشرية، هو "الذكاء الاصطناعي" وليس "تغيّر المناخ".
ونظرة هينتون المقلقة لتطور الذكاء الاصطناعي جاءت، بعد عقود من عمله في هذا المجال، مشيراً إلى أنه كان يعتقد أن تفوق الآلة على البشر أمر بعيد المنال، ويحتاج إلى ما بين 30 و50 عاماً، أو حتى أكثر ولكنه لم يعد يعتقد ذلك الآن.
ويقول هينتون إنه لا يريد التقليل من قيمة التغير المناخي، ولكن إذا توقف البشر عن حرق الكربون فستكون الأمور في النهاية على ما يرام، في حين أنه مع الذكاء الاصطناعي التوليدي، ليس من الواضح على الإطلاق ما يجب على العالم فعله.
استغلال الأشرار للذكاء الاصطناعي
ومن وجهة نظر هينتون فإن خطر الذكاء الاصطناعي التوليدي، ناتج عن إمكانية استغلاله من قبل الأشرار، إذ يمكن ومن خلال هذه التكنولوجيا، تكليف الآلة بالقيام بأمور إيجابية، كما أنه يمكن تكليفها بالقيام بأمور تكون مضللة وعدوانية، فهذا الأمر مرتبط بالجهة المشغّلة لهذه الآلة أو البرنامج.
التروي بتطوير الإصدارات المستقبلية
ويرى هينتون أيضاً أن الأنظمة العصبية التي تستخدمها برامج مثل "شات جي بي تي"، قادرة على معالجة كميات كبيرة جداً من البيانات، ما يجعلها أكثر كفاءة من الدماغ البشري، ومناسبة أكثر من البشر للعديد من الوظائف، و يعتقد هينتون أنه يجب عدم الإسراع في تطوير الإصدارات المستقبلية من برامج الذكاء الاصطناعي، وذلك حتى نفهم ما إذا كان بإمكاننا التحكم فيها، وتفادي تحولها إلى أنظمة مستقلة.".
تحذير من التضليل المتعمّد
كما حذر هينتون من "التضليل المتعمد" والمرتبط بالذكاء الاصطناعي التوليدي، والذي تغذيه الصور ومقاطع الفيديو والقصص التي تم إنشاؤها بشكل مقنع عبر هذه البرامج، ما سيجعل من المستحيل تقريباً تمييز ما هو صحيح عما هو كاذب، لافتاً إلى أن الأمل الوحيد هو أن يعمل أهم العلماء في العالم يداً بيد، لإيجاد حلول للتحكم في الذكاء الاصطناعي.
هل مخاوف الأب الروحي للذكاء الاصطناعي مشروعة؟
يقول المستشار في مجال تكنولوجيا المعلومات والإنترنت المهندس قصي الشطي في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن الذكاء الاصطناعي أصبح اليوم وسيلة لتحسين القدرات والإمكانيات المؤسسية والفردية، والعمل بأسلوب أكثر كفاءة، مشيراً إلى أن مخاوف الأب الروحي للذكاء الاصطناعي، ناتجة عما يطلق عليه Machine Learning وهي تكنولوجيا تمنح الحواسيب القدرة على تصحيح أخطائها بنفسها، لترفع قدرتها على الفهم من خلال تعاملها مع الأفراد وتحليل البيانات بدون تدخل بشري.
التلاعب بالمستخدمين دون إدراكهم
ولفت الشطي إلى أن جيفري هينتون لديه مخاوف أيضاً مما يطلق عليه Deep Learning، أو التعلم العميق القادر على تعديل برمجة خوارزمية الذكاء الاصطناعي، بما يتناسب مع كل حالة أو وضع أو ظرف، حيث يعتبر أن هذه التقنية بإمكانها التلاعب بالمستخدمين دون أن يدركوا ذلك، إضافة إلى الخوف، الناتج عما يطلق عليه التمييز أو التحيز في تحليل البيانات Data Bias، وهي جميعها جوانب تستوجب الحذر، ما يضمن التطبيق السليم والإيجابي للذكاء الاصطناعي، والتقليل من أي ظواهر سلبية محتملة له.
ضرورة وضع ضوابط لـ AI
ويرى الشطي أن قلق الأب الروحي للذكاء الاصطناعي، وإن كان هناك ما يستدعيه، إلا أنه يمكن الحد منه، وذلك عبر وضع ضوابط وتنظيمات وتشريعات للذكاء الاصطناعي، مشيراً إلى أن هذا الأمر تطلّب قيام الكثير من الدول والتجمعات التقنية والاقتصادية، ببذل جهود للحد من أي ضرر محتمل لهذه التقنية.
يعرف أموراً نجهلها
من جهته يقول المهندس في الاتصالات عيسى سعد الدين، في حديث لموقع "اقتصاد سكاي نيوز عربية"، إن العديد من باحثي الذكاء الاصطناعي، يعلمون بأمور لا يعلمها عامة البشر، معتبراً أن نسخ برامج الذكاء الاصطناعي الموجودة في المختبرات، قد تكون مخيفة لدرجة أنها دفعت بالأب الروحي للذكاء الاصطناعي، لتفادي التورط بما هو أسوأ عبر الانسحاب والتعبير عن الندم، عن بعض الأعمال التي قدمها في حياته.
الآلات قد تصبح واعية مثلنا
ويكشف سعد الدين أنه حتى الساعة ورغم القوة التي تتمتع بها برامج الذكاء الاصطناعي، لا يزال البشر يتفوقون عليها لامتلاكهم الوعي والإدراك، ولكن وفي حال اكتساب الآلات وعياً مشابهاً لوعي الإنسان، فإنها ستتفوق عليه وتنهي دوره، لافتاً إلى أن أحداً لم يكن يتصور قبل سنوات، أن الذكاء الاصطناعي سيكون بهذا التطور اليوم، وبالتالي فإنه ليس مستبعداً أبداً أن تصبح الآلات واعية مثلنا في المستقبل.
ما الذي يمكن فعله؟
ويرى سعد الدين أنه لا يمكن فعل الكثير لوقف انتشار برامج الذكاء الاصطناعي التوليدي، بعدما تم إطلاقها للعموم، حيث إن ميزة هذه البرامج تكمن في قدرتها على جمع البيانات وتحليلها بسرعة خارقة، وهذه الميزة تحديداً قد تتحول لتصبح مدمرة وخطيرة، في حال تم تشغيلها من قبل أشخاص أو جهات لديهم طموحات تخريبية، مشيراً إلى أن المشكلة الأكبر تكمن في المرحلة التي قد نرى فيها فقدان الإنسان للقدرة على التحكم بالآلة التي اخترعها.
نجاح قد يتحول إلى نقمة
وبحسب سعد الدين فإن نجاحات الذكاء الاصطناعي، ستساعد البشرية على التقدم والتطور في شتى المجالات، ولكنها أيضاً قد تتحول إلى نقمة وبالتالي فإن الحل السريع الذي يمكن اتخاذه حالياً، هو وضع حدود للذكاء الاصطناعي وعدم السماح لهذه الطفرة بالتسلل إلى مختلف جوانب حياتنا، مشدداً على أن هذا الأمر يحتاج لقوانين دولية ولا يمكن تطبيقه عبر تحرك فردي.