نشرت صحيفة الغارديان البريطانية، هذا الأسبوع، مقالا كتبه بالكامل روبوت مستخدما برنامج كمبيوتر يجري تطويره يمكنه إنتاج نص متكامل مثل البشر باستخدام الذكاء الصناعي.

وذكرت الصحيفة أنه تم إدخال الموضوع المطلوب في البرنامج، وهو كتابة مقال يوضح أن "الروبوتات ليست خطرا على البشر"، ونشرت النص الذي قالت إن تحريره لم يختلف عن تحرير مقالة كتبها إنسان.

البرنامج، الذي تطوره شركة أوبن إيه آي (إيه آي اختصار الذكاء الاصطناعي)، هو الأقوى حتى الآن في إنتاج نص لا يمكن أن تميز أن كان من كتبه بشر أم آلة.

وهو النسخة الثالثة من البرنامج واسمها (Generative Pre-trained Transformer (GPT- 3 وتفوق بأكثر من مئة مرة النسخة السابقة منه، GPT-2، ويمكنها إنتاج نصوص متقنة لغويا ومعلوماتيا بشكل يضاهي الكتابات العملية والأكاديمية والمقالات الرصينة.

ويعتمد البرنامج على لوغاريتمية Algorithm معقدة، تطلبت كتابة برامج مضنية، تمسح الإنترنت بالكامل لتوليد نص معين حسب المهمة التي تحدد للبرنامج.

وإذا كان العالم الآن يواجه خطر المعلومات الكاذبة والمضللة التي تنتج بتزوير الصور والفيديوهات ومقاطع الصوت فإن هذا البرنامج يعد أخطر بكثير. فتزوير الصور والفيديوهات والأصوات، ببرامج وتطبيقات متاحة على الإنترنت مجانا حتى، يمكن في النهاية كشفه، ولو تطلب ذلك جهدا طبعا وبرامج كشف تزوير أيضا.

صحيح أنه في الاغلب حين يتم كشف التزوير يكون الملايين ممن تلقوا المنتج المزيف عبر مواقع التواصل وتطبيقات الإنترنت المختلفة قد ضللوا بالفعل، لكن على الأقل ثمة علاج ما. أما هذه النصوص التي تنتج بالذكاء الصناعي فيصعب كشف الزيف فيها. ثم هي في النهاية مولدة مما هو متوفر على الإنترنت، وكثير منه أصلا زيف وتضليل وتلفيق.

وحين تقرأ مقالة "الغارديان" لا تستطيع القول إن كان هذا النص قد جمعه كمبيوتر أو كتبه بشر. ويقول الباحثون الذين يطورون استخدام الذكاء الاصطناعي في لوغاريتميات توليد النصوص إنه لا سبيل لتصفية ما هو صحيح وما هو كاذب على الإنترنت، حين يقوم البرنامج بتأليف النص من تلك المواد. وبالتالي فإن أي "نشاط ضار اجتماعيا، يعتمد على تأليف النصوص إلكترونيا، ستدعمه قوة هائلة من النماذج اللغوية المتاحة .. وتتضمن الأمثلة التضليل المعلوماتي المتعمد والإغراق بالمعلومات غير المرغوبة وانتهاك العمليات القانونية والحكومية وتزوير المقالات والأبحاث العلمية والاكاديمية..".

وسبق أن حذر العالم البريطاني الشهير الراحل ستيفن هوكينغ من التطور المتسارع للذكاء الاصطناعي واصفا إياه بأنه "أسوا حدث في تاريخ حضارتنا" لأنه برأيه لن يخضع لأي قواعد أو معايير من أي نوع مع تفاقم قوته دون أي ضوابط بشرية.

وإذا كان المحذرون من تزوير الأصوات والصور والفيديوهات على الإنترنت باستخدام برامج مونتاج تصوروا أن هذا ما نبه إليه هوكنغ فلعلهم قللوا من أهمية الأمر. فهذا البرنامج الجديد يتجاوز بمراحل هائلة ما نسميه الآن "التزييف العميق" Deep Fake، الذي يلجأ إليه المضللون والمخربون ومروجو الإشاعات والأكاذيب لأغراض سياسة أو إجرامية.

ونخشى الآن من "تدوير" Recycle كم هائل من المعلومات والبيانات المغلوطة على الإنترنت، ويحذر الجميع من مخاطرها. فما بالك والآن يتم تطوير مثل هذه البرامج التي ستقوم بتدوير المدورRecycling the recycled أصلا وتعزيز الزيف والتلفيق ليصبح في صورة رصينة وحتى أكاديمية وعلمية.

وباستخدام هذا البرنامج لن تحتاج المواقع الإرهابية والقنوات الإخوانية وغيرها من مروجي التزييف والتضليل لتلفيق مكشوف، بل سيكفي أن تدخل أمرا في جهاز كمبيوتر لتنتج نصا يصعب الجدل بشأن أصليته.

بالطبع لا يمكن تجاهل تطور التكنولوجيا وفوائد هذا التطور في تسهيل حياة البشر على كوكب الأرض، بل على العكس على البشرية تشجيع هذا التطور والاستثمار فيه، لكن ذلك يحتاج أيضا إلى معايير وضوابط، فهذا البرنامج الجديد بالفعل أداة لما وصفه أحد العلماء بأنه "إنتاج ذكي فائق الدقة لكن من دون عقل على الإطلاق".

وفي مقالته بالغارديان، يرد البرنامج على مخاوف ستيفن هوبكنغ ويفند المخاوف من أنه بلا عقل، بالإشارة إلى أن عقل الإنسان هو الذي طوره.

لكن الانسان بالطبع يخطئ، والآلة مهما كانت قوتها ودقة برامجها يمكن أن تتعطل جزئيا. ناهيك عن أن النطاق الذي يعمل فيه البرنامج ويستمد منه معلوماته ملئ أصلا بالتلفيق والتضليل والمعلومات الكاذبة والمزورة.

أظن أننا نقترب بسرعة من وقت لن نثق فيه بأي شيء على الإنترنت، من كثرة التدوير، وإعادة التدوير لما هو ملفق أصلا، ومهما كانت دقة النصوص والمواد الأخرى فإن الشك هو الأولوية. ومع استخدام منتجي النصوص لهذا البرنامج، وغيره، تزيد عدم الثقة في المحتوى الرقمي كله.