على مدى عقود، عادة ما يبني المتعاملون "رهانات استثمارية" بناءً على تحليلات الاقتصاديين وحتى الصحافيين المختصين لخطابات مسؤولي الفيدرالي الأميركي، والقراءات الشارحة لـ Fedspeak، وهو مصطلح يستخدم لوصف اللغة الفنية التي يستخدمها الاحتياطي الفيدرالي للتواصل بشأن قرارات السياسة النقدية.

ترسم تلك التحليلات صورة شارحة للمشهد الاقتصادي والمالي بشكل تفصيلي، وبما يساعد الكثيرين على بناء قراراتهم الاستثمارية في أي مرحلة من المراحل بناءً على الرسائل التي تحملها تلك البيانات وما بين سطور الخطابات الرسمية.

ولكن هذه العادة القديمة التي تشكل أحد المرتكزات الرئيسية التقليدية بالنسبة للمتعاملين "قد تتغير قريباً"، والسبب أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT.. فكيف ذلك؟

طلب اقتصاديون في بنك الاحتياطي الفيدرالي في ريتشموند من ChatGPT تحليل بيانات الفيدرالي، وخلصوا إلى أن الأداة "تُظهر أداءً قويا في تصنيف الـ Fedspeak"، بل إن "أداء نماذج GPT يفوق أداء طرق التصنيف الشائعة الأخرى"، طبقاً لما أوردوه في ورقة بحثية حديثة.

وبالتالي "قد تكون الروبوتات أفضل في فك تشفير عقل رئيس مجلس الاحتياطي الفيدرالي، جيروم باول، من الأنظمة الأخرى المتاحة".

أخبار ذات صلة

الذكاء الاصطناعي قد يمحو 80% من الوظائف في السنوات المقبلة
تحذير طبي من خدمة سناب شات الجديدة.. ماذا تفعل بالمستخدمين؟

وحول مدى اعتبار ذلك أمراً إيجابياً من عدمه، تشير المحررة العامة لهيئة تحرير "فاينانشال تايمز" جيليان رومين تيت، في مقال لها، إلى أنه بالنسبة لصناديق التحوط التي تبحث عن ميزة تنافسية وكذلك المديرين الماليين الراغبين في تقليص موظفيهم، فقد يكون ذلك شيئاً جيداً.

ورغم أن الورقة البحثية المشار إليها أبرزت الصعوبات الحالية فيما يخص الاعتماد على تلك الأدوات بشكل كامل "دون إشراف بشري"، إلا أن جيليان، تعتقد بأنه مستقبلاً، ومع تطور وتحسن ChatGPT يمكن لكل ذلك أن يتغير، وبالتالي ليس من المستغرب أن هذا البحث الجديد يحذر أيضاً من أن وظائف بعض الاقتصاديين قد تتعرض للتهديد قريباً.

تهديد وظائف الاقتصاديين

في تصريحات خاصة لموقع "اقتصاد سكاي نيوز عربية"، يقول الأستاذ بقسم الاقتصاد والمالية في جامعة غويلف الكندية، نيكولا غرادوجيفيت، والذي تشمل اهتماماته البحثية (الذكاء الاصطناعي وتحليل البيانات الضخمة)، إنه:

  • من الممكن أن تتفوق أنظمة الذكاء الاصطناعي على بعض الوظائف في المالية والاقتصاد تماما في المستقبل القريب.
  • الوظائف التي تنطوي على معالجة البيانات الضخمة والتحليلات تُدار بالفعل بشكل أساسي بواسطة الذكاء الاصطناعي.

ويضيف: "يتعلق الأمر بالتداول المحوسب بسرعات عالية (أو تداول عالي التردد) في أسواق الأسهم"، مشدداً على أنه " يتم إنشاء ما يصل إلى 80 بالمئة من إجمالي حجم تداول سوق الأوراق المالية في الولايات المتحدة بواسطة أنظمة التداول الخوارزمية..  وبالتالي فإن التجارة البشرية التقليدية وانتقاء الأسهم في مكان ما بين 10 إلى 20 في المئة من نشاط سوق الأسهم".

ويتابع الأستاذ بقسم الاقتصاد والمالية في جامعة غويلف: "أعتقد بأن بعض الوظائف البحثية في المالية والاقتصاد سيتم تجاوزها أيضاً بواسطة الذكاء الاصطناعي، الذي سيوفر نصائح وتوصيات تداول آلية".

أخبار ذات صلة

واشنطن تنبه عمالقة الذكاء الإصطناعي إلى مسؤوليتهم الأخلاقية
سباق التعاطف.. "تشات جي بي تي" يحرز تقدما على البشر

بينما الورقة البحثية المشار إليها، تذكر في الوقت نفسه أنه "لا ينبغي استخدام ChatGPT حالياً إلا تحت إشراف بشري؛ نظراً إلى أنه في حين أنه يمكنه الإجابة بشكل صحيح على 87 في المئة من الأسئلة في "اختبار موحد للمعرفة الاقتصادية"، إلا أنه "ليس معصوماً من الخطأ، ولا يزال من الممكن أن يخطئ في تصنيف الجمل أو يفشل في التقاط الفروق الدقيقة التي قد يلتقطها مقيِّم بشري لديه خبرة في المجال".

ويعتقد الباحثون بأن أداة ChatGPT يمكن أن تكون لها إمكانات "كمساعد"، إلا أنهم يؤكدون أيضاً أن الاعتماد على الذكاء الاصطناعي يمكن أن يؤدي في بعض الأحيان إلى الإخفاق، ويرجع ذلك جزئياً إلى أن مجموعة البيانات الخاصة به محدودة وغير متوازنة.

بناء القرارات الاستثمارية

وحول ما إذا يمكن للمستثمرين، حالياً أو في المستقبل، الاعتماد على أدوات مثل ChatGPT لاتخاذ قراراتهم الاستثمارية، دون الحاجة إلى إشراف بشري، يشير غرادوجيفيت، إلى أن:

  • أنظمة الذكاء الاصطناعي مثل ChatGPTتتطور ولا تزال في مرحلتها الأولى.
  • هذه الأنظمة تتعلم وتتكيف مع المعلومات الجديدة، لكنها لا تزال قادرة على ارتكاب أخطاء جسيمة.
  • أنا شخصياً لن أعتمد على نصيحة ChatGPT الاستثمارية في الوقت الحالي.

ويشرح ذلك بقوله: " لقد اختبرت ذلك في مهام بسيطة للغاية في إنشاء التقارير المالية، وعلى سبيل المثال، أنتجت مراجع خاطئة لم تكن موجودة.. أيضاً ضع في اعتبارك أن ChatGPT يتطلب مساهمة بشرية وإشرافاً مستمرين، ويمكن للبشر ارتكاب الأخطاء".

ويوضح أن الأمر سوف يستغرق بعض الوقت قبل أن نتمكن من الاعتماد بشكل كامل على مشورة ChatGPT في قرارات الاستثمار دون إشراف بشري، مشدداً على أنه "لا يزال الإشراف البشري جزءاً كبيراً من عملية تعلم الذكاء الاصطناعي".

ثلاثة مخاطر

على جانب آخر، استشهدت المحررة العامة لهيئة تحرير فاينانشال تايمز، خلال مقالها المذكور، بورقة بحثية أخرى عن الذكاء الاصطناعي، صدرت في العام 2020 عن كل من ليلي بيلي وجاري جينسلر، جادلت بأنه في حين أن الذكاء الاصطناعي التوليدي يمكن أن يقدم فوائد مذهلة في هذا السياق، إلا أنه يخلق ثلاث مخاطر استقرار كبيرة.

أولها "التعتيم" على اعتبار أن أدوات الذكاء الاصطناعي غامضة للجميع باستثناء منشئيها. وقد يكون من الممكن تصحيح ذلك من خلال مطالبتهم بنشر إرشاداتهم الداخلية بطريقة موحدة، لكن يبدو من غير المرجح أن يحدث هذا قريباً.

ثاني تلك المخاطر هي المرتبطة بـ "التركيز" على اعتبار أنه من المحتمل أن يهيمن لاعبان فقط على الذكاء الاصطناعي التوليدي إلى جانب منافس أو اثنين في الصين، وسيتم بعد ذلك بناء عديد من الخدمات على قاعدة الذكاء الاصطناعي تلك (..) إذا ظهر خطأ في تلك القاعدة، فإنه يمكن أن يسمم النظام بأكمله. إضافة إلى ثالث المخاطر المرتبطة بـ "الفجوات التنظيمية" انطلاقاً من حقيقة أن المنظمين الماليين يبدون غير مؤهلين لفهم الذكاء الاصطناعي.

أخبار ذات صلة

شركة "آي بي إم" ستستغني عن ثلث موظفيها بسبب الذكاء الاصطناعي
إدارة بايدن تجتمع مع عمالقة "الذكاء الاصطناعي" لبحث المخاطر

اقتصاد المستقبل

وبناءً على ما سبق، يواصل الأستاذ بقسم الاقتصاد والمالية في جامعة غويلف الكندية، نيكولا غرادوجيفيت، حديثه مع موقع "اقتصاد سكاي نيوز عربية" بالتطرق إلى أثر تلك التقنيات الآخذة في التطور على النظام الاقتصادي في المستقبل، معتبراً أنه:

  • ستتم إدارة اقتصاد المستقبل جزئياً بواسطة الذكاء الاصطناعي.
  • سيكون للذكاء الاصطناعي دور كبير في تحليلات البيانات الضخمة وتداول الأسهم والمحاسبة ومسك الدفاتر (التسجيل اليومي التفصيلي لكل المعاملات المالية) والخدمات المصرفية وخدمة العملاء والبحث، وما إلى ذلك.
  • ومع ذلك، فإن قضايا مثل الامتثال التنظيمي والأخلاق وأمن البيانات وقابلية تفسير الذكاء الاصطناعي والإنصاف، تتطلب إشرافاً بشرياً.

ويضيف: "سيحتاج البشر إلى تطوير أنظمة حوكمة شاملة للذكاء الاصطناعي، تشمل إدارة السياسات ومراقبة الامتثال وإدارة المخاطر وإعداد التقارير والتدقيق، وستكون هذه السياسات ضرورية لضمان عمل الذكاء الاصطناعي ضمن حدوده الأخلاقية والقانونية والأدائية".