يثير التطور المحتمل لدمج الذكاء الاصطناعي في العمليات العسكرية وأنظمة التسليح مخاوف واسعة.

ففي الوقت الذي تقدم فيه تطبيقات الذكاء الاصطناعي فرصاً واعدة في سياق دعم اتخاذ القرار والأمن السيبراني والخدمات اللوجيستية وإدارة سلاسل التوريد، فإنها في الوقت نفسه تعكس مجموعة من المشكلات المختلفة، بدءاً من قضايا الأمن والسلامة ووصولاً إلى المشكلات الأخلاقية المرتبطة بالتحيز ، مروراً في الوقت نفسه بإزكاء سباق التسلح الدولي.

دمج الذكاء الاصطناعي في أنظمة الأسلحة أو ما يعرف بـ "الروبوتات القاتلة"، كان محل اهتمام واسع في الآونة الأخيرة، ضمن مجموعة القضايا التي يثيرها هذا التطور الواسع للتطبيقات الذكية، ودخولها في المجالات كافة بما في ذلك في مجالات الدفاع والأمن والتسليح، وبما عزز من دعوات تنظيم الاستخدام.

آخر تلك الدعوات أطلقتها النمسا، والتي دعت مطلع الأسبوع إلى بذل جهود جديدة لتنظيم استخدام الذكاء الاصطناعي في أنظمة الأسلحة الذي يمكن أن يؤدي لظهور ما يسمى "الروبوتات القاتلة"، وذلك خلال مؤتمر استضافته فيينا بهدف إحياء المناقشات المتعثرة إلى حد كبير حول تلك القضية المثيرة للجدل.

أخبار ذات صلة

نصائح فعالة لزيادة الدخل.. استثمر وقتك ومواردك بشكل ذكي
فيديو لمتحدثة باسم خارجية أوكرانيا مّولدة بالذكاء الاصطناعي
  • مع التقدم السريع في تكنولوجيا الذكاء الاصطناعي، فإن أنظمة الأسلحة التي يمكنها القتل دون تدخل بشري تزداد ظهورا ووضوحا.
  • يثير ذلك تحديات أخلاقية وقانونية تقول معظم البلدان إنها تحتاج إلى التصدي لها في أقرب وقت ممكن.
  • وزير الخارجية النمساوي ألكسندر شالنبرج، قال خلال المؤتمر الذي شاركت فيه منظمات غير حكومية ودولية فضلا عن مبعوثين من 143 دولة: "لا يمكننا أن ندع هذه اللحظة تفوتنا دون اتخاذ إجراء. الآن هو الوقت المناسب للاتفاق على قواعد ومعايير دولية لضمان السيطرة البشرية".
  • تحت عنوان "الإنسانية على مفترق الطرق.. أنظمة الأسلحة المستقلة وتحديات التنظيم"، قال الوزير: "علينا أن نضمن على الأقل أن القرارات المصيرية المتعلقة بمن يعيش ومن يموت تبقى في يد البشر وليس الآلات".

ويشار إلى أن سنوات من المناقشات في الأمم المتحدة كانت قد مرت دون تحقيق نتائج ملموسة، وقال كثير من المشاركين في المؤتمر الذي استمر يومين في العاصمة النمساوية إن الوقت لاتخاذ إجراءات ينفد بسرعة، بحسب ما أوردته رويترز.

  • يتم استخدام الذكاء الاصطناعي بالفعل في ساحة المعركة.
  • يقول دبلوماسيون إن الطائرات المسيرة في أوكرانيا مصممة لمواصلة طريقها إلى هدفها حتى عندما يتم قطع الاتصال بينها وبين مشغلها باستخدام تقنيات التشويش.
  • وقالت الولايات المتحدة هذا الشهر إنها تدرس تقريرا إعلاميا يفيد بأن الجيش الإسرائيلي يستخدم الذكاء الاصطناعي للمساعدة في تحديد أهداف القصف في غزة.

الدمج المحتمل للذكاء الاصطناعي

وفي هذا السياق، خصَّ المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، أحمد بانافع، موقع "اقتصاد سكاي نيوز عربية"، ببحث حديث أجراه حول "الدمج المحتمل للذكاء الاصطناعي في العمليات العسكرية".

في السنوات الأخيرة، عزز التقدم السريع في الذكاء الاصطناعي الإثارة والخوف في مختلف القطاعات، ولم يكن مجال الحرب استثناءً لذلك. على اعتبار أن الدمج المحتمل للذكاء الاصطناعي في العمليات العسكرية يَعِد بقدرات غير مسبوقة، ولكنه يثير أيضاً مخاوف أخلاقية واستراتيجية عميقة.

فبينما تتسابق الدول في جميع أنحاء العالم لتسخير قوة الذكاء الاصطناعي، فإن الآثار المترتبة على مستقبل الحرب بعيدة المدى ومعقدة.

بحسب بانافع، يجادل أنصار الذكاء الاصطناعي في الحرب بأن تكامله يمكن أن يحدث ثورة في العمليات العسكرية، مما يؤدي إلى اتخاذ قرارات أكثر كفاءة وفعالية، وتعزيز الوعي الظرفي، وتحسين الاستراتيجيات القتالية.

ورصد ضمن بحثه بعض الفوائد الرئيسية المحتملة لذلك الدمج، من بينها:

  1. الأنظمة الذكية ودعم القرار: يمكن لخوارزميات الذكاء الاصطناعي معالجة كميات هائلة من البيانات من مصادر متعددة، مثل التقارير الاستخباراتية وموجزات أجهزة الاستشعار والبيانات التاريخية، لتوفير تحليل وتوصيات في الوقت الفعلي للقادة البشريين. وهذا يمكن أن يسهل اتخاذ قرارات أكثر استنارة وفي الوقت المناسب، لا سيما في المواقف القتالية سريعة التطور.
  2. أنظمة الأسلحة المستقلة (الروبوتات القاتلة): ربما يكون التطبيق الأكثر إثارة للجدل للذكاء الاصطناعي في الحرب هو تطوير أنظمة الأسلحة المستقلة، والتي يشار إليها غالبًا باسم "الروبوتات القاتلة". يمكن لهذه الأنظمة تحديد الأهداف وتتبعها والاشتباك معها دون تدخل بشري، مما يؤدي نظريًا إلى تحسين أوقات رد الفعل وتقليل المخاطر التي يتعرض لها الجنود البشر.
  3. الأمن السيبراني والحرب الإلكترونية: يمكن أن يلعب الذكاء الاصطناعي دورًا حاسمًا في الأمن السيبراني والحرب الإلكترونية، واكتشاف التهديدات السيبرانية والاستجابة لها، وتحديد نقاط الضعف في أنظمة العدو، وتعزيز حماية البنية التحتية الحيوية وشبكات الاتصالات.
  4. الخدمات اللوجستية وإدارة سلسلة التوريد: يمكن للأنظمة التي تعمل بالذكاء الاصطناعي تحسين حركة القوات والمعدات والإمدادات، مما يؤدي إلى عمليات لوجستية أكثر كفاءة وتقليل الضغط على الموارد البشرية.

الاهتمامات الأخلاقية والاستراتيجية

وعلى الرغم من المزايا المحتملة، فإن دمج الذكاء الاصطناعي في الحرب يثير مخاوف أخلاقية واستراتيجية كبيرة يجب دراستها بعناية، بحسب ما رصده البحث، على النحو التالي:

  1. المساءلة والمسؤولية: عندما تصبح أنظمة الذكاء الاصطناعي أكثر استقلالية، تنشأ أسئلة حول من المسؤول في نهاية المطاف عن أفعالها، لا سيما في الحالات التي تحدث فيها خسائر في صفوف المدنيين أو تحدث عواقب غير مقصودة. تصبح هذه المشكلة أكثر تعقيدًا عندما يتم تصميم أنظمة الذكاء الاصطناعي لاتخاذ القرارات دون إشراف بشري.
  2. التحيز وعدم القدرة على التنبؤ: يتم تدريب خوارزميات الذكاء الاصطناعي على البيانات، والتي يمكن أن تكون متحيزة أو غير كاملة، مما قد يؤدي إلى نتائج متحيزة أو غير متوقعة. وفي سياق الحرب، قد تؤدي مثل هذه التحيزات إلى عواقب مدمرة، وقد يؤدي عدم القدرة على التنبؤ بأنظمة الذكاء الاصطناعي إلى تقويض الثقة والتخطيط الاستراتيجي.
  3. الانتشار وسباق التسلح: تطوير أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن يؤدي إلى سباق تسلح جديد، حيث تسعى الدول إلى الحصول على ميزة تنافسية. وقد يؤدي ذلك إلى زعزعة استقرار الأمن الإقليمي والعالمي، وزيادة خطر الصراعات، وتحويل الموارد من مجالات أساسية أخرى.
  4. السيطرة البشرية والتحكم البشري الهادف: هناك جدل مستمر حول مستوى السيطرة البشرية التي ينبغي الحفاظ عليها على أنظمة الذكاء الاصطناعي في الحرب. وبينما يجادل البعض بالحفاظ على سيطرة بشرية ذات معنى، يعتقد البعض الآخر بأن الاستقلالية الكاملة ضرورية لأنظمة الذكاء الاصطناعي لتكون فعالة في المواقف القتالية.
  5. الأطر القانونية والأخلاقية: قد تحتاج الأطر القانونية والأخلاقية الحالية التي تحكم الحرب إلى التحديث لتأخذ في الاعتبار التحديات الفريدة التي تفرضها أنظمة الذكاء الاصطناعي. ويجب النظر بعناية في قضايا مثل الامتثال للقانون الإنساني الدولي، ومبادئ التمييز والتناسب، وحماية السكان المدنيين.

أخبار ذات صلة

كيف تمكن الذكاء الاصطناعي من ابتكار قهوة بنكهة غير مسبوقة؟
أبل.. الأذواق والذكاء الاصطناعي يهددان العملاق الأميركي

سباق التسلح العالمي بالذكاء الاصطناعي

ومع تزايد وضوح الفوائد والمخاطر المحتملة للذكاء الاصطناعي في الحروب، تكثف الدول في جميع أنحاء العالم جهودها لتطوير تقنيات الذكاء الاصطناعي ودمجها في قدراتها العسكرية، وهو ما يشير إليه المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، في معرض حديثه مع موقع "اقتصاد سكاي نيوز عربية"، موضحاً أن سباق التسلح العالمي للذكاء الاصطناعي له آثار كبيرة على مستقبل الحرب والأمن الدولي.

ويضيف: "تستثمر الولايات المتحدة والصين وروسيا وعديد من القوى الكبرى الأخرى بكثافة في أبحاث الذكاء الاصطناعي وتطويره للتطبيقات العسكرية. أنشأت وزارة الدفاع الأميركية مبادرات مختلفة، مثل مركز الذكاء الاصطناعي المشترك (JAIC) ووكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA)، لتسريع دمج الذكاء الاصطناعي في عملياتها".

ومن ناحية أخرى، جعلت الصين من الذكاء الاصطناعي أولوية وطنية وتسعى بنشاط إلى تطوير أنظمة الأسلحة المستقلة، فضلاً عن جمع المعلومات الاستخبارية المدعومة بالذكاء الاصطناعي وقدرات دعم القرار. وقد عبرت روسيا أيضًا عن عزمها الاستفادة من الذكاء الاصطناعي في الحرب، مع التركيز بشكل خاص على الأمن السيبراني والحرب الإلكترونية.

أثارت هذه المنافسة العالمية لتسخير قوة الذكاء الاصطناعي للأغراض العسكرية مخاوف بشأن احتمال زعزعة استقرار المشهد الأمني الدولي. وبينما تتسابق الدول للحصول على ميزة تكنولوجية، يزداد خطر سوء التقدير والتصعيد غير المقصود، مما قد يؤدي إلى زيادة التوترات والصراعات.

النقاش حول التنظيم والتعاون الدولي

ويشير بانافع إلى أنه استجابةً للمخاوف المحيطة بدمج الذكاء الاصطناعي في الحرب، كانت هناك دعوات للتعاون الدولي وإنشاء أطر تنظيمية قوية للتحكم في تطوير واستخدام تقنيات الذكاء الاصطناعي في السياقات العسكرية. وقد دعت منظمات مثل الأمم المتحدة ومختلف المنظمات غير الحكومية إلى اعتماد ضوابط ملزمة قانونًا من شأنها أن تحظر أو تنظم بشكل صارم تطوير واستخدام بعض أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، لا سيما تلك القادرة على اختيار الأهداف والاشتباك معها دون تدخل بشري ذي معنى.

ومع ذلك، فقد ثبت أن تحقيق الإجماع العالمي على مثل هذه اللوائح أمر صعب، ذلك أن الدول لديها مصالح متباينة ومستويات متفاوتة من التقدم التكنولوجي. ويرى البعض أن الحظر الكامل على أنظمة الأسلحة المستقلة أمر غير واقعي، وأن الجهود يجب أن تركز بدلاً من ذلك على ضمان السيطرة البشرية الهادفة ووضع مبادئ توجيهية واضحة لتطويرها ونشرها.

بالإضافة إلى ذلك، أثيرت مخاوف بشأن إمكانية استخدام التقنيات ذات الاستخدام المزدوج، حيث يمكن إعادة استخدام أنظمة الذكاء الاصطناعي التي تم تطويرها للأغراض المدنية للتطبيقات العسكرية، مما يزيد من تعقيد الجهود التنظيمية.

وبحسب المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، فإنه مع استمرار تطور دمج الذكاء الاصطناعي في الحرب، فمن الواضح أن التداعيات ستكون بعيدة المدى وعميقة. ولا يمكن تجاهل الفوائد المحتملة لتعزيز عملية صنع القرار، وتحسين الوعي الظرفي، وزيادة كفاءة العمليات.

وأضاف: "ومع ذلك، فإن المخاوف الأخلاقية والاستراتيجية المحيطة بالمساءلة، والتحيز، والانتشار، والأطر القانونية يجب معالجتها من خلال التعاون الدولي القوي والأطر التنظيمية".

ويثير سباق التسلح العالمي للذكاء الاصطناعي أيضًا تساؤلات حول العواقب طويلة الأجل المترتبة على التطوير ونشر أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي دون رادع. وبينما يجادل البعض بأن مثل هذه الأنظمة يمكن أن تقلل في نهاية المطاف من الخسائر البشرية والتأثير العام للحرب، يحذر آخرون من احتمال التصعيد غير المقصود وتآكل السيطرة البشرية على قرار الانخراط في نزاع مسلح.

وقال بانافع إنه في نهاية المطاف، سيتم تشكيل مستقبل الذكاء الاصطناعي والحرب من خلال الإجراءات الجماعية للدول وصانعي السياسات والباحثين ومنظمات المجتمع المدني. ومن الضروري اتباع نهج متوازن، يسخر الإمكانات التحويلية للذكاء الاصطناعي مع ضمان التزام تطويره واستخدامه في الحرب بالمبادئ الأخلاقية والقانون الدولي والحفاظ على الكرامة الإنسانية.

"وبينما يتصارع العالم مع تعقيدات هذه القضية، سيكون الحوار المستمر والشفافية والالتزام بالابتكار المسؤول أمرًا حاسمًا في التعامل مع العلاقة المعقدة بين الذكاء الاصطناعي والحرب، وفي تشكيل مستقبل تعمل فيه التطورات التكنولوجية على تعزيز الأمن والاستقرار العالميين"، وفق بانافع.

أخبار ذات صلة

مسؤول أميركي يدعو بكين وموسكو لسيطرة البشر على السلاح النووي
"مايكروسوفت" تنشئ بنية تحتية للذكاء الاصطناعي في تايلاند

إجراءات مطلوبة

وكانت رئيسة اللجنة الدولية للصليب الأحمر، ميريانا سبولجاريك، قد ذكرت خلال حلقة نقاشية في المؤتمر الذي انعقد أخيراً في النمسا إنه "من المهم للغاية أن نتخذ إجراءات على وجه السرعة"، مضيفة:  "ما نشهده اليوم في سياقات العنف المختلفة هو إخفاقات أخلاقية أمام المجتمع الدولي. ولا نريد أن نرى مثل هذه الإخفاقات تتفاقم من خلال تحويل مسؤولية العنف والسيطرة عليه إلى الآلات والخوارزميات".

وبحسب جان تالين وهو مطور برمجيات ومستثمر في مجال التكنولوجيا: "لقد رأينا بالفعل أن الذكاء الاصطناعي يرتكب أخطاء سواء كبيرة أو صغيرة، بدءا من الإخفاق في التمييز بين كرة القدم ورأس حَكَم أصلع، إلى وفيات المارة على الطرق بسبب السيارات ذاتية القيادة غير القادرة على التعرف على الأشخاص الذين يسيرون خارج الممرات المخصصة لهم". وشدد على أنه "يجب أن نكون حذرين للغاية بشأن الاعتماد على دقة هذه الأنظمة، سواء في القطاع العسكري أو المدني".