حذرت منظمة تراقب المحتوى على الإنترنت من خطورة استعمال الذكاء الاصطناعي في إنتاج مواد بصرية تبدو واقعية للغاية تظهر أوضاعا جنسية مزعومة على الأطفال.
وقالت منظمة The Internet Watch Foundation (IWF) إنها عثرت بالفعل على صور واقعية بشكل مذهل، أنتجها الذكاء الاصطناعي، بحيث لا يتمكن كثيرون من التمييز بينها وبين الصور الحقيقية، وفق ما ذكرت شبكة "سكاي نيوز" البريطانية، الثلاثاء.
وأضافت أنها حققت في صفحات على الإنترنت، جرى الإبلاغ عن بعضها عن طريق مستخدمين، أظهرت صورا لأطفال لا تتجاوز أعمارهم 3 سنوات.
وذكرت أن هذا الأمر يضع الأطفال الحقيقيين في حالة من الخطر.
وتعرّف منظمة (IWF) نفسها بأنها منظمة معنية بإيجاد وحذف المحتوى على الإنترنت الذي يظهر الانتهاكات الجنسية للأطفال.
ودعت الرئيسة التنفيذية للمنظمة، سوزي هارغريفز، رئيس الوزراء البريطاني، ريشي سوناك، للتعامل مع القضية باعتبارها ذات أولوية قصوى، عندما تستضيف بريطانيا قمة عالمية عن الذكاء الاصطناعي في وقت لاحق من العام الجاري.
وقالت إن أعداد هذه الصور ليست بالكبيرة في الوقت الراهن، لكن من الواضح أن هناك إمكانية أمام المجرمين لإنتاج صور تظهر أطفال في أوضاع جنسية تنتهك حقوقهم.
واعتبرت أن هذا الأمر سيكون مدمرا بالنسبة إلى أمن الإنترنت وأمن الأطفال على الشبكة.
وإنتاج صور تظهر الأطفال بأوضاع جنسية مخلة أمر محظور في القانون البريطاني.
وتقول المنظمة إن تكنولوجيا الذكاء الاصطناعي في هذا المجال تتطور بشكل متسارع وتسهل الوصول إليها، مما يعني أن التعامل مع المشكلة سيكون صعبا على القانون.
وتقول الوكالة الوطنية لمكافحة الجريمة في بريطانيا إن هذا الخطر متزايد، مشددة على أنها تأخذ الأمر بجدية تامة.