تحقيق صادم: روبوتات الذكاء الاصطناعي توجه المستخدمين لكازينوهات غير قانونية
كشف تحقيق صحفي مشترك أجرته صحيفة "الغارديان" ومنظمة "Investigate Europe" عن نتائج مقلقة، حيث تبين أن بعض روبوتات الدردشة المتقدمة المدعومة بالذكاء الاصطناعي، مثل ChatGPT و Gemini، تقوم أحيانًا بتوجيه المستخدمين إلى مواقع قمار إلكتروني غير قانونية تعمل خارج نطاق الرقابة التنظيمية.
الاختبارات التي شملت نماذج الذكاء الاصطناعي من شركات كبرى مثل OpenAI، جوجل، مايكروسوفت، ميتا، بالإضافة إلى روبوت Grok، أظهرت أن طرح أسئلة حول المراهنات عبر الإنترنت أدى إلى تقديم قوائم بمواقع قمار غير مرخصة، مع تزويد المستخدمين بمعلومات حول كيفية الوصول إليها واستخدامها، مما يثير تساؤلات جدية حول سلامة هذه التقنيات.
الأمر الأكثر إثارة للقلق هو أن بعض هذه الروبوتات قدمت إرشادات صريحة حول كيفية التحايل على أنظمة الحماية المصممة لتعزيز المقامرة المسؤولة. على سبيل المثال، في المملكة المتحدة، حيث يوجد نظام "GamStop" لحظر المقامرة الذاتية، اقترحت بعض أدوات الذكاء الاصطناعي البحث عن كازينوهات غير مرتبطة بهذا النظام، مشيرة إلى ميزات جذابة مثل المكافآت الضخمة وسرعة سحب الأرباح أو دعم العملات الرقمية.
ردت الشركات المطورة لهذه النماذج بالتأكيد على جهودها المستمرة لتحسين إجراءات الأمان. وأوضحت OpenAI أن ChatGPT مصمم لرفض الطلبات التي تسهل الأنشطة غير القانونية، بينما أكدت مايكروسوفت أن مساعدها Copilot يضم طبقات حماية متعددة لمنع التوصيات الضارة.
تأتي هذه النتائج في وقت يتزايد فيه التدقيق التنظيمي على أنظمة الذكاء الاصطناعي التوليدي، خاصة فيما يتعلق بالموضوعات الحساسة مثل الإدمان والأنشطة غير المشروعة. وقد حذر المنظمون في المملكة المتحدة من ضرورة أن تبذل المنصات الرقمية، بما فيها خدمات الذكاء الاصطناعي، جهودًا أكبر لمنع انتشار المحتوى الضار وفقًا لقانون السلامة على الإنترنت.







