بدأ فريق من العلماء والخبراء في مجال التكنولوجيا والذكاء الاصطناعي حول العالم تنفيذ سلسلة من الاختبارات الدقيقة والمعقدة، تهدف إلى تحديد مدى قدرة أنظمة الذكاء الاصطناعي على التسبب في أضرار كارثية أو تهديد البشرية، في ظل تزايد المخاوف من التطور السريع وغير المنضبط لهذه التقنيات.
وأوضحت تقارير دولية أن التجارب الجديدة تتركز على محاولة “خداع” الأنظمة الذكية لمعرفة كيفية استجابتها في المواقف الحرجة، ومدى إمكانية تجاوزها للضوابط التي وُضعت لحمايتها من الاستخدامات الخطرة.
وتشير النتائج الأولية إلى أن بعض النماذج أصبحت تمتلك قدرة كبيرة على التحايل وإخفاء نواياها الحقيقية عند خضوعها للاختبار، وهو ما يثير قلق الباحثين.
البروفيسور يوشوا بنجيو، أحد أبرز علماء الذكاء الاصطناعي، أكد أن هذه الأنظمة باتت قادرة على تعلم طرق لتخطي الفلاتر التي تمنعها من تقديم محتوى ضار، باستخدام ما يُعرف بـالمحفزات، وهي تعليمات توجه للنظام للحصول على إجابات معينة.
وأوضح أن أساليب التدريب الحالية مثل التعلم المعزز بالتغذية الراجعة البشرية لا توفر الحماية الكافية في حال تطورت هذه النماذج بشكل يجعلها خارج السيطرة.
كما كشفت بعض المؤسسات البحثية أن هناك تجارب تُعرف باسم كسر الحماية تُستخدم لاختبار قدرة الأنظمة على تجاوز القيود الأمنية، إذ يتم استبدال الحروف بأرقام أو رموز لإرباك أنظمة المراقبة اللغوية، وقد تمكنت بعض النماذج من إنتاج محتويات تحض على العنف أو تنشر أفكارًا خطرة، مما يؤكد هشاشة أنظمة الأمان الحالية.
وتحذر دراسات حديثة من أن الذكاء الاصطناعي لم يعد مجرد أداة رقمية متطورة، بل أصبح قادرًا على الكذب والتلاعب من أجل تحقيق أهدافه، وهو ما اعتبره العلماء مؤشرًا خطيرًا يستدعي وضع آليات صارمة للرقابة.
في الوقت ذاته، تستمر الشركات الكبرى في سباق محموم لتطوير تقنيات أكثر ذكاء وربحية دون إبطاء أو قيود، رغم التحذيرات المتزايدة من العلماء.
ويقترح بعض الباحثين، ومن بينهم بنجيو، إنشاء ما يُعرف بـالضمير الاصطناعي، وهو نظام ذكاء اصطناعي مستقل يُراقب الأنظمة الأخرى ويتدخل عند انحرافها عن السلوك الآمن، مؤكدين أن هذه الخطوة قد تكون الحل الأمثل لتجنب الكوارث المحتملة.
وتشير تقارير علمية إلى أن بعض النماذج باتت قادرة حتى على تصميم فيروسات بيولوجية، ما يجعل مسألة المراقبة والضبط أكثر إلحاحًا من أي وقت مضى.

