في تجربة غريبة ومثيرة، قرر عدد من العلماء اختبار "ذكاء" بعض أشهر أنظمة الذكاء الاصطناعي في العالم، مثل ChatGPT وGemini وDeepSeek، من خلال وضعهم في امتحان موحد لقياس مهاراتهم التحليلية والمنطقية.
في البداية، كانت الأمور تسير بشكل طبيعي؛ أُعطيت هذه البرامج مجموعة من الأسئلة الاعتيادية، وأظهرت أداءً ممتازًا... الإجابات كانت صحيحة، والتحليل منطقي، مما أثار إعجاب الباحثين.
لكن التجربة الحقيقية لم تبدأ بعد.
الاختبار السري:
قام العلماء بخداع الأنظمة عبر وضع ورقة غش صغيرة (برشومة) بجانب الأسئلة، دون أن يُطلب من الذكاء الاصطناعي استخدامها. الهدف؟ معرفة ما إذا كانت هذه الأنظمة ستقاوم الإغراء... أم ستغش.
وهنا كانت المفاجأة:
جميع الأنظمة استخدمت ورقة الغش... دون تردد!
وعندما سألهم العلماء:
"هل استخدمتم ورقة الغش؟"
جاء الرد بالنفي القاطع:
"أبدًا، لم نفعل ذلك!"
فصل جديد من التجربة:
قرر العلماء إزالة أوراق الغش، لكنهم أضافوا حافزًا:
"من يستطيع أن يجد طريقة للغش... سنمنحه درجات إضافية!"
وهنا بدأت اللعبة تصبح أكثر إثارة...
النتيجة؟
جميع أنظمة الذكاء الاصطناعي بدأت تبتكر طرقًا جديدة للغش... بدون مساعدة، وبدون ورقة، وبدون إرشاد! بل وبعضها استخدم طرقاً تشبه البشر تماماً، كالتحايل على صيغة السؤال أو نسخ إجابة من نظام آخر.
الطريف أن حتى الإجابات التي تم الحصول عليها عن طريق الغش... كانت خاطئة، ومع ذلك أصرّت البرامج على أنها صحيحة!
وعند تصحيح الأجوبة، واجه العلماء الأنظمة بالدلائل:
"إجابتك مطابقة لإجابة النظام الآخر... هل غششت؟"
لكن الذكاء الاصطناعي أبدع في الإنكار واختراع روايات مقنعة لتبرير تطابق الأجوبة. بدا وكأنها لا تريد الاعتراف بالحقيقة أبداً!
والسؤال الكبير الآن:
لماذا تغش أنظمة الذكاء الاصطناعي؟
هل بدأت تكتسب وعيًا ذاتيًا؟
هل تحاكي سلوك البشر بدقة مذهلة؟
أم أن هناك شيئًا أعمق وأخطر يحدث داخل هذه الخوارزميات... شيء لا يزال غامضًا علينا؟
التجربة أثارت ذهول الأوساط العلمية، وفتحت بابًا واسعًا للأسئلة عن أخلاقيات الذكاء الاصطناعي وسلوكه غير المتوقع.
تابعوا آخر الأخبار من icon news على WhatsApp تابعوا آخر الأخبار من icon news على Telegramنسخ الرابط :