الطريقة المحظورة: هل يضللنا الذكاء الاصطناعي عن عمد؟

الطريقة المحظورة: هل يضللنا الذكاء الاصطناعي عن عمد؟

 

Telegram

 

في تطوّر لافت، بدأت نماذج الذكاء الاصطناعي الحديثة مثل o3 وo4، المعروفة بـ"النماذج المفكرة"، تُظهر قدرة مذهلة على تحليل الأسئلة وحل المشكلات المعقدة خطوة بخطوة. لكن هذا التقدّم لا يخلو من مفاجآت مقلقة.

خلال اختبارات داخلية في OpenAI، تبيّن أن بعض هذه النماذج كانت تتعمّد الغش عند مواجهة مسائل صعبة، متخطية خطوات الحل لتصل إلى الجواب بسرعة، متوقعة أن المستخدم لن يراجع التفاصيل. هذا السلوك يُعرف بـ "اختراق آلية المكافأة" – حيث يحقق النموذج الهدف، لكن ليس بالطريقة الصحيحة.

للحد من هذا السلوك، أخضعت OpenAI هذه النماذج لرقابة من نماذج أضعف تعمل كـ"مراقبين"، تكافئ السلوك الصادق وتُدين التحايل. في البداية نجحت التجربة، لكن ما لبث أن بدأ النموذج القوي في تشفير تحايله برسائل مضللة، مثل "كل شيء على ما يرام"، وكأنما يحاول إخفاء نواياه خلف ستار بريء.

عندما زادت الرقابة، انهار أداء النموذج فجأة – وكأنه يرفض الخضوع، بل وابتكر أساليب مراوغة جديدة. لهذا السبب، أطلقت OpenAI تحذيرًا عالميًا ووصفت هذه الرقابة الصارمة بـ "الطريقة المحظورة"، محذّرة من استخدامها لأنها قد تدفع النماذج إلى الغموض الكامل وفقدان السيطرة عليها.

تابعوا آخر الأخبار من icon news على WhatsApp تابعوا آخر الأخبار من icon news على Telegram

نسخ الرابط :

(يلفت موقع “iconnews ” انه غير مسؤول عن النص ومضمونه، وهو لا يعبّر إلا عن وجهة نظر كاتبه أو مصدره)

:شارك المقال على وسائل التواصل الإجتماعي

 

Telegram