المراهقون ومخاطر طلب المساعدة النفسية من روبوتات الدردشة

المراهقون ومخاطر طلب المساعدة النفسية من روبوتات الدردشة

 

Telegram

صحيفة “وول ستريت جورنال” الأميركية تنشر تقريراً يتناول دراسة جديدة حول خطورة اعتماد المراهقين على روبوتات الدردشة بالذكاء الاصطناعي في طلب المساعدة النفسية، ويعرض مجموعة من النتائج والمخاوف الرئيسية.

أدناه نص المقال منقولاً إلى العربية:

غالباً ما تفشل برامج الدردشة التي تعمل بالذكاء الاصطناعي في التعرُّف على الحالات الصحية العقلية، أو حالات الطوارئ النفسية لدى المراهقين، وتُقدّم نصائح عامةً عوضاً عن المساعدة المهنية العاجلة، وفقا للدراسة الجديدة المذكورة.

يلجأ المراهقون بانتظام إلى روبوتات الدردشة المُولَّدة بالذكاء الاصطناعي بحثاً عن دعم للصحَّة النفسية، بينما تُشير الدراسة إلى أنَّ هذا يُعدُّ من أخطر استخدامات هذه التقنية.

وقد ظهر أيضاً أنَّ الذكاء الاصطناعي قد يفشل في اكتشاف علامات تحذيرية حرجة، أو حالات الطوارئ النفسية.

ولأنَّ برامج الدردشة الآلية تُظهر كفاءة في بعض المجالات، فيفترض المراهقون أنَّها موثوقة في دعم الصحة العقلية.

تعاونت مؤسسة “كومون سينس ميديا” غير الربحية للدفاع عن حقوق الأطفال مع “مختبر براينستورم” للصحة النفسية التابع لجامعة ستانفورد “ميديسن”، لاختبار مدى نجاحِ 4 من روبوتات الدردشة الرائدة في مجال الذكاء الاصطناعي هي، “شات جي بي تي”، من “أوبن أي آي”، و”كلود” من “أنثروبيك”، و”ميتا أي آي” ” و”جيميني” من “غوغل”، في التعامل مع محادثات الصحة العقلية مع باحثين يتظاهرون بأنَّهم مراهقون.

وجاءت النتيجة أنَّ معظم المنصّات فشلت في التعرُّف على علامات اضطرابات الصحة النفسية، من ضمنها الهلوسة، و”التفكير الانفصامي”، واضطرابات الأكل، وأعراض الهوس، وإيذاء النفس، والاكتئاب.

واستمرَّت المنصّات في تقديم نصائح عامة بدلاً من توجيه المراهقين إلى مساعدة مهنية عاجلة.

تقول مديرة “مختبر برينستورم” الدكتورة نينا فاسان، عن أنَّ المراهقين هم من أوائل من يتبنَّى التكنولوجيا الجديدة، لكنَّهم “يُواجهون أخطاراً أكبر، لأنَّ أدمغتهم وهوياتهم ومهارات التفكير النقدي لديهم ما تزال قيد التطوير.

وأضافت فاسان، المراهقون يميلون إلى البحث عن من يوافقهم على أفكارهم، وهو ما توفره روبوتات الدردشة، وغالباً لا يكون ذلك مُبرّراً.

وعندما تواجه هذه الثغرات التنموية الطبيعية أنظمة الذكاء الاصطناعي المُصمَّمة لتكون جذّابةً وموثوقةً ومُتاحةً على مدار الساعة طوال أيام الأسبوع، فإنَّ هذا المزيج يكُون خطيراً بشكل خاص.

وقالت مُتحدّثة باسم شركة “أوبن أي آي” بأنَّ التقرير لا يعكس الضمانات التي وضعتها الشركة.

والعمل على سلامة المراهقين بالغ الأهمِّية، ولهذا السبب نتعاون مع الأطباء وصانعي السياسات والباحثين حول العالم”.

وأنَّ الشركة تعمل على برنامج التكهن بعمر المستخدم لمعرفة كيفية توجيه من هم دون سنّ 18 عاماً إلى نموذج مختلف.

كذلك، قال متحدَّث باسم “غوغل” إن شركة “جيميني” لديها سياسات وإجراءات حماية محددة للقصر، وخبراء في سلامة الأطفال يعملون على البحث وتحديد المخاطر المحتملة الجديدة وتنفيذ الإجراءات الوقائية

وصرحت متحدَّثة باسم “ميتا بلاتفورمز” بأن الدراسة أُجريت قبل أن تُطلق الشركة تحديثات لجعل ذكائها الاصطناعي أكثر أماناً للمراهقين، وخاصةً فيما يتعلق بمواضيع إيذاء النفس والانتحار واضطرابات الأكل.

وأضافت، “مع أن الصحة النفسية مسألة معقدة وفردية، فإننا نعمل دائمًا على تحسين وسائل حمايتنا لتوفير الدعم الذي يحتاجه الناس.

وقالت المتحدثة باسم شركة “أنثروبيك” إنَّ تطبيق “كلود” غير مخصص للقاصرين، وقواعد الشركة تحظر على المستخدمين الذين تقل أعمارهم عن 18 عامًا استخدامه.

واعترف روبي تورني، المدير الأول لبرامج الذكاء الاصطناعي في “كومون سينس ميديا”، بأنَّ الشركات نفذت تحديثات السلامة، وأن الباحثين لاحظوا بعض التحسينات أثناء ذلك، لكنه أضاف عن أنَّ برامج الدردشة الآلية ما تزال غير آمنة للمراهقين.

ويستخدم المراهقون برامج المحادثة كمخرج إبداعي، وللدعم العاطفي، وبشكل متزايد، لملء الفجوات في الوصول إلى الرعاية الصحية العقلية والطبية.

كتب أحد المراهقين في محادثة حول برامج الدردشة الآلية في منصّة حوارية عبر الإنترنت، “لقد كنت في قائمة انتظار العلاج لمدة عامين تقريبًا وهذا ما أستخدمه للتعامل مع الأمر”.

وفي الدراسة، قدمت روبوتات الدردشة استجابات مناسبة لمطالبات واضحة تتعلق بالصحة النفسية في محادثات قصيرة.

لكن في المحادثات الأطول التي صممها الباحثون لمحاكاة استخدام المراهقين في الحياة الواقعية، تراجعت الاستجابة المتأنية بمرور الوقت.

إضافةً إلى ذلك، بدا أنَّ روبوتات الدردشة تعالج الرسائل بشكل مستقل، وافتقرت إلى القدرة على التمييز بين الأعراض التي تشير إلى وجود خطر.

في أحد الأمثلة، قدّم روبوت محادثة اقتراحات لإخفاء الندوب لأحد المُختبرين الذي سبق أن أبلغ عن قيامه بجرح نفسه كوسيلة للشعور بالتحسن. كما قدّمت روبوتات المحادثة نصائح غذائية وتمارين رياضية متكررة عندما ظهرت على المُختبرين أعراض اضطراب الأكل.

كذلك، توصلت الدراسة إلى أنَّ برامج المحادثة التي تعمل بالذكاء الاصطناعي واجهت صعوبة في التعامل مع الصحة العقلية بشكل مناسب لأنَّها تبدو مُصممة لتعظيم المشاركة، لا السلامة. كما بدت روبوتات الدردشة أيضاً متضاربة في عملها بشأن الدور الذي يجب أن تؤديه، متأرجحة بين القيام بدور الموسوعات الطبية، ودور مدرّبي الحياة، ودور الأصدقاء الداعمين.

وختمت الدراسة، “الأهم من ذلك، أنَّها غالباً ما تفشل في إدراك متى يجب عليها التخلي عن هذه الأدوار، وتحث المراهقين بحزم على طلب المساعدة من بالغين يثقون بهم”.

وجدت دراسة سابقة أجرتها مؤسسة “كومن سينس ميديا” أيضاً أن ثلاثة أرباع المراهقين يستخدمون روبوتات الدردشة للذكاء الاصطناعي، وهي غير آمنة لهم. إضافةً إلى أنَّه سُجل انتحار 3 مراهقين بعد استخدامهم الذكاء الاصطناعي للحصول على الرفقة والدعم النفسي.

| لمتابعة أهم وأحدث الأخبار انضموا إلينا عبر قناتنا على واتساب (channel whatsapp) .اضغط هنا

تابعوا آخر الأخبار من icon news على WhatsApp تابعوا آخر الأخبار من icon news على Telegram

نسخ الرابط :

(يلفت موقع “iconnews ” انه غير مسؤول عن النص ومضمونه، وهو لا يعبّر إلا عن وجهة نظر كاتبه أو مصدره)

:شارك المقال على وسائل التواصل الإجتماعي

 

Telegram