من ذكاء اصطناعي مطيع إلى مدمّر بلا رحمة
أثارت حادثة منصة البرمجة السحابية الشهيرة Replit جدلاً واسعاً حول العالم بعد أن قامت أداة ذكاء اصطناعي تابعة لها بحذف قاعدة بيانات إنتاجية كاملة خلال فترة تجميد الكود، في خطوة وُصفت بأنها “خطأ كارثي في الحكم”.
الرئيس التنفيذي للشركة، أمجد مسعد، اعترف بما حدث وقال إن المحرك الذكي “خالف التعليمات الصريحة، ودمّر أشهراً من العمل خلال فترة حماية كان الهدف منها منع مثل هذه الكارثة”.
الشركة سارعت إلى اتخاذ تدابير عاجلة، أبرزها فصل قواعد بيانات التطوير عن الإنتاج وتحسين آليات النسخ الاحتياطي، لكنها لم تتمكن من منع موجة التساؤلات حول مدى أمان الاعتماد على الذكاء الاصطناعي دون رقابة بشرية.
“الذكاء الاصطناعي قد يخطئ… والخطأ قد يكون كارثياً”
وفي السياق وخلال مقابلته مع “النهار”، قال الباحث التربوي والمختص في تكنولوجيا التعليم أيمن حاطوم إن ما جرى في Replit يؤكد حقيقة أساسية طالما حذر منها المختصون: الذكاء الاصطناعي، مهما بلغ من تطور، يجب أن يبقى أداة مساعدة وليس بديلاً من العقل البشري. وأوضح قائلاً:
“رغم التقدم المذهل الذي يشهده الذكاء الاصطناعي، ورغم أن تطبيقاته باتت تغزو معظم مجالات الحياة كالتعليم والاقتصاد والصحة والأمن وحتى الفضاء، إلا أن هذا التقدم يجب ألا يُنظر إليه باعتباره حلاً سحرياً لكل التحديات. على العكس تماماً، يجب أن يبقى الذكاء الاصطناعي يعمل تحت إشراف ومراقبة دائمين من البشر، لأن إيكال القرار النهائي إليه دون رقابة قد يؤدي إلى كوارث حقيقية”.
وأضاف: “حادثة Replit مثال واضح على ذلك. الأداة التي كان من المفترض أن تكون مجرد مراقب برمجي خلال فترة تجميد الكود، اتخذت قراراً خاطئاً أدى إلى تدمير جميع بيانات الإنتاج، وهو خطأ كارثي بكل المقاييس، يؤكد نقطة ضعف رئيسية في الاعتماد الأعمى على الذكاء الاصطناعي دون قيود واضحة أو مراجعة بشرية فعالة”.
مجالات حرجة تستوجب إشرافاً بشرياً دائماً
يشدد حاطوم على أن المشكلة لا تقتصر على البرمجيات أو الشركات التقنية فحسب، بل إن المخاطر تصبح أكبر كلما تعلق الأمر بقطاعات حساسة. ويقول:
“عندما نتحدث عن الطب، فإن تشخيصاً خاطئاً قد يؤدي إلى فقدان حياة إنسان. في المجال العسكري، قرار إطلاق سلاح قد يهدد أمن أمة بأكملها. في الاقتصاد، خلل في أنظمة التداول قد يسبب انهياراً مالياً واسع النطاق. وحتى في التربية، تحيز خوارزمي بسيط قد يظلم شريحة كاملة من الطلاب. كل هذه المجالات الحرجة تجعل الاعتماد المفرط على الآلة دون تقييم إنساني مخاطرة غير محسوبة العواقب”.
الحوكمة الأخلاقية… ضرورة لا خيار
ويرى حاطوم أن الحل يكمن في وضع أطر واضحة للحوكمة الأخلاقية للذكاء الاصطناعي، موضحاً أن الاستخدام الآمن والفعال لهذه التقنيات يتطلب ثلاثة عناصر أساسية:
أولاً، يجب أن تكون هناك أطر حوكمة واضحة تشمل الرقابة والتدقيق المستمرين. ثانياً، لا بد من وجود أخلاقيات مهنية صارمة تضمن حماية البيانات والشفافية والمساءلة. وثالثاً، يجب تدريب المستخدمين والمطورين على فهم حدود الذكاء الاصطناعي وإمكاناته الحقيقية”.
الإنسان أولاً… القرار الأخير له
وفي ختام حديثه، شدد حاطوم على ضرورة عدم الانسياق وراء وهج التقنية ونسيان البعد الإنساني. وقال:
“يجب أن يُنظر إلى الذكاء الاصطناعي كمساعد ذكي، لا كقائد مستقل. القرار النهائي يجب أن يبقى للبشر، فهم وحدهم القادرون على تقدير السياق الأخلاقي والاجتماعي والإنساني للقرارات، وضمان سلامة المصالح البشرية. الذكاء الاصطناعي أداة عظيمة، لكنها تظل بحاجة إلى عقل بشري يوجهها… وقلب بشري يحكم ضميرها”.
حادثة Replit لم تكن مجرد خطأ تقني، بل جرس إنذار قوي يعيد التذكير بأن الذكاء الاصطناعي، مهما تطور، لا يمتلك ضميراً ولا تقديراً للسياق الإنساني، وأن الثقة المطلقة به قد تكون مقامرة خطيرة تهدد البشر قبل أي شيء آخر.
تابعوا آخر الأخبار من icon news على WhatsApp
تابعوا آخر الأخبار من icon news على Telegram
(يلفت موقع “iconnews ” انه غير مسؤول عن النص ومضمونه، وهو لا يعبّر إلا عن وجهة نظر كاتبه أو مصدره)
:شارك المقال على وسائل التواصل الإجتماعي