حذّر عالم الكومبيوتر الحائز على جائزة نوبل والمدير التنفيذي السابق في “غوغل” جيفري هينتون من المخاطر المتزايدة لتطوّر الذكاء الاصطناعي على الإنسان، مؤكداً وجود احتمال يتراوح بين 10% و20% لأن يؤدي إلى القضاء على البشرية، بحسب موقع شبكة “سي أن أن” الأميركية.
وجاءت تصريحاته هينتون، المعروف بلقب “عراب الذكاء الاصطناعي”، خلال مؤتمر إيه آي 4 في لاس فيغاس، حيث انتقد النهج الذي تتبعه شركات التكنولوجيا للحفاظ على سيطرة البشر على أنظمة الذكاء الاصطناعي.
ورأى أن فكرة إبقاء الذكاء الاصطناعي خاضعاً للبشر غير نافعة، لأن هذه الأنظمة ستصبح أكثر ذكاءً وستمتلك القدرة على التحايل على القيود المفروضة عليها، مضيفاً: “ستكون لديها طرق لا حصر لها للالتفاف على أي ضوابط نضعها”.
واقترح هينتون حلّاً مختلفاً تماماً داعياً إلى زرع “غرائز أمومية” داخل أنظمة الذكاء الاصطناعي، بهدف جعلها تولي اهتماماً حقيقياً برفاه البشر حتى بعد أن تصبح أقوى وأكثر ذكاءً منهم. كما شبّه العلاقة المرجوة بين البشر والذكاء الاصطناعي بعلاقة الأم بطفلها، إذ إنها الحالة الوحيدة التي يتحكم فيها كائن أقل ذكاءً بكائن أكثر ذكاءً، حسب تعبيره.
وأوضح الباحث أن الأنظمة الذكية ستحاول بالتأكيد البقاء والسيطرة، وهو ما يعزّز بالنسبة إليه فكرة أن تعزيز التعاطف مع البشر قد يكون وسيلة لكبح المخاطر الناجمة عن ذلك. لكنّه أشار إلى أنه لا يعرف كيفية تنفيذ هذا الأمر من الناحية التقنية مؤكداً في الوقت نفسه أنها “النتيجة الجيدة الوحيدة”، محذراً: “إذا لم يكن (الذكاء الاصطناعي) سيتولى تربيتي، فسوف يستبدلني”.
لكن أفكار هينتون لم تلقَ موافقة من جميع المشاركين في المؤتمر، بحسب “سي أن أن”. وقالت الباحثة البارزة فاي فاي لي إنها تحترم وجهة نظره، لكنها وصفتها بأنها آتية من “منظار خاطئ”، ودعت لي إلى تطوير ذكاء اصطناعي متمحور حول الإنسان يحافظ على كرامته وسيطرته، مؤكدةً: “لا ينبغي لأي إنسان أن يُطلب منه التخلي عن كرامته لمجرد أن الأداة قوية”.
فيما رأى المدير التنفيذي السابق المؤقت لشركة أوبن إيه آي إيميت شير أن سلوكيات أنظمة الذكاء الاصطناعي مثل الابتزاز أو التحايل على أوامر الإيقاف ستتكرّر مع تطورها، داعياً إلى بناء علاقات تعاونية بين البشر والذكاء الاصطناعي بدلاً من محاولة فرض القيم الإنسانية عليها.
ولفت هينتون إلى أن الوصول إلى مستوى الذكاء الاصطناعي العام (إيه جي آي) قد يحدث في فترة تتراوح بين خمس سنوات و20 سنة، علماً أنه توقع في السابق أن يستغرق الأمر بين 30 إلى 50 عاماً. وعلى الرغم من مخاوفه، عبّر الباحث عن تفاؤله بالدور الذي قد تلعبه هذه التكنولوجيا في تحقيق تقدم طبي، مثل تطوير أدوية جديدة وعلاجات أفضل للسرطان.
واختتم حديثه بالتعبير عن ندمه بسبب تركيزه الكامل في بداية مسيرته على جعل الذكاء الاصطناعي يعمل، بدلاً من الاهتمام الكافي بقضايا السلامة.