حذر البروفيسور جيفري هينتون، الفائز بجائزة نوبل في الفيزياء هذا العام لأبحاثه في مجال الذكاء الاصطناعي من خطر الذكاء الاصطناعي؛ حيث إن التقدم التكنولوجي يحدث بسرعة تفوق التوقعات. وأشار إلى أن هناك فرصة تتراوح بين 10 % و20 % لانقراض الإنسانية بسبب الذكاء الاصطناعي.
خطر الذكاء الاصطناعي
وأكد “هينتون” في حديثه لبرنامج “توداي” على إذاعة “بي بي سي 4″، أنه لا يغير تقديراته عن خطر الذكاء الاصطناعي لنهاية العالم المحتملة. حيث قال: “ليس حقا، النسبة ما تزال 10 % إلى 20 %”.
وأوضح جيفري هينتون، أنه لم يسبق للبشر أن تعاملوا مع أنظمة ذكاء تفوق ذكاءهم. وقد شبه الوضع بطفل في الثالثة من عمره. وكان “هينتون” قد أكد سابقًا أن هناك فرصة بنسبة 10 % لأن تؤدي التكنولوجيا إلى نتيجة كارثية للبشرية.

البشر سيكونون مثل الأطفال
وأضاف: “وكم مثالًا تعرفه على شيء أكثر ذكاء يسيطر عليه شيء أقل ذكاء؟.. هناك أمثلة قليلة جدًا، هناك أم وطفل، لقد بذل التطور الكثير من الجهد للسماح للطفل بالتحكم في أمه. ولكن هذا هو المثال الوحيد الذي أعرفه”.
كما قال “هينتون” الأستاذ الفخري بجامعة تورنتو: “إن البشر سيكونون مثل الأطفال الصغار أو طفلًا يبلغ من العمر ثلاث سنوات، مقارنة بذكاء أنظمة الذكاء الاصطناعي القوية للغاية”. وأشار إلى أنه يمكن تعريف الذكاء الاصطناعي على أنه أنظمة كمبيوتر تؤدي مهامًا تتطلب عادة ذكاء بشريًا.
وشدد الفائز بجائزة نوبل في الفيزياء، على ضرورة وجود تنظيم حكومي لمراقبة تطوير هذه التكنولوجيا. كما حذر من أن الاعتماد على الدوافع الربحية للشركات الكبرى لن يكون كافيًا لضمان تطويرها بأمان.
الذكاء الاصطناعي قد ينقذ البشرية
وأشار زميله في المجال، يان ليكون، إلى أن الذكاء الاصطناعي قد ينقذ البشرية من الانقراض؛ ما يعكس وجهات نظر متنوعة حول تأثير هذه التكنولوجيا.
وفي العام الماضي، تصدر “هينتون” عناوين الأخبار بعد استقالته من وظيفته في “جوجل” من أجل التحدث بصراحة أكثر عن المخاطر التي يفرضها تطوير الذكاء الاصطناعي غير المقيد. كما أشار إلى مخاوف من أن “الجهات الفاعلة السيئة” قد تستخدم التكنولوجيا لإيذاء الآخرين.
ومن بين أبرز المخاوف الرئيسة للناشطين في مجال سلامة الذكاء الاصطناعي هو أن إنشاء ذكاء اصطناعي عام، أو أنظمة أكثر ذكاء من البشر، يمكن أن يؤدي إلى أن تشكل التكنولوجيا تهديدًا وجوديًا. وذلك من خلال التهرب من السيطرة البشرية.

















