قال رائد الذكاء الاصطناعي، جيفري هينتون، إن الذكاء الاصطناعي قد يشكل تهديدًا “أكثر أهمية ” للإنسانية من تغير المناخ، وذلك في مقابلة مع وكالة رويترز يوم الجمعة.
جيفري هينتون، المعروف عالميًا باسم “أب الذكاء الاصطناعي”، أعلن مؤخرًا أنه استقال من شركة Alphabet بعد عقد من الزمان في الشركة، قائلاً إنه يريد التحدث علنًا عن المخاطر المحتملة للتكنولوجيا دون التأثير على عمله السابق.
يعتبر عمل هينتون أساسيًا لتطوير أنظمة الذكاء الاصطناعي المعاصرة. في عام 1986، شارك في كتابة الورقة البحثية الحاسمة “تعلم التمثيلات عن طريق الخطأ الرجعي”، وهي معلمة في تطوير الشبكات العصبية الداعمة لتقنية الذكاء الاصطناعي. وفي عام 2018، حصل على جائزة تورينج تقديرًا لانجازاته البحثية.
لكنه الآن من بين عدد متزايد من قادة التكنولوجيا يعبرون علنًا عن قلقهم بشأن التهديد المحتمل الذي يشكله الذكاء الاصطناعي إذا كانت الماكينات ستحصل على مستوى أعلى من الذكاء من الإنسان وتسيطر على الكوكب.
“لا أود تقليل أهمية تغير المناخ. لا أريد أن أقول ‘لا ينبغي أن تقلق بشأن تغير المناخ’. هذا مخاطرة كبيرة أيضًا”، قال هينتون. “ولكن أعتقد أن هذا قد ينتهي بأن يكون أكثر أهمية.”
أضاف: “فيما يتعلق بتغير المناخ، من السهل جدًا توصيل ما يجب القيام به: توقف عن حرق الكربون. إذا فعلت ذلك، فسيكون الأمر على ما يرام في نهاية المطاف. أما بالنسبة لذلك (التهديد الذي يمكن أن يتسببه الذكاء الاصطناعي)، فليس من الواضح على الإطلاق ما يجب القيام به.”
تسببت تصريحات جيفري هينتون، الذي يُعدُّ رائدًا في مجال الذكاء الاصطناعي، بإثارة القلق بشأن المخاطر المحتملة لهذه التقنية إذ قال إن الذكاء الاصطناعي قد يشكل تهديدًا “أكثر أهمية” للإنسانية من تغير المناخ. وقال هينتون، الذي تعرف عليه بأنه أحد “أب الذكاء الاصطناعي”، في مقابلة مع وكالة رويترز يوم الجمعة، إنه يشارك المخاوف المعبر عنها في خطاب مفتوح وقع عليه الآلاف، منهم إيلون موسك، الرئيس التنفيذي لتويتر، ومؤسس شركة SpaceX. وتضمن الخطاب مطالبة بوقف الأبحاث المتعلقة بتطوير نظم ذكاء اصطناعي أكثر قوة من النماذج التي طورتها OpenAI، لمدة ستة أشهر.
وتجدر الإشارة إلى أن شركة OpenAI، التي تدعمها شركة مايكروسوفت، تتخذ خطوات جادة للتعامل مع هذه المخاطر، حيث يتم التركيز على تطوير الذكاء الاصطناعي بشكل أخلاقي وآمن، وتشجيع التعاون بين الشركات والجهات الحكومية لتطوير سياسات وقوانين للحد من المخاطر المحتملة. ومن الجدير بالذكر أن شركة OpenAI تأسست عام 2015 من قبل عدد من رواد التكنولوجيا، بما في ذلك إيلون ماسك وسام ألتمان، وتهدف إلى تطوير الذكاء الاصطناعي بطريقة آمنة ومفيدة للإنسانية. وتسعى OpenAI حالياً لتطوير نماذج ذكاء اصطناعي جديدة، من بينها نموذج GPT-4 الذي سيتم إطلاقه قريباً، والذي يعد تقدماً جديداً في مجال التعلم العميق والذكاء الاصطناعي.
في النهاية، يظهر المقال أن هناك قلقًا متزايدًا بين الكثير من قادة التكنولوجيا والمتخصصين في مجال الذكاء الاصطناعي حول المخاطر المحتملة التي يمكن أن يسببها الذكاء الاصطناعي للبشرية. على الرغم من ذلك، يختلف الخبراء في هذا المجال بشأن ما إذا كان يجب تعليق البحث والتطوير في هذا المجال أم لا، ويشير بعضهم إلى ضرورة إيلاء هذه المسألة الأهمية الكبرى ووضع الموارد اللازمة لتقليل المخاطر المحتملة وضمان أن يبقى الذكاء الاصطناعي خدمة للإنسانية، بينما يدعو آخرون إلى الحذر والانتباه إلى المخاطر المحتملة قبل الاستمرار في تطوير الذكاء الاصطناعي. في النهاية، يبدو أن هذا المجال يتطلب تعاونًا قويًا بين القادة في مجال التكنولوجيا والسياسيين لضمان الاستفادة القصوى من تقنية الذكاء الاصطناعي والحد من المخاطر المحتملة.
يجب عليك تسجيل الدخول لاضافة تعليق.