تخطي إلى المحتوى الرئيسي
النشرة الرقمية

خلفية استقالة عراب الذكاء الاصطناعي وتحذيره من خطر الذكاء الاصطناعي العام

نشرت في:

تتطرق نايلة الصليبي في "النشرة الرقمية" إلى خلفية استقالة  جيفري هينتون، أحد رواد بحوث الذكاء الاصطناعي الذي يلقب بـ "عراب الذكاء الاصطناعي" وإلى  تحذيره من خطر الذكاء الاصطناعي العام. و الجدل الذي أثارته هذه الاستقالة و المخاوف من تطور تكنولوجيا الذكاء الاصطناعي .

-
- © نايلة الصليبي
إعلان

استقالة وتحذير من الذكاء الاصطناعي

انشغل الإعلام بإعلان جيفري هينتون، أحد رواد بحوث الذكاء الاصطناعي الذي يلقب بـ "عراب الذكاء الاصطناعي"، ترك منصبه في شركة غوغل كنائب الرئيس والزميل الهندسي في غوغل. حيث أعلن من خلال مقابلة مع صحيفة نيويورك تايمز وفي تصريح آخر مع هيئة الإذاعة البريطانية أنه "يريد استعادة حريته في التعبير للتحذير من خطر الإصدارات المستقبلية من تكنولوجيا  الذكاء الاصطناعي على البشرية"؛ لدرجة أنه "يندم على تكريس حياته كلها لذلك" و لم يوجه أي انتقاد  لشركة غوغل معتبرا أنها تتعامل مع هذه التقنية "بمسؤولية".

 جيفري هينتون في الخامسة والسبعين من العمر، ولد في لندن، وبصفته عالما في علم النفس المعرفي، كان عمل هينتون في الذكاء الاصطناعي يهدف إلى تقليد الذكاء البشري، ليس فقط لبناء تكنولوجيا الذكاء الاصطناعي بل لتوضيح طريقة عمل أدمغتنا.  هو من رواد علماء الكمبيوتر الذين عملوا على الشبكات العصبية الاصطناعية  تعمل بتقنية تعرف بالـ "backpropagation" ،وهي تقنية تحاول تقليد كيفية عمل الدماغ الذي تستند إليها العديد من أنظمة الذكاء الاصطناعي الحالية، و ذلك من خلال بحوث إلى جانب يوشوا بينجيو و يان لوكون  الذين حصلوا عام 2019 على جائزة تورينج، التي تعتبر معادلة لجائزة نوبل في علوم الكمبيوتر، لأبحاثهم حول الذكاء الاصطناعي و "التعلم العميق".

لماذا يشعر جيفري هينتون بالقلق الشديد من خطر الذكاء الاصطناعي العام  و لماذا استقال من غوغل؟

حسب جيفري هينتون إن الذي دفعه لهذا التحذير هو  ChatGPT، جاءت  استقالة هينتون في أعقاب سلسلة عمليات إطلاق الذكاء الاصطناعي التوليدي والسباق بين شركات التكنولوجيا العملاقة على إطلاق نماذجها من الذكاء الاصطناعي التوليدي باللغة الطبيعية وغيرها من التقنيات.

فقد أعرب هينتون عن مخاوفه من أن السباق بين مايكروسوفت وغوغل وغيرها من الشركات، من شأنه أن يدفع تطوير الذكاء الاصطناعي إلى الأمام دون وجود حواجز وقواعد متوافقة. كاشفا عن وجود مخاوف بشأن التطور السريع للذكاء الاصطناعي، الذي قد يؤدي إلى إغراق المجال العام بالمعلومات المضللة وحلول  الذكاء الاصطناعي في وظائف بشرية بأعداد أكثر مما كان متوقعا.

برأيه ستتمكن قريبا نماذج الذكاء الاصطناعي التوليدي للدردشة باللغة الطبيعية من تجاوز "مستوى المعلومات التي يحتفظ بها الدماغ البشري شارحا أن ". النماذج اللغوية الكبيرة، مثل GPT-4، هي جميعها أدمغة اصطناعية مشتركة تتعلم بشكل منفصل ومن الممكن أن تتمكن قريبا من مشاركة معرفتها.  كما لو أن هنالك عشرة الالاف شخص، وفي كل مرة يتعلم فيها شخص ما شيئا، سيتعلمه الجميع تِلْقائيًا".

يقول جيفري هينتون:" على المدى القصير سيأتي الذكاء الاصطناعي بالعديد من المزايا الإيجابية. ولكن على المدى الطويل، "ستكون المخاطر هائلة".  

حذر هينتون من التهديدات طويلة المدى التي تشكلها أنظمة الذكاء الاصطناعي على البشر إذا تم منح التكنولوجيا قدرا من الاستقلالية أكثر مما ينبغي.

عندما سئل علنا عما إذا كان يتأسف على عمله في حياته، نظرا لأنه قد يسهم في الأضرار التي لا تعد ولا تحصى التي أوضحها، قال هينتون "إنه كان يفكر في الأمر".

مضيفا "لم تكن هذه المرحلة من الذكاء الاصطناعي متوقعة. حتى وقت قريب جدا كنت أعتقد أن هذه الأزمة الوجودية كانت بعيدة. لذلك أنا لست نادما حقاً على ما أفعله".

 فقد كان يعتقد دائما أن هذا "الخطر الوجودي" بعيد، لكنه تراجع عن هذا الاعتقاد. محددا أن وراء ذلك، هناك حلم - أو كابوس - لما يسمى الذكاء الاصطناعي العام Artificial General Intelligence  ،ما يخشاه الباحث بشكل خاص هو الاستخدامات "السيئة" للذكاء الاصطناعي  من الروبوتات القاتلة و الأسلحة و أيضا انتشار المعلومات المضللة. مشيرا على سبيل المثال إلى سيناريو مرعب كأن يكون في أيدي فلاديمير بوتين artificial general intelligence ذكاء اصطناعي عام الذي يمكن أن يمنحه قوة كبيرة الحجم لتنفيذ جميع أنواع السيناريوهات المرعبة.

كثيرون شبهوا ندم جيفري هينتون بندم روبرت أوبنهايمر، والد القنبلة الذرية، الذي استقال وأعرب عن ندمه ورعبه بعد هيروشيما وناغازاكي.

أليس هنالك فسحة أمل من خلال تطور الذكاء الاصطناعي؟

كل هذا يعيد إحياء المخاوف التي أثارتها العريضة الشهيرة من منظمة future of life الممولة من قبل إيلون ماسك التي تدعو إلى حظر مؤقت لتطوير الذكاء الاصطناعي  وقعها عدد من العلماء والشخصيات بالإضافة لإيلون ماسك ويوشوا بينجيو وهو موظف في تلك المنظمة.

المعروف عن إيلون ماسك أنه متأثر بكتاب Nick Bostrom الشهير Superintelligence.paths. Dangers.Strategies.لكن الخبراء وعلماء الذكاء الاصطناعي منقسمون حيال هذه الصورة القاتمة، على سبيل المثال يان لوكون العالم الفرنسي الزميل والصديق لهينتون الذي حازعلى جائزة تورينج مع هينتون و بينجيو، هو رئيس مختبر ميتا للذكاء الاصطناعي الذي يؤكد:" أننا نشعر بالذعر من لا شيء وأن الذكاء الاصطناعي سيجلب السعادة والازدهار". معتبرا  " أن اليوم أفضل نموذج ذكاء اصطناعي يبقى محدودا وأقل ذكاءً من قطة، التي يحتوي دماغها على 760 مليون خلية عصبية و10 تريليونات من نقاط الاشتباك العصبي. ففي في كتابه "عندما تتعلم الآلة" كتب يان لوكون، "البشري غير قادر حاليا على تصميم وبناء آلات تقترب من قوة الدماغ البشري، 86 مليار خلية عصبية. ليس للآلات حس عام، ولا حس بالاستنتاج، ولا عواطف، ولا شيء مما يصنع الذكاء البشري.

تحذيرات يعتبرها البعض متأخرة

بالإضافة لكل هذا سؤال أخر يطرح، بالرغم من مناقبية جيفري هينتون العالية، زملاء سابقون في غوغل يقولون أن جيفري هينتون كان على علم  بالمشكلات الأخلاقية المتعلقة بالذكاء الاصطناعي خاصة منذ عام 2020، عندما تم طرد تمنيت غيبرو- Timnit Gebru - من غوغل  بعد نشرها دراسة علمية حول تحيزات أنظمة الذكاء الاصطناعي و رفضت حينها اجتراء الدراسة بطلب من غوغل، حينها التزم هينتون الصمت.

فقد ناقشت هذه الدراسة التكاليف البيئية، والتكاليف المالية، و التنميط، والتشهير، وزيادة الأيديولوجية المتطرفة والاعتقالات غير المشروعة التي يمكن أن تحدثها النماذج اللغوية الكبيرة (LLMs). Large language model

بدلاً من ذلك، استخدم هينتون الأضواء للتقليل من شأن صوت Gebru. في لقاء مع جيك تابر على قناة "سي إن إن"، رفض سؤالًا حول ما إذا كان يجب أن يقف إلى جانب Gebru، قائلاً إن أفكارها "ليست جدية من الناحية الوجودية مثل فكرة أن تصبح هذه الأشياء أكثر ذكاءً منا وتتخذ زيادة."

ردت  Meredith Whittaker  في تعليق على تصريحات هينتون على قناة" سي إن إن" :" إنه لأمر مذهل أن يستطيع أي شخص أن يقول إن أضرار الذكاء الاصطناعي التي تحدث الآن - التي يشعر بها تاريخياً، الأفراد من الأقليات بشكل حاد مثل السود، والنساء، والأشخاص ذوي الإعاقة، والعمال غير المستقرين - ليست وجودية".

 Meredith Whittaker رئيسة مؤسسة سيغنال وباحثة في الذكاء الاصطناعي و التي طردت أيضا من غوغل عام 2019. بتهمة القيام بحملة داخل غوغل ضد عقد مع الجيش الأمريكي لتكنولوجيا الذكاء الاصطناعي للطائرات دون طيار.

كذلك انتقدت هذه الصحوة المتأخرة مارغريت ميتشل، التي كانت رئيسة قسم اخلاقيات الذكاء الاصطناعي في غوغل والتي طردت بدورها بعد مدّة وجيزة من طرد تمنيت غيبرو .

بالإضافة لهذه الانتقادات قالت إميلي بندر، عالمة اللغة الحاسوبية في جامعة واشنطن وخبيرة النماذج اللغوية الكبيرة التي شاركت في تأليف الدراسة  مع تمنيت غيبرو، إن تعليقات هينتون "منفصلة تمامًا عن الأضرار التي تحدث- نتيجة بحوث الذكاء الاصطناعي -  وقد تم توثيقها من قبل العديد من الأشخاص"، وتعكس هذه التعليقات التحيز الطويل الأمد  في التكنولوجيا حول من تكون أصواتهم مهمة".

تصريحات انتهازية أم تظهر الواقع؟

هل يمكن اعتبار تصريحات "عراب الذكاء الاصطناعي" انتهازية أم محاولة لجعل عمل زملائه السابقين غير مرئية؟ لذا من الأفضل وضع ملاحظات جيفري هينتون الأخيرة في إطارها الصحيح وعدم الخضوع للترهيب.

كثيرون اليوم يدعون إلى مزيد من التنظيم للتطبيقات القائمة على الذكاء الاصطناعي. وتبقى أسئلة عدة حول تكنولوجيا الذكاء الاصطناعي.

هل من الممكن تطبيق حظر ولو مؤقت على تطوير وبحوث الذكاء الاصطناعي في دول لا تلتزم عادة بالقوانين والأنظمة كالصين وكوريا الشِّمالية وإسرائيل وإيران و غيرها من الدول.

والسؤال هل تستمر بحوث الذكاء الاصطناعي دون التوجه نحو نهاية العالم التي يتوقعها البعض كما هي الحال مع القنبلة الذرية؟

تحديات عدّة تواجه هذه التكنولوجيا منها الإيجابي لمساعدة البشري ومنها السلبي ما يمس من جهة بكرامة وحياة البشري وعمله، وديمومته من جهة ثانية. دون الدخول في فلسفة السيليكون فالي من ناحية ما بعد الإنسانية Transhumanism وتنبؤات الـLongtermism  و تفوق العرق  الـEugenics  وغيرها من أيديولوجيات يعتنقها أثرياء التكنولوجيا.

يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل

للتواصل مع #نايلةالصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@  وعلى ماستودون  وعبرموقع مونت كارلو الدولية مع تحيات نايلة الصليبي

الرسالة الإخباريةأبرز الأحداث الدولية صباح كل يوم

ابق على اطلاع دائم بالأخبار الدولية أينما كنت. حمل تطبيق مونت كارلو الدولية

شاهد الحلقات الأخرى
  • 06:00
  • 06:26
  • 07:05
  • 06:19
  • 06:32
الصفحة غير متوفرة

المحتوى الذي تريدون تصفحه لم يعد في الخدمة أو غير متوفر حاليا.