تقاريرتكنلوجيا

عندما يصبح الذكاء الاصطناعي كابوسا

المصدر

جيفري هينتون، رجل الذكاء الاصطناعي الأول لدى “غوغل”، الذي استقال منذ يومين، انضم إلى جوقة الذعر بعد فترة قصيرة من إطلاق “تشات جي. بي. تي.” في نوفمبر/تشرين الثاني المنصرم وما أثاره من ذهول بسبب التطور الكبير والسريع للذكاء الاصطناعي التوليدي الذي يقوم عليه التطبيق، والذي اعتبره هينتون مؤشرا لمستقبل خطير على الأبواب قد لا يعود القرار فيه للبشر عندما تصبح الروبوتات أشد ذكاء.
ما أعلنه هينتون، الملقب بعراب القطاع (AI) ليس جديدا، فقد سبقه كثر من الشخصيات البارزة في عالم التكنولوجيا والأعمال، منهم إيلون ماسك، مالك شركة “تويتر” (أو “أكس كورب” كما صارت تسميتها الشهر الماضي) والرئيس التنفيذي لـشركة “تسلا”، ستيف وزنياك أحد مؤسسي “أبل”، ستيوارت راسل، أستاذ علوم الكومبيوتر في جامعة كاليفورنيا، وماكس تيغمارك، أستاذ الفيزياء في معهد ماساتشوستس للتكنولوجيا، وإيفان شارب، أحد مؤسسي “بينترست”، وكثيرون غيرهم ممن وقّعوا كتابا مفتوحا في نهاية مارس/آذار المنصرم، دعوا فيه مع أكثر من ألف وثلاثمئة شخصية أخرى، الى تجميد تطوير أقوى أنظمة روبوتات الذكاء الاصطناعي لفترة من الزمن، نظرا الى الخطر الذي تشكله هذه الأنظمة إذا تمادت في تطورها من دون قوانين أو ضوابط. اللافت أن أحد موقّعي الكتاب آنذاك هو يوشوا بنجيو، الأب الروحي الثاني للذكاء الاصطناعي، الذي فاز مع هينتون ويان لوكان بجائزة “تورينغ” لعام 2018 عن أبحاثهما في “التعلم العميق” (Deep Learning) لهذه التكنولوجيا.
سبقت ذلك، مواقف قلقة أخرى من المسار المتبع في تطوير أنظمة الذكاء الاصطناعي في مختلف استخداماتها، منها لبيل غيتس، مؤسس “مايكروسوفت” نفسه الذي ينافس حاليا على حصة دسمة من القطاع، وبيتر ثيل، أحد أبرز ممولي شركة “أوبن إيه. آي”، الذي نفى وجود أي دليل على كيفية تطوير ذكاء اصطناعي آمن!
دعوة “بيضاوية” فارغة؟
استقالة هينتون زادت الذعر بلة، فاستدعى البيت الأبيض أمس الرؤساء التنفيذيين للشركات الأميركية الأربع الرائدة في الذكاء الاصطناعي والابتكار التقني: “مايكروسوفت” و”غوغل” و”أوبن إيه. آي.” و”أنثروبيك”، التي علا صخبها في الآونة الأخيرة مع احتدام المنافسة في ما بينها. وقد يعتبر هذا الاستدعاء أول رد فعل على استقالة هينتون وما صدر عنه من تصريحات مقلقة. الهدف المعلن من الدعوة مناقشة المخاوف المثارة حول الأخطار المرتبطة بالذكاء الاصطناعي، من انتهاكات للخصوصية والتحيز وإمكان انتشار عمليات الاحتيال والمعلومات المضللة، وواجب هؤلاء الرؤساء التنفيذيين ضمان التصرف المسؤول في إدارة شركاتهم وابتكار منتجاتهم. كان الرئيس جو بايدن واضحا في تأكيده واجب هذه الشركات التثبت من أن منتجاتها آمنة قبل إعلانها ووضعها في تصرف الأفراد حفظا لسلامتهم وصونا لحقوقهم.
يبقى السؤال عن نجاعة هذا النقاش في غياب الوازع القانوني والتنظيم، بعدما اصطدمت إيجابية البيت الأبيض بموافقة سبع من أكبر شركات الذكاء الاصطناعي على إتاحة نماذجها للتدقيق العام، بشكل محدود، في أغسطس/آب المنصرم تماشيا “مع مبادئ الإفصاح المسؤول”، برفض شركة “أوبن إيه. آي.” نشر أي من المعلومات التقنية الأساسية المرتبطة بـ “GPT-4″، الذي أطلقته أخيرا، بحسب ما ورد في صحيفة الـ”فايننشال تايمز”.
وقت لا ينفع الندم
ما يثير الاهتمام في كلام هينتون الأخير، ليست تصريحاته نفسها، بل أولا، كونها صادرة من عالم ذي مكانة رائدة وموثوق بها في مجال الذكاء الاصطناعي، وفيها تأكيد لكل الآراء والتحذيرات السابقة بما لا يترك مجالا للشك. ثانيا، استقالته من “غوغل” في هذا التوقيت الذي تسعى فيه الشركة الى حجز مكان لها في صدارة هذه التكنولوجيا، وتخوض معركة ضروسا مع توجهات “مايكروسوفت”، ومحرك البحث الخاص بها “بينغ” الذي باشر دمج أدوات الذكاء الاصطناعي ولا سيما “تشات. جي. بي. تي.” في خدماته. فهل تصب استقالة هينتون فعلا في رغبته التحدث علنا عن “أخطار” التكنولوجيا التي ساعد في تطويرها من دون التأثير على سمعة “غوغل”؟ أم أنها إشارة الى السرعة المتهورة التي انقادت اليها الشركة في أبحاثها في هذا الحقل لأهداف تجارية صرفة، مثلها مثل منافسيها “مايكروسوفت”، و”أوبن. أي. آي.” من دون التحسب لعواقب هذا الانجرار الأعمى على الانسانية جمعاء، وذلك على الرغم من قوله لـ”بي. بي. سي.” إن عملاق التكنولوجيا (أي غوغل) كان “مسؤولاً للغاية” في منهج أبحاثه؟ وهل هي “صحوة ضمير” هينتون ورغبته في عدم تلويث يديه بما قد تقترفه “غوغل” غدا؟ وهو عبّر لـ”نيويورك تايمز” عن شعوره بالندم لمساهمته في أبحاث الذكاء الاصطناعي، لكنه يعزي نفسه قائلا: “لو لم أفعل ذلك، لكان شخص آخر فعلها”.
المفارقة أن سوندار بيتشاي، الرئيس التنفيذي لـ”غوغل”، كان قد صرح علنا الشهر الماضي في مقابلة لـ”سي. بي. أس. نيوز” خلال برنامج “60 دقيقة”، أن المجتمع لا يزال غير مستعد لما هو قادم على الرغم من قابليته للتكيف، إلا أن أحدا من القطاع لم يحرك ساكنا في اتجاه كبح جماح تطور الذكاء الاصطناعي المشرع الحدود.
حين يصبح الذكاء كابوسا
أبحاث هينتون عن “الشبكات العصبية”، وهي أنظمة تشبه إلى حد بعيد الدماغ البشري تتيح التعلم ومعالجة المعلومات من خلال التجربة وصولا الى “التعلم العميق” الذاتي للذكاء الاصطناعي، مهدت الطريق للأنظمة الحالية مثل “تشات جي. بي. تي.” التي يمكن أن تتجاوز قدرة التفكير البشري في المدى المنظور، الى جانب تفوقها في مقدار المعرفة العامة والبيانات الهائلة التي لقنت بها وإن كانت أثارت تحفظات جدية بسبب المعلومات المضللة التي يمكن أن تخزنها وتقدمها، إلا أن سرعة تعلم هذه الأنظمة فاجأت حتى مبدعيها! وهذا ما يثير القلق الشديد، خصوصا إذا وقعت هذه التكنولوجيا في أيدي “أشرار” قد يعمدون الى استخدامها في “أهداف سيئة” كما قال هينتون، واصفا ذلك بالـ”كابوس”، حيث أن الذكاء الرقمي (العديم المشاعر) يختلف تماما عن الذكاء البيولوجي للبشر، إذ فيما يتعلم كل نظام على حدة، يمكن لجميع الأنظمة مشاركة معرفتهم على الفور.
في الواقع، هذه ليست المرة الأولى يعبر فيها العالم والأكاديمي البريطاني الكندي ذو الـ75 عامًا والحائز دكتوراه في الذكاء الاصطناعي منذ 45 عاما، عن مخاوف بهذا الحجم. ففي مقابلة سابقة مع “سي. بي. أس. نيوز” في مارس/آذار الماضي، أكد أن العالم في “لحظة محورية”، مع التقدم السريع للذكاء الاصطناعي العام (AGI)، وتوقع أن تغزو هذه التكنولوجيا العالم خلال 20 عاما أو أقل وليس 50 عاما كما كان يعتقد منذ وقت قريب. وكان أشد مخاوفه آنذاك سعي الحكومات والشركات اللاهثة وراء السلطة لاحتكار تكنولوجيا الذكاء الاصطناعي وهي، أي الحكومات والشركات، لن تتوقف عن تطوير هذه التكنولوجيا قبل أن تتوقف نظيراتها عن ذلك، في ظل عدم وجود تنظيم عالمي. وقال حديثا إن عمالقة التكنولوجيا يخوضون منافسة قد يكون من المستحيل إيقافها.

هينتون و”غوغل”
أنفقت “غوغل” 44 مليون دولار عام 2013 في مقابل الاستحواذ على شركة “دي. أن. أن. ريسيرش”، التي أسسها هينتون وطلابه وطورت تقنيات متقدمة في “تعلم الآلة” (machine learning) و”التعلم العميق”، بما في ذلك الأسس التقنية التي تقوم عليها روبوتات الدردشة الجديدة مثل “تشات جي. بي. تي.” و”غوغل بارد”. عمل هينتون مع “غوغل” بدوام جزئي (part time) منذ ذلك الحين لمدة عقد من الزمن الى جانب أبحاثه لدى جامعة تورونتو.
أما بصمة هينتون الأشهر، فتتمثل في نجاحه عام 2012 في تطوير شبكة عصبية رائدة لتحليل الصور (image recognition)، كما عرف بعمله على الشبكات العصبية الرقمية وأبحاثه في “إجراءات التعلم غير الخاضعة للإشراف للشبكات العصبية ذات المدخلات الحسية الغنية”. وشغل هينتون منصب المدير المؤسس لـ”وحدة غاتسبي لعلوم الأعصاب الحاسوبية” في “يونيفرسيتي كوليدج” في لندن، وهو يشغل كرسي أبحاث كندا في التعلم الآلي ومدير برنامج “الحوسبة العصبية والإدراك التكيفي” الممول من المعهد الكندي للأبحاث المتقدمة. كما أنه زميل في الجمعية الملكية والجمعية الملكية الكندية وجمعية النهوض بالذكاء الاصطناعي، وهو عضو فخري أجنبي في الأكاديمية الأميركية للفنون والعلوم، ورئيس سابق لجمعية العلوم المعرفية.

ليس الأول يدق ناقوس الخطر
هينتون ليس الأول في “غوغل” الذي يدق ناقوس الخطر بسبب الأخطار المرتقبة للذكاء الاصطناعي، فلنتذكر قصة طرد أحد مهندسي الشركة في يوليو/تموز الماضي، بلايك ليموان، بسبب وصفه الروبوت “لامدا” (LaMDA) الخاص بـ”غوغل” بأنه واقعي للغاية إلى درجة اعتقاده بأنه واعٍ.
 إذاً، نحن أمام خطر جديد، يتمثل في إقصاء أيّ رأي يمكن أن يقف حائلا أمام مضاعفة الشركات أرباحها وسعيها الحثيث للتفوق على منافسيها مهما كلف الأمر، ولو كان الثمن تدمير البشرية بغزو من الآلات الفائقة الذكاء والسلطة.
   
تذكّرنا فورة الذكاء الاصطناعي حاليا والتحذيرات المتواصلة من انفلات زمام الأمور، بالدعوات اللامتناهية، منذ عقود، للتنبه الى أخطار تغير المناخ وما يمكن أن تستجره من ويلات لا عودة منها إن حصلت. على الرغم من ذلك، ها نحن بدأنا نلمس نتائج الإهمال البيئي، بسب منظومات الرأسمالية والصناعية، وتقاعسها عن التزام الحلول البديلة وتماديها في استنزاف الموارد حتى بتنا على مشارف الجفاف في أكثر بقاع الأرض خصوبة. فهل سيتم تدارك الأمر بضبط أو إبطاء تطور الذكاء الاصطناعي أم سنشهد مصيرا مماثلا حيث لا ينفع البكاء على الأطلال؟   

خالد القصار – المجلة

عن مصدر الخبر

المصدر

Editor

Ads Here