يظن الناس أن “الغباء” سمة بشرية، لكن أنظمة الذكاء الاصطناعي ليست معصومة من الخطأ، بل على الأرجح أنها رغم التطوير الذي شهدته، لم ترتق بعد إلى مستوى ذكاء العقل البشري الذي يختلف كثيرا عن طريقة عمل نماذج التعلم الآلي العميق الحالي، ويبدو أن الارتقاء إلى مستوى الذكاء البشري سيتطلب أمدا غير معروف.
توقّع الكثير من كتاب الخيال العلمي بأن يسلب الإنسان الآلي من البشر قدراتهم العقلية وخبراتهم الحياتية والعاطفية، ليتربع بذلك على عرش الكون. وتجسّد جزء من هذه الرؤى في الواقع.
ويرجّح راي كيرزويل، مدير قسم الهندسة بشركة “غوغل” الأميركية، بأن أجهزة الكمبيوتر ستكون أكثر ذكاء من أي إنسان بحلول عام 2029.
وأصبحت برامج الذكاء الاصطناعي وأجهزة الروبوت تتمتع بقدرات عالية ومهارات كبيرة، ولاقت الترحيب في البيوت والمؤسسات والأماكن العامة والحياة الاجتماعية للناس، غير أن المتخوفين منها يعتقدون أنها يمكن أن تصاب بما عبّر عنه المحرر التقني في صحيفة نيويورك تايمز بـ”الغباء الاصطناعي”، فترتكب أخطاء فادحة، ولذلك لا بد من طريقة ما لتجاوز هذا المأزق الذي قد يكتب أسوأ السيناريوهات لنهاية الكائن البشري.
وحذرت “ألفابت”، وهي الشركة الأم لـ”غوغل”، المستثمرين من المشكلات الأخلاقية والقانونية التي تسببها تقنيات الذكاء الاصطناعي لأنشطة الشركة. وقالت إن منتجات وخدمات جديدة تعتمد على الذكاء الاصطناعي والتعلم الآلي يمكن أن تثير أو تعمّق بعض التحديات الأخلاقية والتقنية والقانونية.
وكانت شركة مايكروسوفت قد نبهت إلى المخاطر نفسها التي حذرت منها شركة “ألفابت”، محذرة من الانحرافات التي تتعرض لها تكنولوجيا الذكاء الاصطناعي.
ولعبت مايكروسوفت و”ألفابت” دورا بارزا في إثارة النقاش والمخاوف وتشجيع الأبحاث حول التحديات الأخلاقية التي يطرحها الذكاء الاصطناعي بعد أن واجهتا هذه التحديات بشكل مباشر في السنوات الأخيرة.
ويرى البعض من الخبراء أن مخاطر الذكاء الاصطناعي يمكن أن تظهر بشكل أوضح في الآلات المسؤولة عن تنفيذ مهام محددة بشكل متواصل.
ومثل هذا الأمر أشار إليه سابقا ماكس تيغمارك، أستاذ الفيزياء في “معهد ماساتشوستس التقني” ورئيس “معهد مستقبل الحياة” المنظمة المعنية بتوفير التوعية والدعم اللازمين لخفض المخاطر التي تهدد البشرية وتحديدا الذكاء الاصطناعي.
وتم تأسيس “معهد مستقبل الحياة” من قبل بعض العلماء والمستثمرين، منهم المخترع الأميركي إيلون ماسك وعالم الفيزياء البريطاني الراحل ستيفن هوكينغ.
نقل النبضات
ثمة مثال بسيط أظهر فشل الذكاء الاصطناعي في التمييز بين الصور المختلفة، وهو ما لا يمكن للعين البشرية أن تخطئه، ففي الوقت الذي يسهل فيه على الإنسان تحديد الاختلافات في الصور، واجهت أنظمة الكمبيوتر صعوبات عديدة وعوائق كبيرة في تحديد ذلك.
أبرز باحثون من فرنسا وسويسرا في إحدى التجارب كيف أدى هذا التشويش في الرؤية إلى عجز الكمبيوتر عن التمييز بين السنجاب والثعلب أو كوب القهوة وحيوان المكاو.
ولكي يتمكن العلماء من مساعدة الكمبيوتر على التعرف على الصور فإنهم يستخدمون الشبكات العصبية، وهي عبارة عن شبكات كبيرة من الكمبيوترات مدربة على حل المشكلات المعقدة.
وتحتوي الشبكة العصبية على مئات المستويات أو الطبقات على غرار المخ البشري، وكل مستوى من هذه المستويات يفحص جزءا مختلفا من المشكلة. وفي نهاية المطاف فإن الإجابة التي تصدر من جميع هذه المستويات على اختلافها تجمع معا لإنتاج إجابة واحدة نهائية.
لكن القائمين على تصميم أطر الذكاء الاصطناعي قد أغفلوا العديد من الخصائص المهمة للخلايا العصبية البيولوجية رغبة منهم في التبسيط. وقد بدأت عيوب ذلك تتضح بشكل ملحوظ.
وتتواصل الخلايا العصبية للإنسان في ما بينها عبر خاصية تأخير نقل النبضات، وتتنوع من حيث معدل نقلها للمعلومات بين سريع وبطيء، والكثير من الخلايا العصبية تطلق نبضاتها اعتمادا على توقيت ما تتلقاه بدوره من نبضات.
ومن الاختلافات الأخرى بين المخ البشري وطريقة عمل الآلة الذكية أن الشبكات العصبية الصناعية تعتمد على انتقال الإشارات عبر متواليات في اتجاه واحد. أما الخلايا العصبية بالقشرة المخية للإنسان فتنقل الإشارات العصبية بطريقة عمودية من أعلى إلى أسفل كما تنقلها بالاتجاه الآخر، أي من أسفل إلى أعلى.
ويقول جيفري باورز، عالم الأعصاب بجامعة بريستول والباحث في أوجه النشاط المخي التي تفتقر إليها الشبكات العصبية الصناعية حاليا، إن “الشبكات الصناعية تعتمد على توحيد خلاياها، لكن خلايا المخ تتعدّد في أشكالها، وهو ما يدفعني إلى الاعتقاد بأن لذلك صلة وظيفية وثيقة”.
واستفاد الإنسان كثيرا في العصر الحالي من الاعتماد على الخوارزميات الفعالة، التي يمكن للآلات التعلم منها، إلى جانب الإنجازات المبهرة التي حققتها أنظمة الذكاء الاصطناعي المختلفة على هذا الصعيد وتمكنها بشكل ملحوظ من وقف عمليات التزوير قبل أن تقع، ورصد الأمراض المزمنة بدقة عالية.
مخاطر عالية
لكن رغم ذلك فإنه على ما يبدو أن حتى أكثر آلات الذكاء الاصطناعي تطورا في هذه الأيام لا تملك ما يضاهي الذكاء الذي يتّصف به الكائن البشري بشكل عام.
ويقول دانييل لود، الأستاذ المساعد بقسم علوم الكمبيوتر والمعلومات بجامعة أوريغون الأميركية “يشعر العاملون في مجال التعلم الآلي والذكاء الاصطناعي بالقلق حيال عمليات الاحتيال بسبب زيادة الاعتماد على هذه الخوارزميات”.
ويضيف لود “يمكن أن تصل إلى بريدك الإلكتروني الرسائل المزعجة غير المرغوب فيها أو تتعرض البعض من رسائل بريدك للحجب، لكن هذا ليس نهاية العالم”.
ويوضح أستاذ علوم الكمبيوتر والمعلومات بجامعة أوريغون “إذا كنت تعتمد كليا على نظام الرؤية في السيارات ذاتية القيادة لمعرفة المكان الذي تتجه إليه وتفادي الاصطدام بأي شيء، فإن المخاطر ستكون أعلى” مقارنة بالقيادة التقليدية.
ويرجع السبب في تعطل الآلة الذكية أو تعرضها للقرصنة، إلى الطريقة المختلفة التي ترى بها خوارزميات التعلم الآلي العالم من حولها.
ويشرح ريتش كاروانا، كبير الباحثين في مؤسسة ميكروسوفت للأبحاث، مثل هذا الأمر بقوله “ربما خطر ببالكم أن الطريقة التي يعمل بها الذكاء الاصطناعي هي أننا نفهم البشر، ومن ثم نبني الذكاء الاصطناعي بنفس الطريقة تماما” مستدركا “لكن الأمور لا تسير بتلك الطريقة”.
وضرب كاروانا مثالا على الطائرات التي اخترعت قبل وقت طويل من امتلاك العلماء فهما تفصيليا لآلية الطيران لدى الطيور. ولذلك امتلك البشر، حسب تعبيره، ديناميكيات طيران مختلفة ومع ذلك فلديهم اليوم طائرات بإمكانها التحليق أعلى وأسرع من الطيور.
وقبل عدة عقود، قام كاروانا بمحاولة اختبار برنامج للذكاء الاصطناعي على البعض من البيانات الطبية، لتفسير البعض من الأعراض المرضية ونتائجها.
وكان الهدف من هذه الاختبارات هو حساب مدى خطر الموت الذي قد يتعرض له المريض في يوم معين، بحيث يمكن للأطباء اتخاذ تدابير وقائية تساعد هذا المريض على التماثل للشفاء أو تجنب الإصابة بالأمراض.
وقد سارت الأمور في البداية على ما يرام، إلى أن اكتشف طالب من جامعة بيتسبيرغ شيئا غريبا، عندما كان بصدد معالجة نفس البيانات، سطرا بسطر، عن طريق قواعد خوارزمية أكثر بساطة.
وكان الهدف من هذه التجربة أن يتمكن الطالب فيما بعد من قراءة منطقها في عملية اتخاذ القرار، وكانت إحدى القراءات تقول “الربو جيد بالنسبة إليك إذا كان لديك التهاب رئوي”.
ولكن الأطباء تعجبوا من مثل هذا الخطأ، وقالوا يجب تفاديه. فمن المعروف طبيا أن الرّبو يشكل عاملا خطيرا في الإصابة بالالتهاب الرئوي، حيث أن كليهما يؤثر على الرئتين.
ولا يعرف الأطباء لماذا توصلت الخوارزميات إلى هذه القاعدة، غير الصحيحة. ويقول تاي وان كيم، المتخصص في مجال أخلاقيات الذكاء الاصطناعي في جامعة كارنيغي ميلون في بيتسبورغ، “هنالك في وادي السيليكون نقص في الوعي بهذه المسائل الأخلاقية”.
وتابع وان كيم موضحا “كما أن المؤسسات الدينية والحكومات ليس لديها اطلاع كاف حول هذه التكنولوجيا”. واستنتج وان كيم أنه “بالتالي لا يمكن للمؤسسات الدينية والحكومات المساه²مة في النقاش الدائر، ودورنا نحن هو ردم هذه الهوّة بين الطرفين”.
ومع زيادة الاهتمام باستعمال الذكاء الاصطناعي في مختلف مجالات الحياة اليوم، يساور القلق العديد من الخبراء بسبب عدم انتباه أنظمة الذكاء الاصطناعي إلى التفاصيل عالية الدقة، مثلما يفعل الإنسان.
وفرض الاتحاد الأوروبي، في عام 2018، تشريعات جديدة تعطي الأفراد الحق في الحصول على تفسير للمنطق الكامن وراء قرارات أجهزة الذكاء الاصطناعي.
واستثمرت الذراع البحثية للجيش الأميركي، وهي وكالة مشاريع البحث الدفاعية المتقدمة (داربا)، 70 مليون دولار في برنامج جديد لتفسير وشرح قرارات أجهزة الذكاء الاصطناعي.
وفي الآونة الأخيرة، شهدت الأنظمة الذكية تحسنا كبيرا في ما يتعلق بالدقة، لكنها لم ترتق بعد إلى مستوى ذكاء العقل البشري الذي يختلف كثيرا عن طريقة عمل نماذج التعلم الآلي العميق الحالي، ويبدو أن الارتقاء إلى مستوى الذكاء البشري سيتطلب أمدا غير معروف.
العرب