وجهة النظر الشائعة والمتكررة لأحدث الاختراقات في أبحاث الذكاء الاصطناعي هي أن الآلات الحساسة والذكاء موجودة في الأفق. الآلات تفهم الأوامر الشفهية وتميز الصور وتقود السيارات وتلعب الألعاب بشكل أفضل مما نفعل. إلى متى يمكن أن يمضوا قبل أن يمشوا بيننا؟
يأخذ تقرير البيت الأبيض الجديد عن الذكاء الاصطناعي نظرة متشككة بشكل مناسب لذلك الحلم. وتقول أن العشرين سنة القادمة لن ترى على الأرجح أن الآلات "تعرض ذكاء قابل للتطبيق على نطاق واسع يشبه أو يتجاوز ذكاء البشر" ، على الرغم من أنها تستمر في القول أنه في السنوات القادمة ، "ستصل الآلات وتتجاوز الأداء البشري في المزيد والمزيد من المهام ". لكن افتراضاتها حول كيفية تطوير تلك القدرات غاب عن بعض النقاط المهمة.
بصفتي باحثًا في مجال الذكاء الاصطناعي ، سأعترف أنه كان من الجيد أن يتم تسليط الضوء على مجالي الخاص على أعلى مستوى في الحكومة الأمريكية ، لكن التقرير ركز بشكل حصري تقريبًا على ما أسميه "النوع الممل للذكاء الاصطناعي". رفضت في نصف جملة فرعي لأبحاث الذكاء الاصطناعي ، كيف يمكن للتطور أن يساعد في تطوير أنظمة الذكاء الاصطناعي التي تتطور باستمرار ، وكيف يمكن للنماذج الحسابية أن تساعدنا على فهم كيفية تطور ذكائنا البشري.
يركز التقرير على ما يمكن تسميته بأدوات الذكاء الاصطناعي السائدة: التعلم الآلي والتعلم العميق. هذه هي أنواع التقنيات التي تمكنت من لعب لعبة "Jeopardy!" حسنًا ، وتغلب على أسياد Go البشرية في اللعبة الأكثر تعقيدًا على الإطلاق. هذه الأنظمة الذكية الحالية قادرة على التعامل مع كميات هائلة من البيانات وإجراء حسابات معقدة بسرعة كبيرة. لكنهم يفتقرون إلى عنصر سيكون أساسيًا في بناء الآلات الحساسة التي نتصور وجودها في المستقبل.
نحن بحاجة إلى القيام بأكثر من تعليم الآلات للتعلم. نحن بحاجة للتغلب على الحدود التي تحدد الأنواع الأربعة المختلفة للذكاء الاصطناعي ، والحواجز التي تفصل بيننا والآلات منا.
النوع الأول AI: الآلات التفاعلية
تعد الأنواع الأساسية لأنظمة الذكاء الاصطناعي تفاعلية بحتة ، ولا تملك القدرة على تكوين ذكريات ولا على استخدام التجارب السابقة لإبلاغ القرارات الحالية. Deep Blue ، الكمبيوتر العملاق لشركة IBM في لعب الشطرنج ، والذي تغلب على المعلم العالمي Garry Kasparov في أواخر التسعينات ، هو المثال المثالي لهذا النوع من الآلات.
يمكن لـ Deep Blue التعرف على القطع الموجودة على لوحة الشطرنج ومعرفة كيفية تحرك كل منها. يمكن أن تقوم بتنبؤات حول التحركات التالية لها ولخصمها. ويمكنه اختيار أفضل التحركات من بين الاحتمالات.
ولكن ليس لديها أي مفهوم للماضي ، ولا أي ذكرى لما حدث من قبل. بصرف النظر عن قاعدة الشطرنج التي نادرا ما تستخدم ضد تكرار نفس الحركة ثلاث مرات ، يتجاهل ديب بلو كل شيء قبل اللحظة الحالية. كل ما تفعله هو النظر إلى القطع الموجودة على لوحة الشطرنج كما هي الآن ، والاختيار من الحركات التالية المحتملة.
ينطوي هذا النوع من الذكاء على الكمبيوتر الذي يدرك العالم مباشرة ويتصرف بناءً على ما يراه. لا تعتمد على مفهوم داخلي للعالم. في ورقة بحثية أساسية ، جادل باحث منظمة العفو الدولية رودني بروكس أنه يجب علينا فقط بناء آلات مثل هذه. كان سببه الرئيسي هو أن الأشخاص ليسوا جيدين جدًا في برمجة عوالم محاكاة دقيقة لأجهزة الكمبيوتر لاستخدامها ، ما يسمى في منحة الذكاء الاصطناعي "تمثيل" للعالم.
الآلات الذكية الحالية التي نتعجب منها إما ليس لديها مثل هذا المفهوم للعالم ، أو لديها واحدة محدودة للغاية ومتخصصة لواجباتها الخاصة. لم يكن الابتكار في تصميم Deep Blue هو توسيع نطاق الأفلام الممكنة التي أخذها الكمبيوتر في الاعتبار. بدلاً من ذلك ، وجد المطورون طريقة لتضييق نطاق رؤيته ، والتوقف عن متابعة بعض التحركات المستقبلية المحتملة ، بناءً على كيفية تقييم نتائجهم. بدون هذه القدرة ، كان من الضروري أن يكون Deep Blue حاسوبًا أكثر قوة للتغلب فعليًا على Kasparov.
وبالمثل ، لا يمكن لـ AlphaGo من Google ، الذي هزم كبار خبراء Go البشريين ، تقييم جميع التحركات المستقبلية المحتملة أيضًا. طريقة تحليله أكثر تعقيدًا من Deep Blue's ، باستخدام شبكة عصبية لتقييم تطورات اللعبة.
تعمل هذه الطرق على تحسين قدرة أنظمة الذكاء الاصطناعي على لعب ألعاب معينة بشكل أفضل ، ولكن لا يمكن تغييرها أو تطبيقها بسهولة على مواقف أخرى. هذه التخيلات المحوسبة ليس لها مفهوم للعالم الأوسع - مما يعني أنها لا تستطيع العمل خارج المهام المحددة التي يتم تكليفها ويمكن خداعها بسهولة.
لا يمكنهم المشاركة بشكل تفاعلي في العالم ، بالطريقة التي نتخيلها لأنظمة الذكاء الاصطناعي في يوم من الأيام. بدلاً من ذلك ، ستتصرف هذه الآلات بنفس الطريقة تمامًا في كل مرة تواجه نفس الموقف. يمكن أن يكون هذا جيدًا جدًا للتأكد من أن نظام AI موثوق به: فأنت تريد أن تكون سيارتك المستقلة سائقًا موثوقًا به. ولكن من السيء إذا أردنا أن تتفاعل الآلات حقًا مع العالم وتستجيب له. لن تكون أبسط أنظمة الذكاء الاصطناعي هذه مملة أو مهتمة أو حزينة.
اكتب II AI: ذاكرة محدودة
تحتوي هذه الفئة من النوع الثاني على آلات يمكنها النظر إلى الماضي. تقوم السيارات ذاتية القيادة ببعض هذا بالفعل. على سبيل المثال ، يلاحظون سرعة واتجاه السيارات الأخرى. لا يمكن القيام بذلك في لحظة واحدة فقط ، بل يتطلب تحديد أشياء محددة ومراقبتها بمرور الوقت.
تتم إضافة هذه الملاحظات إلى تمثيلات السيارات ذاتية القيادة المبرمجة مسبقًا للعالم ، والتي تتضمن أيضًا علامات المسار ، وإشارات المرور وعناصر مهمة أخرى ، مثل المنحنيات في الطريق. يتم تضمينها عندما تقرر السيارة متى يجب تغيير الممرات ، لتجنب قطع سائق آخر أو أن تصطدم بها سيارة مجاورة.
لكن هذه المعلومات البسيطة عن الماضي عابرة فقط. لا يتم حفظها كجزء من مكتبة تجارب السيارة التي يمكن أن تتعلم منها ، والطريقة التي يجمع بها السائقون البشر الخبرة على مر السنين خلف عجلة القيادة.
فكيف يمكننا بناء أنظمة الذكاء الاصطناعي التي تبني تمثيلات كاملة ، وتذكر تجاربهم وتعلم كيفية التعامل مع المواقف الجديدة؟ كان بروكس محقاً في أنه من الصعب جداً القيام بذلك. بحثي الخاص في الأساليب المستوحاة من التطور الدارويني يمكن أن يبدأ في تعويض أوجه القصور البشرية من خلال السماح للآلات ببناء تمثيلاتها الخاصة.
النوع الثالث منظمة العفو الدولية: نظرية العقل
قد نتوقف هنا ، ونطلق على هذه النقطة الفجوة المهمة بين الآلات التي نمتلكها والآلات التي سنبنيها في المستقبل. ومع ذلك ، من الأفضل أن تكون أكثر تحديدًا لمناقشة أنواع آلات التمثيل التي يجب أن تشكل ، وما يجب أن تكون عليه.
الآلات في الفئة التالية ، الأكثر تقدمًا ، ليس فقط شكل تمثيلات حول العالم ، ولكن أيضًا عن وكلاء أو كيانات أخرى في العالم. في علم النفس ، يسمى هذا "نظرية العقل" - الفهم بأن الناس والمخلوقات والأشياء في العالم يمكن أن يكون لديهم أفكار ومشاعر تؤثر على سلوكهم.
هذا أمر بالغ الأهمية لكيفية تشكيلنا البشر المجتمعات ، لأنها سمحت لنا أن يكون لدينا تفاعلات اجتماعية. من دون فهم دوافع ونوايا بعضهم البعض ، ودون مراعاة ما يعرفه شخص آخر عني أو عن البيئة ، يكون العمل معًا في أحسن الأحوال صعبًا ، وفي أسوأ الأحوال مستحيلاً.
إذا كانت أنظمة الذكاء الاصطناعي في الواقع تسير بيننا ، فسيتعين عليها أن تكون قادرة على فهم أن لكل منا أفكارًا ومشاعر وتوقعات حول كيفية معالجتنا. وعليهم تعديل سلوكهم وفقًا لذلك.
اكتب IV AI: الوعي الذاتي
الخطوة الأخيرة في تطوير الذكاء الاصطناعي هي بناء أنظمة يمكنها تكوين تمثيلات عن أنفسهم. في نهاية المطاف ، سيتعين علينا نحن باحثو الذكاء الاصطناعي ليس فقط فهم الوعي ، ولكن أيضًا بناء الآلات التي تمتلكه.
هذا ، إلى حد ما ، امتداد لـ "نظرية العقل" التي تمتلكها الذكاء الاصطناعي من النوع الثالث. يسمى الوعي أيضًا "الوعي الذاتي" لسبب ما. ("أريد هذا العنصر" عبارة مختلفة تمامًا عن "أعرف أنني أريد هذا العنصر"). الكائنات الواعية تدرك نفسها ، وتعرف عن حالاتها الداخلية ، وتستطيع التنبؤ بمشاعر الآخرين. نفترض أن شخصًا ما يصرخ خلفنا في حركة المرور غاضب أو غير صبور ، لأن هذا ما نشعر به عندما نتزمع على الآخرين. بدون نظرية العقل ، لم نتمكن من صنع هذه الأنواع من الاستدلالات.
في حين أننا على الأرجح بعيدون عن إنشاء آلات واعية ذاتيًا ، يجب أن نركز جهودنا نحو فهم الذاكرة والتعلم والقدرة على بناء القرارات على التجارب السابقة. هذه خطوة مهمة لفهم الذكاء البشري من تلقاء نفسه. ومن الأهمية بمكان إذا أردنا تصميم أو تطوير آلات أكثر من استثنائية في تصنيف ما يرونه أمامهم.
Arend Hintze ، أستاذ مساعد في علم الأحياء التكاملي وعلوم وهندسة الكمبيوتر ، جامعة ولاية ميشيغان