أصبح الذكاء الاصطناعي (AI) اليوم جزءًا مألوفًا من الحياة الحديثة، حيث يظهر في جميع المجالات من الأعمال إلى الرعاية الصحية. ومع ذلك، قل من يتوقع أن تاريخ تطور الذكاء الاصطناعي بدأ منذ منتصف القرن العشرين ومر بالعديد من التقلبات قبل أن يحقق الإنجازات الثورية التي نراها اليوم.
ستقدم هذه المقالة من INVIAI نظرة مفصلة على تاريخ نشأة وتطور الذكاء الاصطناعي، بدءًا من الأفكار الأولية، مرورًا بفترات "شتاء الذكاء الاصطناعي" الصعبة، وصولاً إلى ثورة التعلم العميق وموجة الذكاء الاصطناعي التوليدي التي انفجرت في عقد 2020.
عقد 1950: بداية الذكاء الاصطناعي
يُعتبر عقد 1950 النقطة الرسمية لانطلاق مجال الذكاء الاصطناعي. في عام 1950، نشر عالم الرياضيات آلان تورينج ورقة بعنوان "Computing Machinery and Intelligence"، اقترح فيها اختبارًا شهيرًا لتقييم قدرة الآلات على التفكير – والذي أصبح يعرف لاحقًا بـ اختبار تورينج. ويُعد هذا الحدث علامة فارقة في تأسيس فكرة أن الحواسيب يمكن أن "تفكر" مثل البشر، مما وضع الأساس النظري للذكاء الاصطناعي.
في عام 1956، ظهر مصطلح "Artificial Intelligence" (الذكاء الاصطناعي) رسميًا. في صيف ذلك العام، نظم عالم الحاسوب جون مكارثي (جامعة دارتموث) مع زملائه مثل مارفن مينسكي، ناثانيال روتشستر (IBM) وكلود شانون مؤتمرًا تاريخيًا في جامعة دارتموث.
اقترح مكارثي مصطلح "الذكاء الاصطناعي" لهذا المؤتمر، ويُعتبر حدث دارتموث 1956 عادةً ميلاد مجال الذكاء الاصطناعي. في هذا المؤتمر، أعلن العلماء الجريئون "أنه يمكن محاكاة كل جوانب التعلم أو الذكاء باستخدام الآلات"، واضعين هدفًا طموحًا لهذا المجال الجديد.
شهد أواخر عقد 1950 العديد من الإنجازات الأولى في الذكاء الاصطناعي. في عام 1951، تم كتابة برامج ذكاء اصطناعي أولية لتشغيلها على حاسوب Ferranti Mark I – ومن الجدير بالذكر برنامج لعبة الداما (checkers) لـ كريستوفر ستراشي وبرنامج الشطرنج لـ ديتريش برينز، مما يمثل المرة الأولى التي تلعب فيها الحواسيب ألعابًا ذهنية.
في عام 1955، طور آرثر صموئيل في IBM برنامجًا للعب الداما قادرًا على التعلم من الخبرة، ليصبح أول نظام تعلم آلي بدائي. في نفس الفترة، كتب آلن نيويل، هربرت سيمون وزملاؤهم برنامج Logic Theorist (1956) – الذي يمكنه إثبات النظريات الرياضية تلقائيًا، مما يثبت أن الآلات يمكنها إجراء استدلال منطقي.
إلى جانب الخوارزميات، ظهرت أدوات ولغات برمجة مخصصة للذكاء الاصطناعي في عقد 1950. في عام 1958، اخترع جون مكارثي لغة Lisp – لغة برمجة مصممة خصيصًا للذكاء الاصطناعي، وسرعان ما أصبحت شائعة في مجتمع تطوير الذكاء الاصطناعي. في نفس العام، قدم عالم النفس فرانك روزنبلات نموذج Perceptron – أول نموذج شبكة عصبية اصطناعية قادر على التعلم من البيانات. ويُعتبر Perceptron الأساس الأولي للشبكات العصبية الحديثة.
في عام 1959، استخدم آرثر صموئيل لأول مرة مصطلح "machine learning" (التعلم الآلي) في ورقة محورية تصف كيفية برمجة الحواسيب لتتعلم وتحسن من أدائها في لعب الداما متجاوزة مبرمجيها. أظهرت هذه التطورات تفاؤلًا قويًا بأن الآلات قد تصل إلى ذكاء بشري خلال بضعة عقود.
عقد 1960: الخطوات الأولى
مع دخول عقد 1960، استمر الذكاء الاصطناعي في التطور مع العديد من المشاريع والاختراعات المهمة. تم إنشاء مختبرات ذكاء اصطناعي في جامعات مرموقة (MIT، ستانفورد، كارنيجي ميلون...)، مما جذب اهتمامًا وتمويلًا للبحث. أصبحت الحواسيب أقوى تدريجيًا، مما سمح بتجربة أفكار ذكاء اصطناعي أكثر تعقيدًا مقارنة بالعقد السابق.
من الإنجازات البارزة ظهور أول برنامج دردشة آلي (chatbot). في عام 1966، أنشأ جوزيف وايزنباوم في MIT برنامج ELIZA، وهو برنامج يحاكي الحوار مع المستخدم بأسلوب طبيب نفسي. كان ELIZA بسيطًا جدًا (يعتمد على التعرف على الكلمات المفتاحية والردود النمطية)، لكن من المدهش أن كثيرين اعتقدوا أن ELIZA تفهم فعلاً ولديها مشاعر. لم يفتح نجاح ELIZA الطريق فقط لـ الدردشات الآلية الحديثة، بل أثار أيضًا تساؤلات حول ميل البشر لإسناد المشاعر للآلات.
بالتوازي، ظهر أول روبوت ذكي. بين 1966 و1972، طور معهد ستانفورد للأبحاث (SRI) روبوت Shakey – أول روبوت متنقل قادر على الإدراك الذاتي والتخطيط الذاتي بدلاً من تنفيذ أوامر منفردة فقط. كان Shakey مزودًا بحساسات وكاميرات للتنقل وتحليل المهام إلى خطوات أساسية مثل إيجاد الطريق، دفع العوائق، وتسلق المنحدرات... وكان هذا أول نظام يدمج بشكل كامل الرؤية الحاسوبية، معالجة اللغة الطبيعية، والتخطيط في روبوت، مما وضع الأساس لمجال روبوتات الذكاء الاصطناعي لاحقًا.
تأسست الجمعية الأمريكية للذكاء الاصطناعي (AAAI) في هذه الفترة (سابقًا مؤتمر IJCAI 1969 وتأسيس AAAI في 1980) لتجمع الباحثين في الذكاء الاصطناعي، مما يعكس نمو مجتمع الذكاء الاصطناعي.
إلى جانب ذلك، شهد عقد 1960 تطور أنظمة الخبراء والخوارزميات الأساسية. في عام 1965، طور إدوارد فيغنباوم وزملاؤه نظام DENDRAL – أول نظام خبير في العالم، مصمم لمساعدة الكيميائيين في تحليل بنية الجزيئات من بيانات التجارب، من خلال محاكاة معرفة وتفكير الخبراء الكيميائيين. أظهر نجاح DENDRAL أن الحواسيب يمكن أن تدعم حل المشكلات المتخصصة المعقدة، مما مهد الطريق لـ انفجار أنظمة الخبراء في عقد 1980.
علاوة على ذلك، تم تطوير لغة البرمجة Prolog (المخصصة للذكاء الاصطناعي المنطقي) في عام 1972 بجامعة مرسيليا، مما فتح نهجًا جديدًا للذكاء الاصطناعي قائمًا على المنطق والقوانين العلائقية. ومن المعالم المهمة الأخرى في عام 1969، نشر مارفن مينسكي وسيمور بابيرت كتاب "Perceptrons" الذي أظهر القيود الرياضية لنموذج perceptron أحادي الطبقة (غير قادر على حل مسألة XOR البسيطة)، مما أدى إلى شكوك كبيرة حول مجال الشبكات العصبية.
فقد العديد من الممولين الثقة في قدرة الشبكات العصبية على التعلم، وبدأ تراجع أبحاث الشبكات العصبية في أواخر عقد 1960. وكان هذا أول مؤشر على تباطؤ الحماس في مجال الذكاء الاصطناعي بعد أكثر من عقد من التفاؤل.
عقد 1970: التحديات و"شتاء الذكاء الاصطناعي" الأول
مع دخول عقد 1970، واجه مجال الذكاء الاصطناعي تحديات واقعية: لم تتحقق العديد من التوقعات الكبيرة للعقد السابق بسبب محدودية القدرة الحاسوبية، البيانات، والمعرفة العلمية. ونتيجة لذلك، بدأت الثقة والتمويل في الذكاء الاصطناعي بالتراجع بشدة في منتصف السبعينيات – وهي الفترة التي عُرفت لاحقًا بـ "شتاء الذكاء الاصطناعي" الأول.
في عام 1973، أضاف السير جيمس لايتهايل المزيد من الوقود للنار عندما نشر تقريرًا بعنوان "Artificial Intelligence: A General Survey" ينتقد بشدة تقدم أبحاث الذكاء الاصطناعي. خلص تقرير لايتهايل إلى أن الباحثين في الذكاء الاصطناعي "وعدوا بالكثير وحققوا القليل جدًا"، خاصةً منتقدًا عدم قدرة الحواسيب على فهم اللغة أو الرؤية كما كان متوقعًا.
أدى هذا التقرير إلى تخفيض الحكومة البريطانية معظم ميزانية الذكاء الاصطناعي. وفي الولايات المتحدة، حولت وكالات التمويل مثل DARPA استثماراتها إلى مشاريع أكثر واقعية. ونتيجة لذلك، بين منتصف السبعينيات وبداية الثمانينيات، دخل مجال الذكاء الاصطناعي في حالة تجميد شبه كامل، مع قلة الإنجازات ونقص التمويل الجاد. وهذا هو شتاء الذكاء الاصطناعي – مصطلح أُطلق في 1984 لوصف فترة "التجميد" الطويلة لأبحاث الذكاء الاصطناعي.
رغم الصعوبات، شهد عقد 1970 بعض الإنجازات المضيئة في أبحاث الذكاء الاصطناعي. استمرت أنظمة الخبراء في التطور في الأوساط الأكاديمية، مثل MYCIN (1974) – نظام خبير للاستشارات الطبية طوره تيد شورتليف في ستانفورد، يساعد في تشخيص التهابات الدم. استخدم MYCIN مجموعة قواعد استنتاجية لتقديم توصيات علاجية بدقة عالية، مما أثبت القيمة العملية لأنظمة الخبراء في مجالات متخصصة.
بالإضافة إلى ذلك، بدأت لغة Prolog (الصادرة عام 1972) تُستخدم في معالجة اللغة وحل مسائل المنطق، وأصبحت أداة مهمة للذكاء الاصطناعي القائم على المنطق. في مجال الروبوتات، نجح فريق بحث في ستانفورد عام 1979 في تطوير سيارة ستانفورد ذاتية القيادة – أول سيارة روبوتية تتحرك عبر غرفة مليئة بالعقبات دون الحاجة إلى تحكم عن بعد. على الرغم من صغر الإنجاز، فقد وضع هذا الأساس لأبحاث السيارات ذاتية القيادة لاحقًا.
بشكل عام، في أواخر عقد 1970، دخلت أبحاث الذكاء الاصطناعي حالة ركود. اضطر العديد من علماء الذكاء الاصطناعي إلى التحول إلى مجالات ذات صلة مثل التعلم الآلي الإحصائي، الروبوتات، والرؤية الحاسوبية لمواصلة عملهم.
لم يعد الذكاء الاصطناعي "النجم الساطع" كما في العقد السابق، بل أصبح مجالًا ضيقًا مع تقدم محدود. ذكّر هذا العقد الباحثين بأن الذكاء الاصطناعي أكثر تعقيدًا مما كان متوقعًا، ويتطلب مناهج جديدة أكثر جوهرية بدلًا من الاعتماد فقط على محاكاة الاستدلال.
عقد 1980: أنظمة الخبراء – الصعود والهبوط
مع بداية عقد 1980، دخل الذكاء الاصطناعي مرة أخرى مرحلة انتعاش – أحيانًا تسمى "نهضة الذكاء الاصطناعي". جاء هذا الدفع من النجاحات التجارية لأنظمة الخبراء وعودة اهتمام الاستثمار من الحكومات والشركات. أصبحت الحواسيب أقوى، واعتقد المجتمع أنه يمكن تحقيق أفكار الذكاء الاصطناعي ضمن نطاق ضيق.
كان الدافع الكبير هو أنظمة الخبراء التجارية. في عام 1981، أطلقت شركة Digital Equipment Corporation نظام XCON (Expert Configuration) – نظام خبير يساعد في تكوين أنظمة الحاسوب، موفرًا للشركة عشرات الملايين من الدولارات. دفع نجاح XCON موجة تطوير أنظمة الخبراء في الشركات لدعم اتخاذ القرار. استثمرت العديد من شركات التكنولوجيا في إنشاء "أصداف" أنظمة الخبراء (expert system shells) لتمكين الشركات من تخصيص أنظمتها الخاصة.
لغة Lisp خرجت من المختبرات مع ظهور آلات Lisp (Lisp machines) – أجهزة مخصصة لتشغيل برامج الذكاء الاصطناعي. في أوائل الثمانينيات، ظهرت العديد من شركات ناشئة لأجهزة Lisp (مثل Symbolics، Lisp Machines Inc.)، مما خلق طفرة استثمارية واعتُبر "عصر آلات Lisp" للذكاء الاصطناعي.
كما استثمرت الحكومات الكبرى بقوة في الذكاء الاصطناعي خلال هذه الفترة. في عام 1982، أطلقت اليابان مشروع الجيل الخامس من الحواسيب بميزانية 850 مليون دولار لتطوير حواسيب ذكية تستخدم المنطق وProlog. بالمثل، زادت الولايات المتحدة (DARPA) تمويل أبحاث الذكاء الاصطناعي في سياق المنافسة التكنولوجية مع اليابان. ركزت المشاريع الممولة على أنظمة الخبراء، معالجة اللغة الطبيعية، وقواعد المعرفة، مع توقعات بإنشاء حواسيب ذكية متفوقة.
وسط موجة التفاؤل الجديدة، شهد مجال الشبكات العصبية الاصطناعية أيضًا انتعاشًا هادئًا. في عام 1986، نشر الباحث جيفري هينتون وزملاؤه خوارزمية Backpropagation (الانتشار العكسي) – طريقة فعالة لتدريب الشبكات العصبية متعددة الطبقات، تعالج القيود التي أشار إليها كتاب Perceptrons (1969).
في الواقع، تم تصور مبدأ الانتشار العكسي منذ عام 1970، لكن استُغل بشكل كامل في منتصف الثمانينيات بفضل زيادة قوة الحواسيب. أشعلت خوارزمية backpropagation موجة ثانية من أبحاث الشبكات العصبية. في هذه المرحلة، بدأ الثقة في قدرة الشبكات العصبية العميقة على تعلم نماذج معقدة، مما مهد الطريق لـ التعلم العميق (deep learning) لاحقًا.
شارك باحثون شباب مثل يان ليكون (فرنسا) ويوشوا بنجيو (كندا) في حركة الشبكات العصبية هذه، وطوروا نماذج ناجحة للتعرف على الكتابة اليدوية في أواخر العقد.
ومع ذلك، لم تستمر النهضة الثانية للذكاء الاصطناعي طويلًا. في أواخر الثمانينيات، دخل المجال مرة أخرى في أزمة بسبب عدم تحقيق النتائج المتوقعة. على الرغم من فائدة أنظمة الخبراء في تطبيقات ضيقة، إلا أنها أظهرت عيوبًا: كانت جامدة، صعبة التوسع، وتتطلب تحديثًا يدويًا مستمرًا للمعرفة.
فشلت العديد من مشاريع أنظمة الخبراء الكبرى، وانهيار سوق آلات Lisp بسبب المنافسة من الحواسيب الشخصية الأرخص. في عام 1987، كادت صناعة آلات Lisp تنهار تمامًا. تم تقليص استثمارات الذكاء الاصطناعي الثانية بشدة في أواخر الثمانينيات، مما أدى إلى شتاء الذكاء الاصطناعي الثاني. وقد تحقق مصطلح "AI winter" الذي أُطلق في 1984 عندما أغلقت العديد من شركات الذكاء الاصطناعي أبوابها بين 1987 و1988. مرة أخرى، دخل المجال في دورة تراجع، واضطر الباحثون إلى تعديل توقعاتهم واستراتيجياتهم.
باختصار، سجل عقد 1980 دورة من الازدهار والانحدار للذكاء الاصطناعي. ساعدت أنظمة الخبراء الذكاء الاصطناعي على الولوج إلى الصناعة لأول مرة، لكنها أظهرت حدود النهج القائم على القواعد الثابتة. ومع ذلك، أنتج هذا العقد العديد من الأفكار والأدوات القيمة: من خوارزميات الشبكات العصبية إلى أول قواعد المعرفة. كما تعلم الباحثون دروسًا مهمة حول تجنب المبالغة في التوقعات، مما مهد الطريق لمسار أكثر حذرًا في العقد التالي.
عقد 1990: عودة الذكاء الاصطناعي إلى الواقع
بعد شتاء الذكاء الاصطناعي في أواخر الثمانينيات، استعادت الثقة في الذكاء الاصطناعي تدريجيًا خلال عقد 1990 بفضل سلسلة من التقدمات العملية. بدلاً من التركيز على الذكاء الاصطناعي القوي (الذكاء الاصطناعي العام الطموح)، ركز الباحثون على الذكاء الاصطناعي الضعيف – أي تطبيق تقنيات الذكاء الاصطناعي على مشكلات محددة حيث بدأت النتائج تظهر بشكل ملحوظ. تطورت العديد من التخصصات الفرعية للذكاء الاصطناعي التي انفصلت عن المجال العام (مثل التعرف على الصوت، الرؤية الحاسوبية، خوارزميات البحث، قواعد المعرفة...) بشكل مستقل وبدأت تُستخدم على نطاق واسع.
كان من المعالم المهمة التي فتحت باب النجاحات العملية في مايو 1997، عندما هزم حاسوب Deep Blue من IBM بطل العالم في الشطرنج غاري كاسباروف في مباراة رسمية. كانت هذه المرة الأولى التي يفوز فيها نظام ذكاء اصطناعي على بطل عالمي في لعبة ذهنية معقدة، مما أحدث صدمة في الأوساط العامة.
أظهر انتصار Deep Blue – الذي اعتمد على خوارزمية بحث brute-force مع قاعدة بيانات افتتاحيات – القوة الحاسوبية الهائلة والتقنيات المتخصصة التي يمكن أن تساعد الآلات على التفوق على البشر في مهام محددة. مثل هذا الحدث كان بمثابة عودة مذهلة للذكاء الاصطناعي إلى الإعلام، مما أثار حماس البحث بعد سنوات من الركود.
لم يقتصر تقدم الذكاء الاصطناعي في التسعينيات على الشطرنج فقط، بل حقق تقدمًا في مجالات متعددة. في الألعاب، حل برنامج Chinook عام 1994 لعبة الداما (cờ đam) بشكل كامل على مستوى لا يُهزم، مما أجبر بطل العالم على الاعتراف بعدم إمكانية الفوز على الحاسوب.
في مجال التعرف على الكلام، ظهرت أنظمة تجارية مثل Dragon Dictate (1990)، وبحلول نهاية العقد، أصبحت برامج التعرف على الصوت تُستخدم على نطاق واسع في الحواسيب الشخصية. كما تم دمج التعرف على الكتابة اليدوية في أجهزة PDA (المساعدات الرقمية الشخصية) بدقة متزايدة.
بدأت تطبيقات الرؤية الحاسوبية (machine vision) تُستخدم في الصناعة، من فحص المكونات إلى أنظمة الأمن. حتى الترجمة الآلية – التي كانت مصدر إحباط في الستينيات – شهدت تقدمًا ملحوظًا مع نظام SYSTRAN الذي دعم الترجمة التلقائية متعددة اللغات للاتحاد الأوروبي.
اتجهت أبحاث التعلم الآلي الإحصائي والشبكات العصبية إلى استغلال البيانات الضخمة. شهد أواخر التسعينيات انفجار الإنترنت، مما أدى إلى تدفق هائل من البيانات الرقمية. استخدمت تقنيات تنقيب البيانات (data mining) وخوارزميات التعلم الآلي مثل أشجار القرار، الشبكات العصبية، ونماذج ماركوف المخفية لتحليل بيانات الويب، وتحسين محركات البحث، وتخصيص المحتوى.
مصطلح "علم البيانات" لم يكن شائعًا بعد، لكن في الواقع تغلغل الذكاء الاصطناعي في أنظمة البرمجيات لتحسين الأداء من خلال التعلم من بيانات المستخدم (مثل فلترة البريد المزعج، اقتراح المنتجات في التجارة الإلكترونية). ساعدت هذه النجاحات الصغيرة والعملية الذكاء الاصطناعي على استعادة مصداقيته لدى الشركات والمجتمع.
يمكن القول إن عقد 1990 كان فترة تقدم هادئ لكنه ثابت للذكاء الاصطناعي. بدلاً من التصريحات الطموحة عن ذكاء يشبه الإنسان، ركز المطورون على حل مشكلات متخصصة. ونتيجة لذلك، ظهر الذكاء الاصطناعي في العديد من المنتجات التقنية في نهاية القرن العشرين دون أن يلاحظ المستخدمون ذلك – من الألعاب والبرمجيات إلى الأجهزة الإلكترونية. كما أعد هذا العقد الأساس المهم للبيانات والخوارزميات التي مهدت لانفجار الذكاء الاصطناعي في العقد التالي.
عقد 2000: التعلم الآلي وعصر البيانات الضخمة
مع دخول القرن الحادي والعشرين، شهد الذكاء الاصطناعي تحولًا قويًا بفضل الإنترنت وعصر البيانات الضخمة. شهدت سنوات 2000 انفجارًا في الحواسيب الشخصية، شبكات الإنترنت، وأجهزة الاستشعار، مما خلق كميات هائلة من البيانات. أصبح التعلم الآلي – وخاصة طرق التعلم المراقب – الأداة الأساسية لاستغلال هذا "النفط الجديد" من البيانات.
أصبح الشعار "البيانات هي النفط الجديد" رائجًا، لأن كلما زادت البيانات، أصبحت خوارزميات الذكاء الاصطناعي أكثر دقة. بدأت شركات التكنولوجيا الكبرى في بناء أنظمة لجمع وتعلم من بيانات المستخدمين لتحسين منتجاتها: جوجل مع محرك البحث الذكي، أمازون مع اقتراحات الشراء حسب السلوك، ونتفليكس مع خوارزميات التوصية. أصبح الذكاء الاصطناعي "الدماغ" الخفي وراء المنصات الرقمية.
في عام 2006، شهد حدثًا مهمًا: أطلقت فاي-فاي لي، أستاذة في جامعة ستانفورد، مشروع ImageNet – قاعدة بيانات ضخمة تضم أكثر من 14 مليون صورة مع تسميات مفصلة. قدمت ImageNet في 2009، وأصبحت المجموعة المعيارية لتدريب وتقييم خوارزميات الرؤية الحاسوبية، خاصة في التعرف على الأشياء في الصور.
وُصفت ImageNet بأنها "منشط" دفع أبحاث التعلم العميق لاحقًا، حيث وفرت بيانات كافية لنماذج التعلم العميق المعقدة. وأصبح تحدي ImageNet السنوي منذ 2010 منصة تنافسية مهمة لتطوير أفضل خوارزميات التعرف على الصور. ومن هذا المنطلق، حدث تحول تاريخي في الذكاء الاصطناعي عام 2012 (انظر عقد 2010).
في العقد 2000، حقق الذكاء الاصطناعي أيضًا العديد من الإنجازات التطبيقية البارزة:
- في 2005، فازت سيارة ستانفورد ذاتية القيادة (المعروفة بـ "Stanley") بـ تحدي DARPA الكبير – مسابقة سيارات ذاتية القيادة عبر الصحراء لمسافة 212 كم. أكملت ستانلي المسافة في 6 ساعات و53 دقيقة، فاتحة عصرًا جديدًا لـ السيارات ذاتية القيادة وحصلت على استثمارات كبيرة من جوجل وأوبر لاحقًا.
- ظهور المساعدين الافتراضيين على الهواتف: في 2008، أتاح تطبيق Google Voice Search البحث الصوتي على iPhone؛ وفي 2011، أطلقت Apple Siri – مساعد صوتي مدمج في iPhone يستخدم تقنيات التعرف على الصوت وفهم اللغة الطبيعية، مما يمثل أول وصول واسع النطاق للذكاء الاصطناعي للجمهور.
- في 2011، هزم الحاسوب العملاق IBM Watson بطلين في لعبة الأسئلة Jeopardy! على التلفزيون الأمريكي. أظهر Watson قدرة على فهم الأسئلة الإنجليزية المعقدة والوصول إلى كميات ضخمة من البيانات للعثور على الإجابات، مما يبرز قوة الذكاء الاصطناعي في معالجة اللغة الطبيعية والبحث عن المعلومات. وأثبت هذا الانتصار أن الحواسيب يمكن أن "تفهم" وترد بذكاء في مجال معرفي واسع.
- الشبكات الاجتماعية والويب: قدم فيسبوك ميزة التعرف التلقائي على الوجوه ووضع العلامات على الصور (حوالي 2010)، باستخدام خوارزميات التعلم الآلي على بيانات الصور. استخدمت يوتيوب وجوجل الذكاء الاصطناعي لفلترة المحتوى واقتراح الفيديوهات. تعمل تقنيات التعلم الآلي بهدوء في الخلفية لتحسين تجربة المستخدم، غالبًا دون أن يدرك المستخدم ذلك.
يمكن القول إن الدافع الرئيسي للذكاء الاصطناعي في عقد 2000 كان البيانات والتطبيقات. تم تطبيق خوارزميات التعلم الآلي التقليدية مثل الانحدار، SVM، أشجار القرار على نطاق واسع، محققة نتائج عملية.
تحول الذكاء الاصطناعي من موضوع بحث إلى قطاع صناعي قوي: أصبح "الذكاء الاصطناعي للأعمال" موضوعًا ساخنًا، مع العديد من الشركات التي تقدم حلول ذكاء اصطناعي للإدارة، المالية، التسويق... في 2006، ظهر مصطلح "الذكاء الاصطناعي المؤسسي" (enterprise AI) لتسليط الضوء على تطبيق الذكاء الاصطناعي لزيادة كفاءة الأعمال واتخاذ القرار.
شهد أواخر العقد 2000 أيضًا بداية ثورة التعلم العميق. استمرت أبحاث الشبكات العصبية متعددة الطبقات في التقدم. في 2009، أعلن فريق أندرو نج في جامعة ستانفورد استخدام GPU (وحدة معالجة الرسومات) لتدريب الشبكات العصبية بسرعة تفوق 70 مرة سرعة المعالجات المركزية التقليدية.
قوة الحوسبة المتوازية لوحدات GPU كانت مناسبة جدًا لحسابات المصفوفات في الشبكات العصبية، مما مهد الطريق لتدريب نماذج التعلم العميق الكبيرة في عقد 2010. العوامل الأخيرة – البيانات الضخمة، الأجهزة القوية، والخوارزميات المحسنة – كانت جاهزة، فقط تنتظر اللحظة المناسبة لانطلاق ثورة الذكاء الاصطناعي الجديدة.
عقد 2010: ثورة التعلم العميق (Deep Learning)
إذا كان هناك عقد يمكن القول فيه إن الذكاء الاصطناعي "أقلع" فعلاً، فهو عقد 2010. مع الأسس التي وضعتها البيانات والأجهزة في العقد السابق، دخل الذكاء الاصطناعي عصر التعلم العميق – نماذج الشبكات العصبية متعددة الطبقات التي حققت إنجازات مذهلة، حطمت كل الأرقام القياسية في العديد من مهام الذكاء الاصطناعي المختلفة. أصبح حلم الآلات التي "تتعلم مثل الدماغ البشري" حقيقة جزئية من خلال خوارزميات التعلم العميق.
حدث التحول التاريخي في 2012، عندما شارك فريق جيفري هينتون وتلاميذه (أليكس كريزيفسكي، إيليا سوتسكيفر) في تحدي ImageNet. كان نموذجهم – المعروف بـ AlexNet – شبكة عصبية تلافيفية مكونة من 8 طبقات تم تدريبها على GPU. وحقق AlexNet دقة فائقة، مخفضًا معدل الخطأ في التعرف على الصور إلى النصف مقارنةً بالفريق الثاني.
أثار هذا الانتصار المذهل صدمة في مجتمع الرؤية الحاسوبية، ووضع بداية "حمى التعلم العميق" في الذكاء الاصطناعي. خلال السنوات التالية، استُبدلت معظم طرق التعرف على الصور التقليدية بنماذج التعلم العميق.
أكد نجاح AlexNet أنه مع توفر بيانات كافية (ImageNet) وحوسبة قوية (GPU)، يمكن للشبكات العصبية العميقة التفوق على تقنيات الذكاء الاصطناعي الأخرى. تم استقطاب هينتون وزملائه بسرعة إلى جوجل، وأصبح التعلم العميق الموضوع الأكثر سخونة في أبحاث الذكاء الاصطناعي منذ ذلك الحين.
لم يقتصر التعلم العميق على ثورة الرؤية الحاسوبية فقط، بل امتد إلى معالجة الصوت، اللغة، والعديد من المجالات الأخرى. في 2012، أحدث مشروع Google Brain (بقيادة أندرو نج وجيف دين) ضجة عندما أعلن عن شبكة عصبية عميقة تعلمت بنفسها مشاهدة فيديوهات يوتيوب واكتشفت مفهوم "القط" دون تسميات مسبقة.
بين 2011 و2014، ظهرت المساعدات الافتراضية مثل Siri، Google Now (2012)، وMicrosoft Cortana (2014)، مستفيدة من تقدم التعرف على الصوت وفهم اللغة الطبيعية. على سبيل المثال، حققت أنظمة التعرف على الصوت من مايكروسوفت دقة تعادل البشر في 2017، بفضل استخدام الشبكات العصبية العميقة لنمذجة الصوت. في الترجمة، تحولت جوجل ترانسليت في 2016 إلى بنية الترجمة الآلية العصبية (NMT)، محققة تحسنًا ملحوظًا مقارنة بالطرق الإحصائية القديمة.
حدث مهم آخر هو انتصار الذكاء الاصطناعي في لعبة غو – كان يُعتبر هدفًا بعيد المنال. في مارس 2016، هزم برنامج AlphaGo من DeepMind (جوجل) بطل العالم في غو لي سيدول بنتيجة 4-1. تعد لعبة غو أكثر تعقيدًا من الشطرنج بكثير، مع عدد ضخم من الاحتمالات التي لا يمكن استكشافها بالقوة الغاشمة. جمع AlphaGo بين التعلم العميق وخوارزمية بحث مونت كارلو، متعلمًا من ملايين مباريات البشر ولعب ضد نفسه.
قُورن هذا الانتصار بمعركة Deep Blue وكاسباروف 1997، مؤكدًا أن الذكاء الاصطناعي يمكن أن يتفوق على البشر في المجالات التي تتطلب حدسًا وخبرة. بعد AlphaGo، واصلت DeepMind تطوير AlphaGo Zero (2017) الذي تعلم اللعب من القواعد فقط دون بيانات بشرية، وهزم النسخة القديمة 100-0. أظهر هذا إمكانات التعلم المعزز (reinforcement learning) المدمج مع التعلم العميق لتحقيق أداء فائق.
في 2017، ظهر اختراع ثوري في معالجة اللغة: بنية Transformer. أعلن باحثو جوجل عن نموذج Transformer في ورقة "Attention Is All You Need"، مقترحين آلية الانتباه الذاتي (self-attention) التي تسمح للنموذج بفهم العلاقات بين الكلمات في الجملة دون الحاجة إلى التسلسل الزمني.
ساعد Transformer في تدريب نماذج اللغة الكبيرة (LLM) بكفاءة أكبر مقارنة بالهياكل التسلسلية السابقة (RNN/LSTM). ومنذ ذلك الحين، ظهرت سلسلة من نماذج اللغة المبنية على Transformer: مثل BERT (جوجل، 2018) لفهم السياق، وخاصة GPT (Generative Pre-trained Transformer) من OpenAI الذي ظهر لأول مرة في 2018.
حققت هذه النماذج نتائج متفوقة في مهام اللغة مثل التصنيف، الإجابة على الأسئلة، وتوليد النصوص. وضع Transformer الأساس لسباق نماذج اللغة الضخمة في عقد 2020.
في أواخر العقد 2010، ظهر الذكاء الاصطناعي التوليدي (generative AI) – نماذج ذكاء اصطناعي قادرة على إنشاء محتوى جديد. في 2014، اخترع إيان جودفيلو وزملاؤه نموذج GAN (Generative Adversarial Network)، الذي يتكون من شبكتين عصبيتين متنافستين لإنشاء بيانات مزيفة تشبه الحقيقية.
اشتهر GAN بقدرته على إنشاء صور شخصية مزيفة واقعية جدًا (deepfake). بالتوازي، تم تطوير نماذج autoencoder المتغيرة (VAE) ونقل الأنماط (style transfer) التي تسمح بتغيير الصور والفيديوهات بأساليب جديدة.
في 2019، قدمت OpenAI نموذج GPT-2 – نموذج توليد نصوص بـ 1.5 مليار معلمة، لفت الانتباه بقدرته على إنشاء نصوص طويلة وطبيعية تشبه الإنسان. أصبح واضحًا أن الذكاء الاصطناعي لم يعد يقتصر على التصنيف أو التنبؤ، بل يمكنه الإبداع في المحتوى بشكل مقنع.
حقق الذكاء الاصطناعي في عقد 2010 قفزات هائلة تفوق التوقعات. العديد من المهام التي كانت تعتبر "مستحيلة" للحواسيب أصبحت ممكنة أو متفوقة على البشر: التعرف على الصور، التعرف على الصوت، الترجمة، الألعاب المعقدة...
الأهم من ذلك، بدأ الذكاء الاصطناعي يتغلغل في الحياة اليومية: من كاميرات الهواتف الذكية التي تتعرف تلقائيًا على الوجوه، إلى المساعدين الافتراضيين في مكبرات الصوت الذكية (أليكسا، جوجل هوم)، وحتى اقتراحات المحتوى على الشبكات الاجتماعية التي يديرها الذكاء الاصطناعي. كان هذا حقًا عصر انفجار الذكاء الاصطناعي، حيث وصفه البعض بأنه "الكهرباء الجديدة" – تكنولوجيا أساسية تغير كل الصناعات.
عقد 2020: انفجار الذكاء الاصطناعي التوليدي والاتجاهات الجديدة
في غضون سنوات قليلة من بداية عقد 2020، شهد الذكاء الاصطناعي انفجارًا غير مسبوق، مدفوعًا بشكل رئيسي بصعود الذكاء الاصطناعي التوليدي (Generative AI) ونماذج اللغة الكبيرة (LLM). ساعدت هذه الأنظمة الذكاء الاصطناعي على الوصول مباشرة إلى مئات الملايين من المستخدمين، محدثة موجة من التطبيقات الإبداعية وأثارت نقاشات اجتماعية واسعة حول تأثير الذكاء الاصطناعي.
في يونيو 2020، قدمت OpenAI نموذج GPT-3 – نموذج لغة ضخم بـ 175 مليار معلمة، أكبر بعشر مرات من أكبر نموذج سابق. أثار GPT-3 دهشة العالم بقدرته على كتابة نصوص، الإجابة على الأسئلة، تأليف الشعر، وكتابة الأكواد البرمجية... بشكل يشبه الإنسان، رغم وجود بعض الأخطاء الواقعية. أظهر قوة GPT-3 أن حجم النموذج مع كمية هائلة من بيانات التدريب يمكن أن يحقق قدرة لغوية سلسة غير مسبوقة. ظهرت تطبيقات مبنية على GPT-3 بسرعة، من كتابة المحتوى التسويقي، المساعدات البريدية، إلى دعم البرمجة.
في نوفمبر 2022، خرج الذكاء الاصطناعي إلى الواجهة العامة مع إطلاق ChatGPT – دردشة تفاعلية طورتها OpenAI تعتمد على نموذج GPT-3.5. في خمسة أيام فقط، وصل ChatGPT إلى مليون مستخدم، وخلال شهرين تجاوز 100 مليون مستخدم، ليصبح أسرع تطبيق استهلاكي نموًا في التاريخ.
يتمتع ChatGPT بقدرة على الإجابة بطلاقة على العديد من الأسئلة، من كتابة النصوص، حل المسائل، إلى تقديم الاستشارات... مما أدهش المستخدمين بـ ذكائه ومرونته. يمثل انتشار ChatGPT أول استخدام واسع النطاق للذكاء الاصطناعي كأداة إبداعية، وبدأ سباق الذكاء الاصطناعي بين "العمالقة" التكنولوجيين.
في بداية 2023، دمجت مايكروسوفت GPT-4 (النموذج التالي لـ OpenAI) في محرك البحث Bing، بينما أطلقت جوجل دردشة Bard باستخدام نموذج LaMDA الخاص بها. ساعد هذا التنافس على توسيع وتحسين تكنولوجيا الذكاء الاصطناعي التوليدي بسرعة.
إلى جانب النصوص، تطور الذكاء الاصطناعي التوليدي في مجالات الصور والصوت بشكل كبير. في 2022، ظهرت نماذج text-to-image مثل DALL-E 2 (OpenAI)، Midjourney، وStable Diffusion التي تسمح للمستخدمين بإدخال وصف نصي والحصول على صور مرسومة بواسطة الذكاء الاصطناعي. جودة الصور كانت مذهلة وواقعية، فاتحة عصرًا جديدًا لـ الإبداع الرقمي.
لكن هذا أيضًا أثار تحديات حول حقوق النشر والأخلاقيات، حيث يتعلم الذكاء الاصطناعي من أعمال الفنانين وينتج منتجات مشابهة. في الصوت، يمكن لنماذج text-to-speech الحديثة تحويل النص إلى صوت يشبه الإنسان تمامًا، بل تقليد أصوات المشاهير، مما يثير مخاوف من deepfake الصوتي.
في 2023، شهدنا أولى القضايا القانونية المتعلقة بحقوق بيانات تدريب الذكاء الاصطناعي – مثل دعوى Getty Images ضد Stability AI (مطور Stable Diffusion) لاستخدامه ملايين الصور المحمية بحقوق دون إذن. هذا يبرز الجانب السلبي لانفجار الذكاء الاصطناعي: قضايا قانونية، أخلاقية واجتماعية بدأت تظهر، مما يتطلب اهتمامًا جادًا.
وسط حمى الذكاء الاصطناعي، عبر مجتمع الخبراء في 2023 عن قلقهم من مخاطر الذكاء الاصطناعي القوي. وقع أكثر من 1000 شخصية في مجال التكنولوجيا (منهم إيلون ماسك، ستيف وزنياك، وباحثون في الذكاء الاصطناعي...) رسالة مفتوحة تدعو إلى وقف تدريب نماذج ذكاء اصطناعي أكبر من GPT-4 لمدة 6 أشهر، خوفًا من تطور سريع خارج السيطرة.
في نفس العام، حذر رواد مثل جيفري هينتون (أحد "آباء" التعلم العميق) من خطر الذكاء الاصطناعي الذي يتجاوز السيطرة البشرية. كما أتمت اللجنة الأوروبية بسرعة قانون الذكاء الاصطناعي (EU AI Act) – أول تنظيم شامل للذكاء الاصطناعي في العالم، المتوقع تطبيقه من 2024. يحظر القانون أنظمة الذكاء الاصطناعي التي تعتبر "مخاطر غير مقبولة" (مثل المراقبة الجماعية، التقييم الاجتماعي) ويطالب بالشفافية للنماذج العامة.
في الولايات المتحدة، أصدرت عدة ولايات قوانين تحد من استخدام الذكاء الاصطناعي في مجالات حساسة (التوظيف، المالية، الحملات الانتخابية، وغيرها). من الواضح أن العالم يسرع في وضع أطر قانونية وأخلاقية للذكاء الاصطناعي، وهو أمر حتمي مع تأثير التكنولوجيا المتزايد.
بشكل عام، يشهد عقد 2020 انفجارًا في الذكاء الاصطناعي تقنيًا وشعبيًا. أصبحت أدوات الذكاء الاصطناعي الجديدة مثل ChatGPT، DALL-E، Midjourney... مألوفة، تساعد ملايين الأشخاص على الإبداع والعمل بكفاءة بطرق غير مسبوقة.
في الوقت نفسه، سباق الاستثمار في الذكاء الاصطناعي يشهد نشاطًا كبيرًا: من المتوقع أن تتجاوز الإنفاق على الذكاء الاصطناعي التوليدي 1 تريليون دولار في السنوات القادمة. كما يتغلغل الذكاء الاصطناعي بشكل متزايد في قطاعات مثل الرعاية الصحية (دعم تشخيص الصور، اكتشاف الأدوية)، المالية (تحليل المخاطر، كشف الاحتيال)، التعليم (مساعدات تعليمية افتراضية، تخصيص المحتوى)، النقل (المركبات ذاتية القيادة المتقدمة)، الدفاع (اتخاذ القرارات التكتيكية)، وغيرها.
يمكن القول إن الذكاء الاصطناعي اليوم يشبه الكهرباء أو الإنترنت – بنية تحتية تكنولوجية ترغب كل الشركات والحكومات في استغلالها. ويتفائل العديد من الخبراء بأن الذكاء الاصطناعي سيواصل تحقيق قفزات نوعية في الإنتاجية وجودة الحياة إذا تم تطويره وإدارته بشكل صحيح.
من خمسينيات القرن العشرين حتى اليوم، شهد تاريخ تطور الذكاء الاصطناعي رحلة مذهلة – مليئة بـ الطموحات، الإحباطات، ثم الازدهار. من مؤتمر دارتموث الصغير عام 1956 الذي وضع الأساس للمجال، مر الذكاء الاصطناعي مرتين بـ "شتاء الذكاء الاصطناعي" بسبب التوقعات المبالغ فيها، لكنه عاد بقوة أكبر بعد كل مرة بفضل الاختراقات العلمية والتكنولوجية. خاصة في الخمسة عشر عامًا الأخيرة، حقق الذكاء الاصطناعي تقدمًا هائلًا، وانتقل فعليًا من المختبر إلى العالم الحقيقي ليحدث تأثيرًا واسع النطاق.
حاليًا، يتواجد الذكاء الاصطناعي في معظم المجالات ويصبح أكثر ذكاءً وتعددًا. ومع ذلك، لا يزال الذكاء الاصطناعي القوي (الذكاء الاصطناعي العام) – آلة ذكية مرنة مثل الإنسان – هدفًا مستقبليًا.
نماذج الذكاء الاصطناعي الحالية مثيرة للإعجاب لكنها متخصصة في المهام التي تدربت عليها، وأحيانًا ترتكب أخطاء غريبة (مثل قدرة ChatGPT على "تخيل" معلومات خاطئة بثقة عالية). كما تطرح التحديات المتعلقة بالأمان والأخلاقيات مطالب عاجلة: كيف نطور الذكاء الاصطناعي بشكل مراقب، شفاف، ولصالح البشرية جمعاء؟
المرحلة القادمة من الذكاء الاصطناعي تعد بأن تكون ممتعة للغاية. مع التقدم الحالي، يمكننا أن نرى الذكاء الاصطناعي يتغلغل أعمق في حياتنا: من الأطباء الذكاء الاصطناعي الذين يدعمون الرعاية الصحية، والمحامين الذكاء الاصطناعي الذين يبحثون في النصوص القانونية، إلى الأصدقاء الذكاء الاصطناعي الذين يرافقوننا في الدراسة والمحادثات.
تُجرى أبحاث على تقنيات مثل الحوسبة العصبية (neuromorphic computing) التي تحاكي بنية الدماغ البشري، وقد تخلق جيلًا جديدًا من الذكاء الاصطناعي أكثر كفاءة وأقرب إلى الذكاء الطبيعي. رغم أن الذكاء الاصطناعي المتفوق على الذكاء البشري لا يزال موضوع جدل، فمن الواضح أن الذكاء الاصطناعي سيستمر في التطور وتشكيل مستقبل البشرية بطرق عميقة.
عند مراجعة تاريخ نشأة وتطور الذكاء الاصطناعي، نرى قصة الإصرار والإبداع المستمر للبشر. من الحواسيب البدائية التي كانت تحسب فقط، علمنا الآلات كيف تلعب الشطرنج، تقود السيارات، تتعرف على العالم، بل وتبدع في الفن. الذكاء الاصطناعي هو، وسيظل، دليلًا على قدرتنا على تجاوز حدودنا.
الأهم أننا نتعلم من دروس التاريخ – أن نضع توقعات واقعية، ونطور الذكاء الاصطناعي بمسؤولية – لضمان أن يقدم الذكاء الاصطناعي أقصى فائدة للبشرية في المراحل القادمة.