هوش مصنوعی (AI) امروزه به بخشی آشنا در زندگی مدرن تبدیل شده است و در تمامی حوزهها از کسبوکار تا پزشکی حضور دارد. با این حال، کمتر کسی تصور میکرد که تاریخچه توسعه هوش مصنوعی از اواسط قرن بیستم آغاز شده و پیش از رسیدن به دستاوردهای انفجاری کنونی، فراز و نشیبهای بسیاری را پشت سر گذاشته است.
این مقاله INVIAI نگاهی دقیق به تاریخچه شکلگیری و توسعه هوش مصنوعی ارائه میدهد، از ایدههای اولیه و ابتدایی، گذر از دورههای «زمستان هوش مصنوعی» پرچالش، تا انقلاب یادگیری عمیق و موج انفجاری هوش مصنوعی مولد در دهه ۲۰۲۰.
دهه ۱۹۵۰: آغاز هوش مصنوعی
دهه ۱۹۵۰ به عنوان نقطه شروع رسمی حوزه هوش مصنوعی شناخته میشود. در سال ۱۹۵۰، ریاضیدان آلن تورینگ مقالهای با عنوان «ماشینهای محاسباتی و هوش» منتشر کرد که در آن آزمایشی مشهور برای ارزیابی توانایی تفکر ماشینها پیشنهاد داد – که بعدها به آزمون تورینگ معروف شد. این نقطه عطف، ایده ماشینهایی که میتوانند مانند انسان «بیندیشند» را پایهگذاری کرد و اساس نظری هوش مصنوعی را شکل داد.
در سال ۱۹۵۶، اصطلاح «هوش مصنوعی» (Artificial Intelligence) رسماً معرفی شد. در تابستان همان سال، دانشمند کامپیوتر جان مککارتی (دانشگاه دارتموث) به همراه همکارانی چون ماروین مینسکی، ناتانیل راچستر (IBM) و کلود شانون، کارگاه تاریخیای در دانشگاه دارتموث برگزار کردند.
مککارتی اصطلاح «هوش مصنوعی» را برای این کارگاه پیشنهاد داد و رویداد دارتموث ۱۹۵۶ معمولاً به عنوان تولد حوزه هوش مصنوعی شناخته میشود. در اینجا، دانشمندان جسور اعلام کردند که «تمام جنبههای یادگیری یا هوش میتوانند توسط ماشینها شبیهسازی شوند» و هدفی بلندپروازانه برای این حوزه نوپا تعیین کردند.
اواخر دهه ۱۹۵۰ شاهد اولین دستاوردهای هوش مصنوعی بود. در سال ۱۹۵۱، برنامههای ابتدایی هوش مصنوعی برای اجرا روی کامپیوتر Ferranti Mark I نوشته شدند – از جمله برنامه بازی چکرز (درافتس) توسط کریستوفر استراچی و برنامه شطرنج توسط دیتریش پرینز که نخستین بار نشان دادند کامپیوترها میتوانند بازیهای فکری را انجام دهند.
در سال ۱۹۵۵، آرتور ساموئل در IBM برنامهای برای بازی چکرز توسعه داد که توانایی یادگیری از تجربه داشت و نخستین سیستم یادگیری ماشین به شمار میرفت. همچنین در این دوره، آلن نیول، هربرت سیمون و همکارانشان برنامه Logic Theorist (۱۹۵۶) را نوشتند که قادر به اثبات خودکار قضایای ریاضی بود و نشان داد ماشینها میتوانند استدلال منطقی انجام دهند.
علاوه بر الگوریتمها، ابزارها و زبانهای برنامهنویسی تخصصی برای هوش مصنوعی نیز در دهه ۱۹۵۰ پدید آمدند. در سال ۱۹۵۸، جان مککارتی زبان Lisp را اختراع کرد – زبانی که به طور خاص برای هوش مصنوعی طراحی شده بود و به سرعت در جامعه توسعهدهندگان AI محبوب شد. در همان سال، روانشناس فرانک روزنبلات مدل Perceptron را معرفی کرد – نخستین شبکه عصبی مصنوعی که توانایی یادگیری از دادهها را داشت و پایهای برای شبکههای عصبی مدرن شد.
در سال ۱۹۵۹، آرتور ساموئل برای نخستین بار اصطلاح «یادگیری ماشین» (machine learning) را در مقالهای کلیدی به کار برد که شرح میداد چگونه میتوان کامپیوتر را برنامهریزی کرد تا یاد بگیرد و توانایی بازی خود را بهبود بخشد و حتی از برنامهنویس پیشی بگیرد. این پیشرفتها نشاندهنده خوشبینی قوی بود: پیشگامان معتقد بودند که در عرض چند دهه، ماشینها میتوانند به هوش انسانی دست یابند.
دهه ۱۹۶۰: نخستین پیشرفتها
در دهه ۱۹۶۰، هوش مصنوعی با پروژهها و اختراعات قابل توجهی به توسعه ادامه داد. آزمایشگاههای هوش مصنوعی در دانشگاههای معتبر (MIT، استنفورد، کارنگی ملون و غیره) تأسیس شدند و توجه و حمایت مالی تحقیقات را جذب کردند. کامپیوترها در این دوره قدرتمندتر شدند و امکان آزمایش ایدههای پیچیدهتر AI نسبت به دهه قبل فراهم آمد.
یکی از دستاوردهای برجسته، ظهور اولین برنامه چتبات بود. در سال ۱۹۶۶، جوزف وایزنباوم در MIT برنامه ELIZA را ساخت که مکالمهای شبیه به یک روانپزشک با کاربر شبیهسازی میکرد. ELIZA بسیار ساده برنامهریزی شده بود (بر اساس تشخیص کلمات کلیدی و پاسخهای الگو)، اما تعجبآور بود که بسیاری تصور میکردند ELIZA واقعاً «میفهمد» و احساس دارد. موفقیت ELIZA نه تنها راه را برای چتباتهای مدرن هموار کرد، بلکه پرسشی درباره تمایل انسان به نسبت دادن احساسات به ماشینها مطرح نمود.
همزمان، اولین رباتهای هوشمند نیز ظاهر شدند. بین سالهای ۱۹۶۶ تا ۱۹۷۲، مؤسسه تحقیقات استنفورد (SRI) ربات Shakey را توسعه داد – اولین ربات متحرک با توانایی خودآگاهی و برنامهریزی عملیاتی به جای اجرای دستورات منفرد. ربات Shakey مجهز به حسگرها و دوربین بود تا در محیط حرکت کند و وظایف را به گامهای پایهای مانند یافتن مسیر، هل دادن موانع و بالا رفتن از شیب تقسیم کند. این نخستین سیستم یکپارچهای بود که بینایی ماشین، پردازش زبان طبیعی و برنامهریزی را در ربات ترکیب کرد و پایهای برای حوزه رباتیک هوش مصنوعی شد.
انجمن آمریکایی هوش مصنوعی (AAAI) نیز در این دوره تأسیس شد (پیشزمینه آن کنفرانس IJCAI 1969 و تشکیل رسمی AAAI از سال ۱۹۸۰) تا پژوهشگران AI را گرد هم آورد و نشاندهنده رشد روزافزون جامعه هوش مصنوعی بود.
علاوه بر این، دهه ۱۹۶۰ شاهد توسعه سیستمهای خبره و الگوریتمهای پایه بود. در سال ۱۹۶۵، ادوارد فیگنباوم و همکارانش سیستم DENDRAL را توسعه دادند – که به عنوان اولین سیستم خبره جهان شناخته میشود. DENDRAL برای کمک به شیمیدانها در تحلیل ساختار مولکولی از دادههای آزمایشگاهی طراحی شده بود و دانش و تفکر یک متخصص شیمی را شبیهسازی میکرد. موفقیت DENDRAL نشان داد که کامپیوترها میتوانند مسائل تخصصی پیچیده را حل کنند و پایهای برای رشد انفجاری سیستمهای خبره در دهه ۱۹۸۰ فراهم آورد.
همچنین، زبان برنامهنویسی Prolog (مخصوص هوش مصنوعی منطقی) در سال ۱۹۷۲ در دانشگاه مارسی توسعه یافت و رویکردی مبتنی بر منطق و قوانین رابطهای برای AI ارائه کرد. نقطه عطف مهم دیگر در سال ۱۹۶۹ بود که ماروین مینسکی و سیمور پاپرت کتاب «Perceptrons» را منتشر کردند. این کتاب محدودیتهای ریاضی مدل تکلایه پرسپترون را نشان داد (ناتوانی در حل مسئله ساده XOR) و باعث شد حوزه شبکههای عصبی به شدت زیر سؤال برود.
سرمایهگذاران اعتماد خود را به قابلیت یادگیری شبکههای عصبی از دست دادند و تحقیقات شبکههای عصبی در اواخر دهه ۱۹۶۰ به تدریج کاهش یافت. این نخستین نشانه «سرد شدن» شور و هیجان هوش مصنوعی پس از بیش از یک دهه خوشبینی بود.
دهه ۱۹۷۰: چالشها و نخستین «زمستان هوش مصنوعی»
در دهه ۱۹۷۰، حوزه هوش مصنوعی با چالشهای واقعبینانه روبرو شد: بسیاری از انتظارات بزرگ دهه قبل به دلیل محدودیتهای قدرت محاسباتی، دادهها و دانش علمی برآورده نشدند. نتیجه این بود که اعتماد و حمایت مالی از هوش مصنوعی به شدت کاهش یافت در میانه دهه ۱۹۷۰ – دورهای که بعدها به عنوان «نخستین زمستان هوش مصنوعی» شناخته شد.
در سال ۱۹۷۳، سر جیمز لایتهیل با انتشار گزارشی به نام «هوش مصنوعی: یک بررسی کلی» انتقادات شدیدی به پیشرفتهای تحقیقات AI وارد کرد. گزارش لایتهیل نتیجه گرفت که پژوهشگران AI «وعدههای زیادی دادهاند اما دستاوردهای کمی داشتهاند»، به ویژه در زمینه درک زبان و بینایی ماشین.
این گزارش باعث شد دولت بریتانیا بودجههای مربوط به AI را به شدت کاهش دهد. در آمریکا نیز سازمانهای حمایتکننده مانند DARPA سرمایهگذاری خود را به پروژههای عملیتر تغییر دادند. نتیجه این بود که از میانه دهه ۱۹۷۰ تا اوایل دهه ۱۹۸۰، حوزه AI تقریباً منجمد شد، با کمبود پروژههای نوآورانه و منابع مالی. این دوره همان «زمستان هوش مصنوعی» است – اصطلاحی که در سال ۱۹۸۴ برای توصیف این دوره طولانی رکود به کار رفت.
با وجود مشکلات، دهه ۱۹۷۰ نقاط روشنی نیز داشت. سیستمهای خبره در محیطهای دانشگاهی توسعه یافتند، از جمله MYCIN (۱۹۷۴) – سیستم خبره مشاوره پزشکی ساخته شده توسط تد شورتلیف در استنفورد که به تشخیص عفونتهای خون کمک میکرد. MYCIN با استفاده از قوانین استنتاج، توصیههای درمانی ارائه میداد و دقت بالایی داشت، که نشاندهنده ارزش عملی سیستمهای خبره در حوزههای محدود بود.
همچنین، زبان Prolog (معرفی شده در ۱۹۷۲) در حل مسائل پردازش زبان و منطق کاربرد یافت و به ابزاری مهم برای AI مبتنی بر منطق تبدیل شد. در حوزه رباتیک، در سال ۱۹۷۹ تیمی در استنفورد موفق به توسعه خودروی خودران Stanford Cart شد – نخستین ربات متحرک که بدون نیاز به کنترل از راه دور، از میان موانع عبور میکرد. این موفقیت کوچک، پایهای برای تحقیقات بعدی در زمینه خودروهای خودران بود.
در مجموع، پایان دهه ۱۹۷۰، تحقیقات AI وارد فاز رکود شد. بسیاری از دانشمندان AI مجبور شدند به حوزههای مرتبط مانند یادگیری ماشین، آمار، رباتیک و بینایی ماشین روی آورند تا به کار خود ادامه دهند.
هوش مصنوعی دیگر «ستاره درخشان» دهه قبل نبود و به حوزهای محدود با پیشرفتهای اندک تبدیل شده بود. این دوره به پژوهشگران یادآوری کرد که هوش مصنوعی بسیار پیچیدهتر از آن است که تصور میشد و نیازمند رویکردهای بنیادیتر به جای تکیه صرف بر شبیهسازی استدلال بود.
دهه ۱۹۸۰: سیستمهای خبره – ظهور و افول
اوایل دهه ۱۹۸۰، هوش مصنوعی بار دیگر وارد دوره احیا شد – گاهی به آن «رنسانس هوش مصنوعی» گفته میشود. این پیشرفت ناشی از موفقیتهای تجاری سیستمهای خبره و بازگشت توجه سرمایهگذاران دولتی و خصوصی بود. کامپیوترها قدرتمندتر شدند و جامعه امیدوار بود که بتوان ایدههای AI را در حوزههای محدود به واقعیت تبدیل کرد.
یکی از محرکهای اصلی، سیستمهای خبره تجاری بودند. در سال ۱۹۸۱، شرکت Digital Equipment Corporation سیستم XCON (Expert Configuration) را پیادهسازی کرد – سیستمی خبره که به پیکربندی سیستمهای کامپیوتری کمک میکرد و میلیونها دلار صرفهجویی برای شرکت به ارمغان آورد. موفقیت XCON موجی از توسعه سیستمهای خبره در کسبوکارها برای پشتیبانی از تصمیمگیری ایجاد کرد. بسیاری از شرکتهای فناوری، پوستههای سیستم خبره (expert system shell) را توسعه دادند تا کسبوکارها بتوانند سیستمهای خود را سفارشیسازی کنند.
زبان Lisp نیز از آزمایشگاه خارج شد و ماشینهای Lisp – سختافزارهای تخصصی برای اجرای برنامههای AI – ظهور کردند. اوایل دهه ۱۹۸۰، شرکتهای نوپای متعددی در زمینه ماشینهای Lisp شکل گرفتند (مانند Symbolics و Lisp Machines Inc.) که باعث ایجاد تب سرمایهگذاری و آغاز «عصر ماشینهای Lisp» برای AI شدند.
در این دوره، دولتهای بزرگ نیز سرمایهگذاری قابل توجهی در AI کردند. در سال ۱۹۸۲، ژاپن پروژه نسل پنجم کامپیوتر را با بودجه ۸۵۰ میلیون دلار آغاز کرد تا کامپیوترهای هوشمند مبتنی بر منطق و Prolog توسعه دهد. به همین ترتیب، آمریکا (DARPA) نیز حمایت از تحقیقات AI را در رقابت فناوری با ژاپن افزایش داد. پروژههای سرمایهگذاری شده عمدتاً بر سیستمهای خبره، پردازش زبان طبیعی و پایگاه دانش متمرکز بودند تا کامپیوترهای هوشمند برتر ساخته شوند.
در میان این موج خوشبینی، حوزه شبکههای عصبی مصنوعی نیز به آرامی احیا شد. در سال ۱۹۸۶، پژوهشگر جفری هینتون و همکارانش الگوریتم Backpropagation (پسانتشار خطا) را معرفی کردند – روشی مؤثر برای آموزش شبکههای عصبی چندلایه که محدودیتهای مطرح شده در کتاب Perceptrons (۱۹۶۹) را برطرف میکرد.
در واقع، اصل پسانتشار از دهه ۱۹۷۰ مطرح شده بود، اما در اواسط دهه ۸۰ به دلیل افزایش قدرت محاسباتی به طور کامل بهرهبرداری شد. الگوریتم پسانتشار به سرعت موج دوم تحقیقات شبکههای عصبی را به راه انداخت. در این زمان، امید به یادگیری مدلهای پیچیده توسط شبکههای عمیق شکل گرفت و زمینهساز یادگیری عمیق (deep learning) شد.
پژوهشگران جوانی مانند Yann LeCun (فرانسه) و Yoshua Bengio (کانادا) نیز در این دوره به جنبش شبکههای عصبی پیوستند و مدلهای موفقی برای تشخیص دستخط تا پایان دهه توسعه دادند.
با این حال، دومین دوره شکوفایی AI دوام چندانی نداشت. اواخر دهه ۱۹۸۰، حوزه AI دوباره به بحران افتاد زیرا نتایج انتظارات را برآورده نکردند. سیستمهای خبره اگرچه در برخی کاربردهای محدود مفید بودند، اما ضعفهایی داشتند: آنها سختگیر، دشوار برای توسعه و نیازمند بهروزرسانی دستی مداوم دانش بودند.
بسیاری از پروژههای بزرگ سیستم خبره شکست خوردند و بازار ماشینهای Lisp نیز به دلیل رقابت با کامپیوترهای شخصی ارزانتر سقوط کرد. در سال ۱۹۸۷، صنعت ماشین Lisp تقریباً ورشکسته شد. سرمایهگذاری دوم در AI در اواخر دهه ۱۹۸۰ به شدت کاهش یافت و منجر به «زمستان دوم هوش مصنوعی» شد. اصطلاح «زمستان AI» که در سال ۱۹۸۴ مطرح شده بود، با بسته شدن بسیاری از شرکتهای AI در سالهای ۱۹۸۷–۱۹۸۸ تحقق یافت. بار دیگر، حوزه AI وارد چرخه رکود شد و پژوهشگران مجبور به تعدیل انتظارات و استراتژیهای خود شدند.
خلاصه اینکه، دهه ۱۹۸۰ شاهد چرخهای از شکوفایی و افول در AI بود. سیستمهای خبره به AI کمک کردند تا برای نخستین بار وارد صنعت شود، اما محدودیتهای رویکرد مبتنی بر قوانین ثابت را نیز نشان دادند. با این وجود، این دوره ایدهها و ابزارهای ارزشمندی مانند الگوریتمهای شبکه عصبی و پایگاههای دانش را به ارمغان آورد. درسهای مهمی درباره اجتناب از اغراق بیش از حد آموخته شد که پایهای برای رویکردهای محتاطانهتر در دهه بعد شد.
دهه ۱۹۹۰: بازگشت AI به عرصه عملی
پس از زمستان هوش مصنوعی اواخر دهه ۱۹۸۰، اعتماد به AI در دهه ۱۹۹۰ به تدریج بازگشت به لطف پیشرفتهای عملی متعدد. به جای تمرکز بر هوش مصنوعی قوی (هوش مصنوعی عمومی و جامع) که جاهطلبانه بود، پژوهشگران روی هوش مصنوعی ضعیف متمرکز شدند – یعنی به کارگیری تکنیکهای AI در مسائل خاص که نتایج قابل توجهی به همراه داشت. بسیاری از حوزههای فرعی AI مانند تشخیص گفتار، بینایی ماشین، الگوریتمهای جستجو، پایگاههای دانش به طور مستقل رشد کردند و کاربردهای گستردهای یافتند.
یکی از نقاط عطف مهم، موفقیتهای عملی بود: در ماه مه ۱۹۹۷، کامپیوتر Deep Blue شرکت IBM، قهرمان شطرنج جهان گری کاسپاروف را در یک مسابقه رسمی شکست داد. این نخستین بار بود که یک سیستم AI در یک بازی فکری پیچیده، قهرمان جهان را شکست میداد و توجه عمومی را به خود جلب کرد.
پیروزی Deep Blue – مبتنی بر الگوریتم جستجوی brute-force همراه با پایگاه داده افتتاحیهها – نشان داد که قدرت محاسباتی عظیم و تکنیکهای تخصصی میتوانند ماشینها را در وظایف مشخص از انسان پیشی دهند. این رویداد بازگشتی درخشان برای AI در رسانهها بود و شور و شوق تحقیقات را پس از سالها رکود برانگیخت.
هوش مصنوعی دهه ۱۹۹۰ در زمینههای مختلف نیز پیشرفت کرد. در حوزه بازیها، در سال ۱۹۹۴ برنامه Chinook بازی چکرز را به طور کامل حل کرد و قهرمان جهان را مجبور به پذیرش شکست نمود.
در زمینه تشخیص گفتار، سیستمهای تجاری مانند Dragon Dictate (۱۹۹۰) ظاهر شدند و تا پایان دهه، نرمافزارهای تشخیص صدا به طور گسترده روی کامپیوترهای شخصی استفاده شدند. همچنین تشخیص دستخط روی دستگاههای PDA (دستیارهای دیجیتال شخصی) با دقت رو به افزایش ادغام شد.
کاربردهای بینایی ماشین در صنعت آغاز شد، از بازرسی قطعات تا سیستمهای امنیتی. حتی ترجمه ماشینی – حوزهای که در دهه ۶۰ ناامیدکننده بود – پیشرفت قابل توجهی داشت، مانند سیستم SYSTRAN که ترجمه خودکار چند زبان را برای اتحادیه اروپا فراهم کرد.
یکی دیگر از جهتهای مهم، یادگیری ماشین آماری و شبکههای عصبی بود که برای استخراج دادههای بزرگ به کار گرفته شدند. پایان دهه ۱۹۹۰ شاهد انفجار اینترنت و حجم عظیم دادههای دیجیتال بود. تکنیکهای کاوش داده (data mining) و الگوریتمهای یادگیری ماشین مانند درخت تصمیم، شبکههای عصبی و مدل مارکوف مخفی برای تحلیل دادههای وب، بهینهسازی موتورهای جستجو و شخصیسازی محتوا استفاده شدند.
اصطلاح «علم داده» هنوز رایج نبود، اما در واقع هوش مصنوعی به نرمافزارهای مختلف نفوذ کرده بود تا عملکرد را بر اساس یادگیری از دادههای کاربران بهبود بخشد (مثلاً فیلترهای اسپم ایمیل، پیشنهاد محصولات در تجارت الکترونیک). این موفقیتهای کوچک اما کاربردی به بازسازی اعتبار AI در چشم کسبوکارها و جامعه کمک کرد.
میتوان گفت دهه ۱۹۹۰ دورهای بود که AI به طور خاموش اما مستحکم وارد زندگی شد. به جای ادعاهای بزرگ درباره هوش انسانی، توسعهدهندگان روی مسائل تخصصی تمرکز کردند. نتیجه این بود که هوش مصنوعی در بسیاری از محصولات فناوری پایان قرن بیستم حضور داشت، بدون اینکه کاربران همیشه متوجه آن شوند – از بازیها و نرمافزارها تا دستگاههای الکترونیکی. این دوره همچنین پایههای مهمی در زمینه داده و الگوریتم فراهم کرد که AI را برای انفجار بعدی آماده ساخت.
دهه ۲۰۰۰: یادگیری ماشین و عصر دادههای بزرگ
با ورود به قرن ۲۱، هوش مصنوعی به لطف اینترنت و عصر دادههای بزرگ به شدت رشد کرد. دهه ۲۰۰۰ شاهد انفجار کامپیوترهای شخصی، شبکههای اینترنت و دستگاههای حسگر بود که حجم عظیمی از دادهها را تولید کردند. یادگیری ماشین – به ویژه روشهای نظارتشده – به ابزار اصلی استخراج این «منبع نفتی» داده تبدیل شد.
شعار «دادهها نفت جدید هستند» رواج یافت، زیرا هرچه دادهها بیشتر باشد، الگوریتمهای AI دقیقتر میشوند. شرکتهای بزرگ فناوری شروع به ساخت سیستمهای جمعآوری و یادگیری از دادههای کاربران کردند تا محصولات خود را بهبود بخشند: گوگل با موتور جستجوی هوشمندتر، آمازون با پیشنهادات خرید بر اساس رفتار، نتفلیکس با الگوریتمهای پیشنهاد فیلم. هوش مصنوعی به تدریج به «مغز» پشت صحنه پلتفرمهای دیجیتال تبدیل شد.
سال ۲۰۰۶ رویداد مهمی بود: فی-فی لی، استاد دانشگاه استنفورد، پروژه ImageNet را آغاز کرد – پایگاه داده عظیمی با بیش از ۱۴ میلیون تصویر با برچسبهای دقیق. معرفی ImageNet در سال ۲۰۰۹ به سرعت به معیار استاندارد آموزش و ارزیابی الگوریتمهای بینایی ماشین تبدیل شد، به ویژه در تشخیص اشیاء در تصاویر.
ImageNet مانند «دوپینگ» برای تحقیقات یادگیری عمیق عمل کرد، زیرا داده کافی برای آموزش مدلهای پیچیده فراهم آورد. مسابقه سالانه ImageNet Challenge از ۲۰۱۰ به بعد به میدان رقابت مهمی تبدیل شد که گروههای تحقیقاتی بهترین الگوریتمهای تشخیص تصویر را ارائه میدادند. از این رقابت، نقطه عطف تاریخی AI در سال ۲۰۱۲ رخ داد (بخش دهه ۲۰۱۰).
در دهه ۲۰۰۰، AI به تدریج چندین دستاورد کاربردی برجسته را فتح کرد:
- سال ۲۰۰۵، خودروی خودران استنفورد (با نام مستعار «استنلی») برنده مسابقه بزرگ DARPA شد – مسابقه خودروهای خودران در بیابان به طول ۲۱۲ کیلومتر. استنلی مسیر را در ۶ ساعت و ۵۳ دقیقه طی کرد و عصر جدیدی برای خودروهای خودران آغاز شد که توجه سرمایهگذاران بزرگی مانند گوگل و اوبر را جلب کرد.
- دستیارهای صوتی موبایل ظهور کردند: در سال ۲۰۰۸، برنامه Google Voice Search امکان جستجوی صوتی روی آیفون را فراهم کرد؛ و اوج آن سیری اپل (۲۰۱۱) بود – دستیار صوتی یکپارچه در آیفون. سیری از فناوری تشخیص گفتار، درک زبان طبیعی و اتصال به سرویسهای وب برای پاسخ به کاربران استفاده میکرد و اولین برخورد گسترده AI با عموم مردم را رقم زد.
- سال ۲۰۱۱، ابرکامپیوتر IBM Watson دو قهرمان بازی تلویزیونی Jeopardy! را شکست داد. واتسون توانایی درک سوالات پیچیده انگلیسی و جستجوی حجم عظیمی از دادهها برای یافتن پاسخ را داشت و قدرت AI در پردازش زبان طبیعی و جستجوی اطلاعات را نشان داد. این پیروزی اثبات کرد که کامپیوترها میتوانند در حوزههای دانش گسترده «فهمیده» و واکنش هوشمندانه داشته باشند.
- شبکههای اجتماعی و وب: فیسبوک ویژگی تشخیص خودکار چهره و برچسبگذاری تصاویر را معرفی کرد (حدود ۲۰۱۰) که از الگوریتمهای یادگیری ماشین روی دادههای تصویری کاربران بهره میبرد. یوتیوب و گوگل از AI برای فیلتر محتوا و پیشنهاد ویدئو استفاده کردند. تکنیکهای یادگیری ماشین به طور پنهان در پسزمینه پلتفرمها فعالیت میکردند و تجربه کاربری را بهینه میکردند بدون اینکه کاربران همیشه متوجه شوند.
میتوان گفت محرک اصلی AI در دهه ۲۰۰۰ دادهها و کاربردها بودند. الگوریتمهای یادگیری ماشین سنتی مانند رگرسیون، SVM، درخت تصمیم و غیره در مقیاس بزرگ اجرا شدند و نتایج عملی قابل توجهی به دست آوردند.
هوش مصنوعی که زمانی موضوعی تحقیقاتی بود، به شدت به صنعت منتقل شد: «هوش مصنوعی برای کسبوکار» به موضوع داغی تبدیل شد و شرکتهای متعددی راهکارهای AI را در مدیریت، مالی، بازاریابی و غیره ارائه کردند. در سال ۲۰۰۶، اصطلاح «هوش مصنوعی سازمانی» (enterprise AI) مطرح شد که بر کاربرد AI برای افزایش بهرهوری کسبوکار و تصمیمگیری تأکید داشت.
پایان دهه ۲۰۰۰ همچنین شاهد نشانههای اولیه انقلاب یادگیری عمیق بود. تحقیقات روی شبکههای عصبی چندلایه ادامه یافت. در سال ۲۰۰۹، گروه اندرو انگ در دانشگاه استنفورد اعلام کرد که با استفاده از GPU (واحد پردازش گرافیکی) توانستهاند سرعت آموزش شبکههای عصبی را ۷۰ برابر نسبت به CPU معمولی افزایش دهند.
قدرت محاسبات موازی GPU به طور تصادفی برای محاسبات ماتریسی شبکههای عصبی بسیار مناسب بود و راه را برای آموزش مدلهای یادگیری عمیق بزرگ در دهه ۲۰۱۰ هموار کرد. عوامل نهایی – دادههای بزرگ، سختافزار قدرتمند و الگوریتمهای بهبود یافته – آماده بودند تا انقلاب جدید AI را رقم بزنند.
دهه ۲۰۱۰: انقلاب یادگیری عمیق (Deep Learning)
اگر بخواهیم دورهای را انتخاب کنیم که هوش مصنوعی واقعاً «پرواز کرد»، آن دهه ۲۰۱۰ است. با پایههای داده و سختافزار از دهه قبل، هوش مصنوعی وارد عصر یادگیری عمیق شد – مدلهای شبکه عصبی چندلایه که دستاوردهای چشمگیری داشتند و تمام رکوردها را شکستند در طیف گستردهای از وظایف AI. رویای ماشینهایی که «مانند مغز انسان یاد میگیرند» تا حدی با الگوریتمهای یادگیری عمیق تحقق یافت.
نقطه عطف تاریخی در سال ۲۰۱۲ رخ داد، زمانی که گروه جفری هینتون و شاگردانش (الکس کریژفسکی، ایلیا سوتسکوور) در مسابقه ImageNet Challenge شرکت کردند. مدل آنها – معروف به AlexNet – شبکه عصبی کانولوشنی ۸ لایه بود که روی GPU آموزش دیده بود. نتیجه، دقت بسیار بالایی بود که نرخ خطای تشخیص تصویر را نسبت به تیم دوم نصف کرد.
این پیروزی چشمگیر جامعه بینایی ماشین را شگفتزده کرد و آغاز تب یادگیری عمیق در AI بود. در سالهای بعد، اکثر روشهای سنتی تشخیص تصویر جای خود را به مدلهای یادگیری عمیق دادند.
موفقیت AlexNet نشان داد که با داده کافی (ImageNet) و محاسبات (GPU)، شبکههای عصبی عمیق میتوانند از سایر تکنیکهای AI پیشی بگیرند. هینتون و همکارانش به سرعت به گوگل دعوت شدند و یادگیری عمیق به داغترین موضوع تحقیق AI تبدیل شد.
یادگیری عمیق نه تنها بینایی ماشین را متحول کرد، بلکه به پردازش گفتار، زبان و حوزههای دیگر نیز گسترش یافت. در سال ۲۰۱۲، Google Brain (پروژه اندرو انگ و جف دین) با معرفی شبکه عصبی عمیقی که ویدئوهای یوتیوب را خودآموزی میکرد و مفهوم «گربه» را بدون برچسب یاد گرفت، سروصدا کرد.
در بازه ۲۰۱۱–۲۰۱۴، دستیارهای صوتی مانند سیری، Google Now (۲۰۱۲) و Microsoft Cortana (۲۰۱۴) معرفی شدند که از پیشرفتهای تشخیص گفتار و درک زبان طبیعی بهره میبردند. برای مثال، سیستم تشخیص گفتار مایکروسافت در سال ۲۰۱۷ به دقت انسانی رسید که عمدتاً به دلیل استفاده از شبکههای عصبی عمیق برای مدلسازی صوت بود. در ترجمه، گوگل ترنسلیت در سال ۲۰۱۶ به معماری ترجمه ماشینی مبتنی بر شبکه عصبی (NMT) منتقل شد که کیفیت ترجمه را به طور قابل توجهی بهبود بخشید.
رویداد مهم دیگر، پیروزی AI در بازی گو (Go) بود – نقطه عطفی که زمانی بسیار دور از دسترس تصور میشد. در مارس ۲۰۱۶، برنامه AlphaGo شرکت DeepMind (وابسته به گوگل) قهرمان جهان لی سدول را با نتیجه ۴-۱ شکست داد. بازی گو بسیار پیچیدهتر از شطرنج است و تعداد حرکات ممکن آن به حدی زیاد است که نمیتوان با جستجوی brute-force آن را حل کرد. AlphaGo با ترکیب یادگیری عمیق و الگوریتم جستجوی مونتکارلو، از میلیونها بازی انسانی و بازیهای خودآموزی بهره برد.
این پیروزی با مسابقه Deep Blue و کاسپاروف در سال ۱۹۹۷ مقایسه شد و نشان داد که AI میتواند در حوزههایی که نیازمند شهود و تجربه است، از انسان پیشی بگیرد. پس از AlphaGo، DeepMind مدل AlphaGo Zero (۲۰۱۷) را توسعه داد که کاملاً خودآموز بود و بدون داده انسانی، نسخه قبلی را با نتیجه ۱۰۰-۰ شکست داد. این نشاندهنده پتانسیل یادگیری تقویتی همراه با یادگیری عمیق برای دستیابی به عملکرد فوقالعاده است.
در سال ۲۰۱۷، اختراعی انقلابی در پردازش زبان طبیعی رخ داد: معماری Transformer. پژوهشگران گوگل مدل Transformer را در مقاله «توجه همه چیزی است که نیاز دارید» معرفی کردند که مکانیزم self-attention را برای مدلسازی روابط بین کلمات در جمله بدون نیاز به توالی زمانی پیشنهاد داد.
Transformer آموزش مدلهای زبان بزرگ (LLM) را بسیار مؤثرتر از معماریهای قبلی (RNN/LSTM) کرد. از اینجا به بعد، مدلهای زبان پیشرفته مبتنی بر Transformer مانند BERT (گوگل، ۲۰۱۸) برای درک زمینه و به ویژه GPT (Generative Pre-trained Transformer) شرکت OpenAI که اولین بار در سال ۲۰۱۸ معرفی شد، ظهور کردند.
این مدلها در وظایف زبانی از طبقهبندی و پاسخ به سوال تا تولید متن، نتایج برجستهای داشتند. Transformer پایهگذار رقابت مدلهای زبان عظیم در دهه ۲۰۲۰ شد.
پایان دهه ۲۰۱۰ همچنین شاهد ظهور هوش مصنوعی مولد (generative AI) بود – مدلهایی که قادر به تولید محتوای جدید بودند. در سال ۲۰۱۴، ایان گودفلو و همکارانش مدل GAN (Generative Adversarial Network) را اختراع کردند که شامل دو شبکه عصبی متقابل برای تولید دادههای جعلی شبیه دادههای واقعی بود.
GAN به سرعت به خاطر توانایی تولید تصاویر چهرههای مصنوعی بسیار واقعی (deepfake) مشهور شد. همچنین مدلهای autoencoder و انتقال سبک (style transfer) توسعه یافتند که امکان تغییر تصاویر و ویدئوها به سبکهای جدید را فراهم کردند.
در سال ۲۰۱۹، OpenAI مدل GPT-2 را معرفی کرد – مدل تولید متن با ۱.۵ میلیارد پارامتر که توانایی تولید متنهای طولانی و روان شبیه انسان را داشت. واضح بود که AI اکنون نه تنها در طبقهبندی و پیشبینی بلکه در تولید محتوا نیز توانمند شده است.
هوش مصنوعی در دهه ۲۰۱۰ پیشرفتهای چشمگیری فراتر از انتظار داشت. بسیاری از وظایفی که قبلاً برای کامپیوترها «غیرممکن» به نظر میرسید، اکنون AI در سطح یا فراتر از انسان انجام میداد: تشخیص تصویر، تشخیص گفتار، ترجمه، بازیهای پیچیده و غیره.
مهمتر از همه، هوش مصنوعی وارد زندگی روزمره شد: از دوربینهای گوشی هوشمند با تشخیص چهره خودکار، دستیارهای صوتی در بلندگوهای هوشمند (آلکسا، گوگل هوم) تا پیشنهادات محتوا در شبکههای اجتماعی که همه توسط AI انجام میشد. این واقعاً دوره انفجار AI بود که بسیاری آن را «الکتریسیته جدید» نامیدند – فناوری بنیادی که همه صنایع را متحول میکند.
دهه ۲۰۲۰: انفجار هوش مصنوعی مولد و روندهای نوین
در چند سال اول دهه ۲۰۲۰، هوش مصنوعی با سرعت بیسابقهای انفجار کرد، عمدتاً به دلیل ظهور هوش مصنوعی مولد (Generative AI) و مدلهای زبان بزرگ (LLM). این سیستمها به AI اجازه دادند مستقیماً به صدها میلیون کاربر دسترسی پیدا کند و موجی از برنامههای خلاقانه و همچنین بحثهای اجتماعی گسترده درباره تأثیرات AI را به راه انداختند.
در ژوئن ۲۰۲۰، OpenAI مدل GPT-3 را معرفی کرد – مدل زبان عظیمی با ۱۷۵ میلیارد پارامتر که ده برابر بزرگتر از بزرگترین مدل قبلی بود. GPT-3 شگفتانگیز بود زیرا میتوانست متن بنویسد، به سوالات پاسخ دهد، شعر بسراید، کد برنامهنویسی بنویسد تقریباً مانند انسان، هرچند هنوز خطاهای واقعی داشت. قدرت GPT-3 نشان داد که مقیاس مدل همراه با حجم عظیم دادههای آموزشی میتواند توانایی تولید زبان روان و بینظیری به AI ببخشد. برنامههای کاربردی مبتنی بر GPT-3 به سرعت ظاهر شدند، از تولید محتوای بازاریابی و دستیار ایمیل تا پشتیبانی برنامهنویسی.
در نوامبر ۲۰۲۲، AI واقعاً وارد توجه عمومی شد با عرضه ChatGPT – چتبات تعاملی توسعه یافته توسط OpenAI بر پایه مدل GPT-3.5. تنها در ۵ روز، ChatGPT به یک میلیون کاربر رسید و در حدود دو ماه بیش از ۱۰۰ میلیون کاربر جذب کرد و سریعترین برنامه مصرفی رشد یافته در تاریخ شد.
ChatGPT توانایی پاسخگویی روان به مجموعهای گسترده از سوالات، از نگارش متن و حل مسائل ریاضی تا مشاوره را داشت و کاربران را به خاطر هوشمندی و انعطافپذیری خود شگفتزده کرد. محبوبیت ChatGPT نشاندهنده اولین استفاده گسترده AI به عنوان ابزار تولید محتوا و آغاز رقابت AI میان غولهای فناوری بود.
اوایل ۲۰۲۳، مایکروسافت GPT-4 (نسخه بعدی OpenAI) را در موتور جستجوی Bing ادغام کرد، در حالی که گوگل چتبات Bard را با مدل LaMDA خود عرضه نمود. این رقابت به گسترش و بهبود سریع فناوری هوش مصنوعی مولد کمک کرد.
علاوه بر متن، هوش مصنوعی مولد در حوزه تصویر و صدا نیز پیشرفت چشمگیری داشت. در سال ۲۰۲۲، مدلهای text-to-image مانند DALL-E 2 (OpenAI)، Midjourney و Stable Diffusion به کاربران اجازه میدادند با وارد کردن توصیف متنی، تصاویر خلق شده توسط AI دریافت کنند. کیفیت تصاویر بسیار زنده و خلاقانه بود و عصر جدیدی برای تولید محتوای دیجیتال آغاز کرد.
با این حال، این پیشرفتها چالشهایی در زمینه حقوق مالکیت معنوی و اخلاق ایجاد کردند، زیرا AI از آثار هنرمندان برای آموزش استفاده میکرد و محصولاتی مشابه خلق میکرد. در حوزه صدا، مدلهای نسل جدید text-to-speech قادر به تبدیل متن به صدایی کاملاً شبیه انسان بودند و حتی صداهای تقلیدی از افراد مشهور تولید میکردند که نگرانیهایی درباره deepfake صوتی به وجود آورد.
در سال ۲۰۲۳، برای نخستین بار پروندههای حقوقی درباره دادههای آموزشی AI مطرح شد – مثلاً شرکت Getty Images از Stability AI (توسعهدهنده Stable Diffusion) شکایت کرد به دلیل استفاده از میلیونها تصویر دارای حق نشر بدون اجازه برای آموزش مدل. این نشاندهنده روی تاریک انفجار AI است: مسائل حقوقی، اخلاقی و اجتماعی مطرح شده و نیازمند توجه جدی هستند.
در بحبوحه تب AI، سال ۲۰۲۳ شاهد ابراز نگرانیهای جامعه متخصصان درباره ریسکهای هوش مصنوعی قوی بود. بیش از ۱۰۰۰ شخصیت برجسته فناوری (از جمله ایلان ماسک، استیو وزنیاک و پژوهشگران AI) نامهای سرگشاده امضا کردند که خواستار تعلیق ۶ ماهه آموزش مدلهای بزرگتر از GPT-4 شدند، به دلیل نگرانی از توسعه سریع خارج از کنترل.
در همان سال، پیشگامانی مانند جفری هینتون (یکی از «پدران» یادگیری عمیق) نیز درباره خطرات AI فراتر از کنترل انسانی هشدار دادند. کمیسیون اروپا به سرعت قانون AI (EU AI Act) را تکمیل کرد – نخستین مقررات جامع جهانی درباره هوش مصنوعی که از ۲۰۲۴ اجرا خواهد شد. این قانون استفاده از سیستمهای AI با ریسک غیرقابل قبول (مانند نظارت گسترده و امتیازدهی اجتماعی) را ممنوع کرده و شفافیت مدلهای AI عمومی را الزامی میکند.
در آمریکا نیز ایالتهای متعددی قوانین محدودکننده استفاده از AI در حوزههای حساس (استخدام، مالی، تبلیغات سیاسی و غیره) تصویب کردند. واضح است که جهان در حال تسریع در تدوین چارچوبهای حقوقی و اخلاقی برای AI است، امری اجتنابناپذیر با توجه به تأثیرات گسترده فناوری.
در مجموع، دهه ۲۰۲۰ شاهد انفجار AI از نظر فناوری و فراگیری است. ابزارهای نسل جدید AI مانند ChatGPT، DALL-E، Midjourney و غیره به بخشی آشنا تبدیل شدهاند و به میلیونها نفر کمک میکنند تا خلاقتر و کارآمدتر باشند.
همزمان، رقابت سرمایهگذاری در AI بسیار داغ است: پیشبینی میشود هزینههای AI مولد شرکتها در سالهای آینده از ۱ میلیارد دلار فراتر رود. AI همچنین به طور فزایندهای وارد حوزههای مختلفی مانند پزشکی (تشخیص تصویر، کشف دارو)، مالی (تحلیل ریسک، کشف تقلب)، آموزش (دستیارهای آموزشی، محتوای شخصیسازی شده)، حملونقل (خودروهای خودران سطح بالا)، دفاع (تصمیمگیری تاکتیکی) و غیره شده است.
میتوان گفت هوش مصنوعی اکنون مانند برق یا اینترنت است – زیرساختی فناوری که همه کسبوکارها و دولتها میخواهند از آن بهرهمند شوند. بسیاری از متخصصان خوشبیناند که AI همچنان جهشهای بزرگی در بهرهوری و کیفیت زندگی ایجاد خواهد کرد اگر به درستی توسعه و مدیریت شود.
از دهه ۱۹۵۰ تاکنون، تاریخچه توسعه هوش مصنوعی مسیر شگفتانگیزی را طی کرده است – پر از بلندپروازی، ناامیدی و سپس شکوفایی. از کارگاه کوچک دارتموث ۱۹۵۶ که پایههای این حوزه را گذاشت، AI دو بار وارد «زمستان هوش مصنوعی» شد به دلیل انتظارات بیش از حد، اما پس از هر بار با قدرت بیشتری احیا شد به لطف پیشرفتهای علمی و فناوری. به ویژه در ۱۵ سال اخیر، AI پیشرفتهای چشمگیری داشته و واقعاً از آزمایشگاه به دنیای واقعی آمده و تأثیر عمیقی ایجاد کرده است.
در حال حاضر، هوش مصنوعی در تقریباً همه حوزهها حضور دارد و روز به روز هوشمندتر و چندمنظورهتر میشود. با این حال، هدف هوش مصنوعی قوی (هوش مصنوعی عمومی) – ماشینی با هوش انعطافپذیر مانند انسان – هنوز در دسترس نیست.
مدلهای AI کنونی هرچند چشمگیرند، اما تنها در حوزههای آموزش دیده عملکرد خوبی دارند و گاهی اشتباهات سادهای مرتکب میشوند (مانند اینکه ChatGPT ممکن است با اعتماد به نفس بالا اطلاعات نادرست «توهم» بزند). همچنین چالشهای ایمنی و اخلاقی وجود دارد که نیازمند توجه فوری است: چگونه AI را به گونهای توسعه دهیم که قابل کنترل، شفاف و در خدمت منافع جمعی انسانها باشد.
مسیر آینده AI بسیار جذاب خواهد بود. با روند کنونی، میتوان انتظار داشت AI عمیقتر وارد زندگی شود: از پزشکان AI که به مراقبت سلامت کمک میکنند، وکلای AI که قوانین را جستجو میکنند، تا دوستان AI که در تحصیل و گفتگو همراه انسانها هستند.
فناوریهایی مانند محاسبات نورومورفیک (neuromorphic computing) در حال تحقیق هستند تا ساختار مغز انسان را تقلید کنند و نسل جدیدی از AI کارآمد و نزدیکتر به هوش طبیعی ایجاد کنند. اگرچه چشمانداز هوش مصنوعی فراتر از هوش انسانی هنوز بحثبرانگیز است، اما واضح است که AI به تکامل خود ادامه خواهد داد و آینده بشر را به شکلی عمیق شکل خواهد داد.
نگاهی به تاریخچه شکلگیری و توسعه هوش مصنوعی، داستانی از پشتکار و خلاقیت بیپایان انسان را نشان میدهد. از کامپیوترهای ابتدایی که فقط محاسبه میکردند، انسانها به ماشینهایی آموختند که بازی کنند، رانندگی کنند، جهان را تشخیص دهند و حتی آثار هنری خلق کنند. هوش مصنوعی اکنون، گذشته و آینده، گواهی بر توانایی ما برای فراتر رفتن از محدودیتهاست.
مهم این است که از درسهای تاریخ بیاموزیم – انتظارات واقعبینانه داشته باشیم و AI را مسئولانه توسعه دهیم – تا اطمینان حاصل کنیم که AI بیشترین منفعت را برای بشریت به ارمغان آورد در مسیرهای پیش رو.