هوش مصنوعی (AI) امروزه به بخشی آشنا در زندگی مدرن تبدیل شده است و در تمامی حوزه‌ها از کسب‌وکار تا پزشکی حضور دارد. با این حال، کمتر کسی تصور می‌کرد که تاریخچه توسعه هوش مصنوعی از اواسط قرن بیستم آغاز شده و پیش از رسیدن به دستاوردهای انفجاری کنونی، فراز و نشیب‌های بسیاری را پشت سر گذاشته است.

این مقاله INVIAI نگاهی دقیق به تاریخچه شکل‌گیری و توسعه هوش مصنوعی ارائه می‌دهد، از ایده‌های اولیه و ابتدایی، گذر از دوره‌های «زمستان هوش مصنوعی» پرچالش، تا انقلاب یادگیری عمیق و موج انفجاری هوش مصنوعی مولد در دهه ۲۰۲۰.

دهه ۱۹۵۰: آغاز هوش مصنوعی

دهه ۱۹۵۰ به عنوان نقطه شروع رسمی حوزه هوش مصنوعی شناخته می‌شود. در سال ۱۹۵۰، ریاضیدان آلن تورینگ مقاله‌ای با عنوان «ماشین‌های محاسباتی و هوش» منتشر کرد که در آن آزمایشی مشهور برای ارزیابی توانایی تفکر ماشین‌ها پیشنهاد داد – که بعدها به آزمون تورینگ معروف شد. این نقطه عطف، ایده ماشین‌هایی که می‌توانند مانند انسان «بیندیشند» را پایه‌گذاری کرد و اساس نظری هوش مصنوعی را شکل داد.

در سال ۱۹۵۶، اصطلاح «هوش مصنوعی» (Artificial Intelligence) رسماً معرفی شد. در تابستان همان سال، دانشمند کامپیوتر جان مک‌کارتی (دانشگاه دارتموث) به همراه همکارانی چون ماروین مینسکی، ناتانیل راچستر (IBM) و کلود شانون، کارگاه تاریخی‌ای در دانشگاه دارتموث برگزار کردند.

مک‌کارتی اصطلاح «هوش مصنوعی» را برای این کارگاه پیشنهاد داد و رویداد دارتموث ۱۹۵۶ معمولاً به عنوان تولد حوزه هوش مصنوعی شناخته می‌شود. در اینجا، دانشمندان جسور اعلام کردند که «تمام جنبه‌های یادگیری یا هوش می‌توانند توسط ماشین‌ها شبیه‌سازی شوند» و هدفی بلندپروازانه برای این حوزه نوپا تعیین کردند.

اواخر دهه ۱۹۵۰ شاهد اولین دستاوردهای هوش مصنوعی بود. در سال ۱۹۵۱، برنامه‌های ابتدایی هوش مصنوعی برای اجرا روی کامپیوتر Ferranti Mark I نوشته شدند – از جمله برنامه بازی چکرز (درافتس) توسط کریستوفر استراچی و برنامه شطرنج توسط دیتریش پرینز که نخستین بار نشان دادند کامپیوترها می‌توانند بازی‌های فکری را انجام دهند.

در سال ۱۹۵۵، آرتور ساموئل در IBM برنامه‌ای برای بازی چکرز توسعه داد که توانایی یادگیری از تجربه داشت و نخستین سیستم یادگیری ماشین به شمار می‌رفت. همچنین در این دوره، آلن نیول، هربرت سیمون و همکارانشان برنامه Logic Theorist (۱۹۵۶) را نوشتند که قادر به اثبات خودکار قضایای ریاضی بود و نشان داد ماشین‌ها می‌توانند استدلال منطقی انجام دهند.

علاوه بر الگوریتم‌ها، ابزارها و زبان‌های برنامه‌نویسی تخصصی برای هوش مصنوعی نیز در دهه ۱۹۵۰ پدید آمدند. در سال ۱۹۵۸، جان مک‌کارتی زبان Lisp را اختراع کرد – زبانی که به طور خاص برای هوش مصنوعی طراحی شده بود و به سرعت در جامعه توسعه‌دهندگان AI محبوب شد. در همان سال، روانشناس فرانک روزنبلات مدل Perceptron را معرفی کرد – نخستین شبکه عصبی مصنوعی که توانایی یادگیری از داده‌ها را داشت و پایه‌ای برای شبکه‌های عصبی مدرن شد.

در سال ۱۹۵۹، آرتور ساموئل برای نخستین بار اصطلاح «یادگیری ماشین» (machine learning) را در مقاله‌ای کلیدی به کار برد که شرح می‌داد چگونه می‌توان کامپیوتر را برنامه‌ریزی کرد تا یاد بگیرد و توانایی بازی خود را بهبود بخشد و حتی از برنامه‌نویس پیشی بگیرد. این پیشرفت‌ها نشان‌دهنده خوش‌بینی قوی بود: پیشگامان معتقد بودند که در عرض چند دهه، ماشین‌ها می‌توانند به هوش انسانی دست یابند.

دهه ۱۹۵۰ - آغاز هوش مصنوعی

دهه ۱۹۶۰: نخستین پیشرفت‌ها

در دهه ۱۹۶۰، هوش مصنوعی با پروژه‌ها و اختراعات قابل توجهی به توسعه ادامه داد. آزمایشگاه‌های هوش مصنوعی در دانشگاه‌های معتبر (MIT، استنفورد، کارنگی ملون و غیره) تأسیس شدند و توجه و حمایت مالی تحقیقات را جذب کردند. کامپیوترها در این دوره قدرتمندتر شدند و امکان آزمایش ایده‌های پیچیده‌تر AI نسبت به دهه قبل فراهم آمد.

یکی از دستاوردهای برجسته، ظهور اولین برنامه چت‌بات بود. در سال ۱۹۶۶، جوزف وایزنباوم در MIT برنامه ELIZA را ساخت که مکالمه‌ای شبیه به یک روانپزشک با کاربر شبیه‌سازی می‌کرد. ELIZA بسیار ساده برنامه‌ریزی شده بود (بر اساس تشخیص کلمات کلیدی و پاسخ‌های الگو)، اما تعجب‌آور بود که بسیاری تصور می‌کردند ELIZA واقعاً «می‌فهمد» و احساس دارد. موفقیت ELIZA نه تنها راه را برای چت‌بات‌های مدرن هموار کرد، بلکه پرسشی درباره تمایل انسان به نسبت دادن احساسات به ماشین‌ها مطرح نمود.

همزمان، اولین ربات‌های هوشمند نیز ظاهر شدند. بین سال‌های ۱۹۶۶ تا ۱۹۷۲، مؤسسه تحقیقات استنفورد (SRI) ربات Shakey را توسعه داد – اولین ربات متحرک با توانایی خودآگاهی و برنامه‌ریزی عملیاتی به جای اجرای دستورات منفرد. ربات Shakey مجهز به حسگرها و دوربین بود تا در محیط حرکت کند و وظایف را به گام‌های پایه‌ای مانند یافتن مسیر، هل دادن موانع و بالا رفتن از شیب تقسیم کند. این نخستین سیستم یکپارچه‌ای بود که بینایی ماشین، پردازش زبان طبیعی و برنامه‌ریزی را در ربات ترکیب کرد و پایه‌ای برای حوزه رباتیک هوش مصنوعی شد.

انجمن آمریکایی هوش مصنوعی (AAAI) نیز در این دوره تأسیس شد (پیش‌زمینه آن کنفرانس IJCAI 1969 و تشکیل رسمی AAAI از سال ۱۹۸۰) تا پژوهشگران AI را گرد هم آورد و نشان‌دهنده رشد روزافزون جامعه هوش مصنوعی بود.

علاوه بر این، دهه ۱۹۶۰ شاهد توسعه سیستم‌های خبره و الگوریتم‌های پایه بود. در سال ۱۹۶۵، ادوارد فیگنباوم و همکارانش سیستم DENDRAL را توسعه دادند – که به عنوان اولین سیستم خبره جهان شناخته می‌شود. DENDRAL برای کمک به شیمیدان‌ها در تحلیل ساختار مولکولی از داده‌های آزمایشگاهی طراحی شده بود و دانش و تفکر یک متخصص شیمی را شبیه‌سازی می‌کرد. موفقیت DENDRAL نشان داد که کامپیوترها می‌توانند مسائل تخصصی پیچیده را حل کنند و پایه‌ای برای رشد انفجاری سیستم‌های خبره در دهه ۱۹۸۰ فراهم آورد.

همچنین، زبان برنامه‌نویسی Prolog (مخصوص هوش مصنوعی منطقی) در سال ۱۹۷۲ در دانشگاه مارسی توسعه یافت و رویکردی مبتنی بر منطق و قوانین رابطه‌ای برای AI ارائه کرد. نقطه عطف مهم دیگر در سال ۱۹۶۹ بود که ماروین مینسکی و سیمور پاپرت کتاب «Perceptrons» را منتشر کردند. این کتاب محدودیت‌های ریاضی مدل تک‌لایه پرسپترون را نشان داد (ناتوانی در حل مسئله ساده XOR) و باعث شد حوزه شبکه‌های عصبی به شدت زیر سؤال برود.

سرمایه‌گذاران اعتماد خود را به قابلیت یادگیری شبکه‌های عصبی از دست دادند و تحقیقات شبکه‌های عصبی در اواخر دهه ۱۹۶۰ به تدریج کاهش یافت. این نخستین نشانه «سرد شدن» شور و هیجان هوش مصنوعی پس از بیش از یک دهه خوش‌بینی بود.

هوش مصنوعی در دهه ۱۹۶۰

دهه ۱۹۷۰: چالش‌ها و نخستین «زمستان هوش مصنوعی»

در دهه ۱۹۷۰، حوزه هوش مصنوعی با چالش‌های واقع‌بینانه روبرو شد: بسیاری از انتظارات بزرگ دهه قبل به دلیل محدودیت‌های قدرت محاسباتی، داده‌ها و دانش علمی برآورده نشدند. نتیجه این بود که اعتماد و حمایت مالی از هوش مصنوعی به شدت کاهش یافت در میانه دهه ۱۹۷۰ – دوره‌ای که بعدها به عنوان «نخستین زمستان هوش مصنوعی» شناخته شد.

در سال ۱۹۷۳، سر جیمز لایت‌هیل با انتشار گزارشی به نام «هوش مصنوعی: یک بررسی کلی» انتقادات شدیدی به پیشرفت‌های تحقیقات AI وارد کرد. گزارش لایت‌هیل نتیجه گرفت که پژوهشگران AI «وعده‌های زیادی داده‌اند اما دستاوردهای کمی داشته‌اند»، به ویژه در زمینه درک زبان و بینایی ماشین.

این گزارش باعث شد دولت بریتانیا بودجه‌های مربوط به AI را به شدت کاهش دهد. در آمریکا نیز سازمان‌های حمایت‌کننده مانند DARPA سرمایه‌گذاری خود را به پروژه‌های عملی‌تر تغییر دادند. نتیجه این بود که از میانه دهه ۱۹۷۰ تا اوایل دهه ۱۹۸۰، حوزه AI تقریباً منجمد شد، با کمبود پروژه‌های نوآورانه و منابع مالی. این دوره همان «زمستان هوش مصنوعی» است – اصطلاحی که در سال ۱۹۸۴ برای توصیف این دوره طولانی رکود به کار رفت.

با وجود مشکلات، دهه ۱۹۷۰ نقاط روشنی نیز داشت. سیستم‌های خبره در محیط‌های دانشگاهی توسعه یافتند، از جمله MYCIN (۱۹۷۴) – سیستم خبره مشاوره پزشکی ساخته شده توسط تد شورتلیف در استنفورد که به تشخیص عفونت‌های خون کمک می‌کرد. MYCIN با استفاده از قوانین استنتاج، توصیه‌های درمانی ارائه می‌داد و دقت بالایی داشت، که نشان‌دهنده ارزش عملی سیستم‌های خبره در حوزه‌های محدود بود.

همچنین، زبان Prolog (معرفی شده در ۱۹۷۲) در حل مسائل پردازش زبان و منطق کاربرد یافت و به ابزاری مهم برای AI مبتنی بر منطق تبدیل شد. در حوزه رباتیک، در سال ۱۹۷۹ تیمی در استنفورد موفق به توسعه خودروی خودران Stanford Cart شد – نخستین ربات متحرک که بدون نیاز به کنترل از راه دور، از میان موانع عبور می‌کرد. این موفقیت کوچک، پایه‌ای برای تحقیقات بعدی در زمینه خودروهای خودران بود.

در مجموع، پایان دهه ۱۹۷۰، تحقیقات AI وارد فاز رکود شد. بسیاری از دانشمندان AI مجبور شدند به حوزه‌های مرتبط مانند یادگیری ماشین، آمار، رباتیک و بینایی ماشین روی آورند تا به کار خود ادامه دهند.

هوش مصنوعی دیگر «ستاره درخشان» دهه قبل نبود و به حوزه‌ای محدود با پیشرفت‌های اندک تبدیل شده بود. این دوره به پژوهشگران یادآوری کرد که هوش مصنوعی بسیار پیچیده‌تر از آن است که تصور می‌شد و نیازمند رویکردهای بنیادی‌تر به جای تکیه صرف بر شبیه‌سازی استدلال بود.

هوش مصنوعی در دهه ۱۹۷۰

دهه ۱۹۸۰: سیستم‌های خبره – ظهور و افول

اوایل دهه ۱۹۸۰، هوش مصنوعی بار دیگر وارد دوره احیا شد – گاهی به آن «رنسانس هوش مصنوعی» گفته می‌شود. این پیشرفت ناشی از موفقیت‌های تجاری سیستم‌های خبره و بازگشت توجه سرمایه‌گذاران دولتی و خصوصی بود. کامپیوترها قدرتمندتر شدند و جامعه امیدوار بود که بتوان ایده‌های AI را در حوزه‌های محدود به واقعیت تبدیل کرد.

یکی از محرک‌های اصلی، سیستم‌های خبره تجاری بودند. در سال ۱۹۸۱، شرکت Digital Equipment Corporation سیستم XCON (Expert Configuration) را پیاده‌سازی کرد – سیستمی خبره که به پیکربندی سیستم‌های کامپیوتری کمک می‌کرد و میلیون‌ها دلار صرفه‌جویی برای شرکت به ارمغان آورد. موفقیت XCON موجی از توسعه سیستم‌های خبره در کسب‌وکارها برای پشتیبانی از تصمیم‌گیری ایجاد کرد. بسیاری از شرکت‌های فناوری، پوسته‌های سیستم خبره (expert system shell) را توسعه دادند تا کسب‌وکارها بتوانند سیستم‌های خود را سفارشی‌سازی کنند.

زبان Lisp نیز از آزمایشگاه خارج شد و ماشین‌های Lisp – سخت‌افزارهای تخصصی برای اجرای برنامه‌های AI – ظهور کردند. اوایل دهه ۱۹۸۰، شرکت‌های نوپای متعددی در زمینه ماشین‌های Lisp شکل گرفتند (مانند Symbolics و Lisp Machines Inc.) که باعث ایجاد تب سرمایه‌گذاری و آغاز «عصر ماشین‌های Lisp» برای AI شدند.

در این دوره، دولت‌های بزرگ نیز سرمایه‌گذاری قابل توجهی در AI کردند. در سال ۱۹۸۲، ژاپن پروژه نسل پنجم کامپیوتر را با بودجه ۸۵۰ میلیون دلار آغاز کرد تا کامپیوترهای هوشمند مبتنی بر منطق و Prolog توسعه دهد. به همین ترتیب، آمریکا (DARPA) نیز حمایت از تحقیقات AI را در رقابت فناوری با ژاپن افزایش داد. پروژه‌های سرمایه‌گذاری شده عمدتاً بر سیستم‌های خبره، پردازش زبان طبیعی و پایگاه دانش متمرکز بودند تا کامپیوترهای هوشمند برتر ساخته شوند.

در میان این موج خوش‌بینی، حوزه شبکه‌های عصبی مصنوعی نیز به آرامی احیا شد. در سال ۱۹۸۶، پژوهشگر جفری هینتون و همکارانش الگوریتم Backpropagation (پس‌انتشار خطا) را معرفی کردند – روشی مؤثر برای آموزش شبکه‌های عصبی چندلایه که محدودیت‌های مطرح شده در کتاب Perceptrons (۱۹۶۹) را برطرف می‌کرد.

در واقع، اصل پس‌انتشار از دهه ۱۹۷۰ مطرح شده بود، اما در اواسط دهه ۸۰ به دلیل افزایش قدرت محاسباتی به طور کامل بهره‌برداری شد. الگوریتم پس‌انتشار به سرعت موج دوم تحقیقات شبکه‌های عصبی را به راه انداخت. در این زمان، امید به یادگیری مدل‌های پیچیده توسط شبکه‌های عمیق شکل گرفت و زمینه‌ساز یادگیری عمیق (deep learning) شد.

پژوهشگران جوانی مانند Yann LeCun (فرانسه) و Yoshua Bengio (کانادا) نیز در این دوره به جنبش شبکه‌های عصبی پیوستند و مدل‌های موفقی برای تشخیص دست‌خط تا پایان دهه توسعه دادند.

با این حال، دومین دوره شکوفایی AI دوام چندانی نداشت. اواخر دهه ۱۹۸۰، حوزه AI دوباره به بحران افتاد زیرا نتایج انتظارات را برآورده نکردند. سیستم‌های خبره اگرچه در برخی کاربردهای محدود مفید بودند، اما ضعف‌هایی داشتند: آن‌ها سخت‌گیر، دشوار برای توسعه و نیازمند به‌روزرسانی دستی مداوم دانش بودند.

بسیاری از پروژه‌های بزرگ سیستم خبره شکست خوردند و بازار ماشین‌های Lisp نیز به دلیل رقابت با کامپیوترهای شخصی ارزان‌تر سقوط کرد. در سال ۱۹۸۷، صنعت ماشین Lisp تقریباً ورشکسته شد. سرمایه‌گذاری دوم در AI در اواخر دهه ۱۹۸۰ به شدت کاهش یافت و منجر به «زمستان دوم هوش مصنوعی» شد. اصطلاح «زمستان AI» که در سال ۱۹۸۴ مطرح شده بود، با بسته شدن بسیاری از شرکت‌های AI در سال‌های ۱۹۸۷–۱۹۸۸ تحقق یافت. بار دیگر، حوزه AI وارد چرخه رکود شد و پژوهشگران مجبور به تعدیل انتظارات و استراتژی‌های خود شدند.

خلاصه اینکه، دهه ۱۹۸۰ شاهد چرخه‌ای از شکوفایی و افول در AI بود. سیستم‌های خبره به AI کمک کردند تا برای نخستین بار وارد صنعت شود، اما محدودیت‌های رویکرد مبتنی بر قوانین ثابت را نیز نشان دادند. با این وجود، این دوره ایده‌ها و ابزارهای ارزشمندی مانند الگوریتم‌های شبکه عصبی و پایگاه‌های دانش را به ارمغان آورد. درس‌های مهمی درباره اجتناب از اغراق بیش از حد آموخته شد که پایه‌ای برای رویکردهای محتاطانه‌تر در دهه بعد شد.

هوش مصنوعی در دهه ۱۹۸۰

دهه ۱۹۹۰: بازگشت AI به عرصه عملی

پس از زمستان هوش مصنوعی اواخر دهه ۱۹۸۰، اعتماد به AI در دهه ۱۹۹۰ به تدریج بازگشت به لطف پیشرفت‌های عملی متعدد. به جای تمرکز بر هوش مصنوعی قوی (هوش مصنوعی عمومی و جامع) که جاه‌طلبانه بود، پژوهشگران روی هوش مصنوعی ضعیف متمرکز شدند – یعنی به کارگیری تکنیک‌های AI در مسائل خاص که نتایج قابل توجهی به همراه داشت. بسیاری از حوزه‌های فرعی AI مانند تشخیص گفتار، بینایی ماشین، الگوریتم‌های جستجو، پایگاه‌های دانش به طور مستقل رشد کردند و کاربردهای گسترده‌ای یافتند.

یکی از نقاط عطف مهم، موفقیت‌های عملی بود: در ماه مه ۱۹۹۷، کامپیوتر Deep Blue شرکت IBM، قهرمان شطرنج جهان گری کاسپاروف را در یک مسابقه رسمی شکست داد. این نخستین بار بود که یک سیستم AI در یک بازی فکری پیچیده، قهرمان جهان را شکست می‌داد و توجه عمومی را به خود جلب کرد.

پیروزی Deep Blue – مبتنی بر الگوریتم جستجوی brute-force همراه با پایگاه داده افتتاحیه‌ها – نشان داد که قدرت محاسباتی عظیم و تکنیک‌های تخصصی می‌توانند ماشین‌ها را در وظایف مشخص از انسان پیشی دهند. این رویداد بازگشتی درخشان برای AI در رسانه‌ها بود و شور و شوق تحقیقات را پس از سال‌ها رکود برانگیخت.

هوش مصنوعی دهه ۱۹۹۰ در زمینه‌های مختلف نیز پیشرفت کرد. در حوزه بازی‌ها، در سال ۱۹۹۴ برنامه Chinook بازی چکرز را به طور کامل حل کرد و قهرمان جهان را مجبور به پذیرش شکست نمود.

در زمینه تشخیص گفتار، سیستم‌های تجاری مانند Dragon Dictate (۱۹۹۰) ظاهر شدند و تا پایان دهه، نرم‌افزارهای تشخیص صدا به طور گسترده روی کامپیوترهای شخصی استفاده شدند. همچنین تشخیص دست‌خط روی دستگاه‌های PDA (دستیارهای دیجیتال شخصی) با دقت رو به افزایش ادغام شد.

کاربردهای بینایی ماشین در صنعت آغاز شد، از بازرسی قطعات تا سیستم‌های امنیتی. حتی ترجمه ماشینی – حوزه‌ای که در دهه ۶۰ ناامیدکننده بود – پیشرفت قابل توجهی داشت، مانند سیستم SYSTRAN که ترجمه خودکار چند زبان را برای اتحادیه اروپا فراهم کرد.

یکی دیگر از جهت‌های مهم، یادگیری ماشین آماری و شبکه‌های عصبی بود که برای استخراج داده‌های بزرگ به کار گرفته شدند. پایان دهه ۱۹۹۰ شاهد انفجار اینترنت و حجم عظیم داده‌های دیجیتال بود. تکنیک‌های کاوش داده (data mining) و الگوریتم‌های یادگیری ماشین مانند درخت تصمیم، شبکه‌های عصبی و مدل مارکوف مخفی برای تحلیل داده‌های وب، بهینه‌سازی موتورهای جستجو و شخصی‌سازی محتوا استفاده شدند.

اصطلاح «علم داده» هنوز رایج نبود، اما در واقع هوش مصنوعی به نرم‌افزارهای مختلف نفوذ کرده بود تا عملکرد را بر اساس یادگیری از داده‌های کاربران بهبود بخشد (مثلاً فیلترهای اسپم ایمیل، پیشنهاد محصولات در تجارت الکترونیک). این موفقیت‌های کوچک اما کاربردی به بازسازی اعتبار AI در چشم کسب‌وکارها و جامعه کمک کرد.

می‌توان گفت دهه ۱۹۹۰ دوره‌ای بود که AI به طور خاموش اما مستحکم وارد زندگی شد. به جای ادعاهای بزرگ درباره هوش انسانی، توسعه‌دهندگان روی مسائل تخصصی تمرکز کردند. نتیجه این بود که هوش مصنوعی در بسیاری از محصولات فناوری پایان قرن بیستم حضور داشت، بدون اینکه کاربران همیشه متوجه آن شوند – از بازی‌ها و نرم‌افزارها تا دستگاه‌های الکترونیکی. این دوره همچنین پایه‌های مهمی در زمینه داده و الگوریتم فراهم کرد که AI را برای انفجار بعدی آماده ساخت.

هوش مصنوعی در دهه ۱۹۹۰

دهه ۲۰۰۰: یادگیری ماشین و عصر داده‌های بزرگ

با ورود به قرن ۲۱، هوش مصنوعی به لطف اینترنت و عصر داده‌های بزرگ به شدت رشد کرد. دهه ۲۰۰۰ شاهد انفجار کامپیوترهای شخصی، شبکه‌های اینترنت و دستگاه‌های حسگر بود که حجم عظیمی از داده‌ها را تولید کردند. یادگیری ماشین – به ویژه روش‌های نظارت‌شده – به ابزار اصلی استخراج این «منبع نفتی» داده تبدیل شد.

شعار «داده‌ها نفت جدید هستند» رواج یافت، زیرا هرچه داده‌ها بیشتر باشد، الگوریتم‌های AI دقیق‌تر می‌شوند. شرکت‌های بزرگ فناوری شروع به ساخت سیستم‌های جمع‌آوری و یادگیری از داده‌های کاربران کردند تا محصولات خود را بهبود بخشند: گوگل با موتور جستجوی هوشمندتر، آمازون با پیشنهادات خرید بر اساس رفتار، نتفلیکس با الگوریتم‌های پیشنهاد فیلم. هوش مصنوعی به تدریج به «مغز» پشت صحنه پلتفرم‌های دیجیتال تبدیل شد.

سال ۲۰۰۶ رویداد مهمی بود: فی-فی لی، استاد دانشگاه استنفورد، پروژه ImageNet را آغاز کرد – پایگاه داده عظیمی با بیش از ۱۴ میلیون تصویر با برچسب‌های دقیق. معرفی ImageNet در سال ۲۰۰۹ به سرعت به معیار استاندارد آموزش و ارزیابی الگوریتم‌های بینایی ماشین تبدیل شد، به ویژه در تشخیص اشیاء در تصاویر.

ImageNet مانند «دوپینگ» برای تحقیقات یادگیری عمیق عمل کرد، زیرا داده کافی برای آموزش مدل‌های پیچیده فراهم آورد. مسابقه سالانه ImageNet Challenge از ۲۰۱۰ به بعد به میدان رقابت مهمی تبدیل شد که گروه‌های تحقیقاتی بهترین الگوریتم‌های تشخیص تصویر را ارائه می‌دادند. از این رقابت، نقطه عطف تاریخی AI در سال ۲۰۱۲ رخ داد (بخش دهه ۲۰۱۰).

در دهه ۲۰۰۰، AI به تدریج چندین دستاورد کاربردی برجسته را فتح کرد:

  • سال ۲۰۰۵، خودروی خودران استنفورد (با نام مستعار «استنلی») برنده مسابقه بزرگ DARPA شد – مسابقه خودروهای خودران در بیابان به طول ۲۱۲ کیلومتر. استنلی مسیر را در ۶ ساعت و ۵۳ دقیقه طی کرد و عصر جدیدی برای خودروهای خودران آغاز شد که توجه سرمایه‌گذاران بزرگی مانند گوگل و اوبر را جلب کرد.
  • دستیارهای صوتی موبایل ظهور کردند: در سال ۲۰۰۸، برنامه Google Voice Search امکان جستجوی صوتی روی آیفون را فراهم کرد؛ و اوج آن سیری اپل (۲۰۱۱) بود – دستیار صوتی یکپارچه در آیفون. سیری از فناوری تشخیص گفتار، درک زبان طبیعی و اتصال به سرویس‌های وب برای پاسخ به کاربران استفاده می‌کرد و اولین برخورد گسترده AI با عموم مردم را رقم زد.
  • سال ۲۰۱۱، ابرکامپیوتر IBM Watson دو قهرمان بازی تلویزیونی Jeopardy! را شکست داد. واتسون توانایی درک سوالات پیچیده انگلیسی و جستجوی حجم عظیمی از داده‌ها برای یافتن پاسخ را داشت و قدرت AI در پردازش زبان طبیعی و جستجوی اطلاعات را نشان داد. این پیروزی اثبات کرد که کامپیوترها می‌توانند در حوزه‌های دانش گسترده «فهمیده» و واکنش هوشمندانه داشته باشند.
  • شبکه‌های اجتماعی و وب: فیسبوک ویژگی تشخیص خودکار چهره و برچسب‌گذاری تصاویر را معرفی کرد (حدود ۲۰۱۰) که از الگوریتم‌های یادگیری ماشین روی داده‌های تصویری کاربران بهره می‌برد. یوتیوب و گوگل از AI برای فیلتر محتوا و پیشنهاد ویدئو استفاده کردند. تکنیک‌های یادگیری ماشین به طور پنهان در پس‌زمینه پلتفرم‌ها فعالیت می‌کردند و تجربه کاربری را بهینه می‌کردند بدون اینکه کاربران همیشه متوجه شوند.

می‌توان گفت محرک اصلی AI در دهه ۲۰۰۰ داده‌ها و کاربردها بودند. الگوریتم‌های یادگیری ماشین سنتی مانند رگرسیون، SVM، درخت تصمیم و غیره در مقیاس بزرگ اجرا شدند و نتایج عملی قابل توجهی به دست آوردند.

هوش مصنوعی که زمانی موضوعی تحقیقاتی بود، به شدت به صنعت منتقل شد: «هوش مصنوعی برای کسب‌وکار» به موضوع داغی تبدیل شد و شرکت‌های متعددی راهکارهای AI را در مدیریت، مالی، بازاریابی و غیره ارائه کردند. در سال ۲۰۰۶، اصطلاح «هوش مصنوعی سازمانی» (enterprise AI) مطرح شد که بر کاربرد AI برای افزایش بهره‌وری کسب‌وکار و تصمیم‌گیری تأکید داشت.

پایان دهه ۲۰۰۰ همچنین شاهد نشانه‌های اولیه انقلاب یادگیری عمیق بود. تحقیقات روی شبکه‌های عصبی چندلایه ادامه یافت. در سال ۲۰۰۹، گروه اندرو انگ در دانشگاه استنفورد اعلام کرد که با استفاده از GPU (واحد پردازش گرافیکی) توانسته‌اند سرعت آموزش شبکه‌های عصبی را ۷۰ برابر نسبت به CPU معمولی افزایش دهند.

قدرت محاسبات موازی GPU به طور تصادفی برای محاسبات ماتریسی شبکه‌های عصبی بسیار مناسب بود و راه را برای آموزش مدل‌های یادگیری عمیق بزرگ در دهه ۲۰۱۰ هموار کرد. عوامل نهایی – داده‌های بزرگ، سخت‌افزار قدرتمند و الگوریتم‌های بهبود یافته – آماده بودند تا انقلاب جدید AI را رقم بزنند.

هوش مصنوعی در دهه ۲۰۰۰

دهه ۲۰۱۰: انقلاب یادگیری عمیق (Deep Learning)

اگر بخواهیم دوره‌ای را انتخاب کنیم که هوش مصنوعی واقعاً «پرواز کرد»، آن دهه ۲۰۱۰ است. با پایه‌های داده و سخت‌افزار از دهه قبل، هوش مصنوعی وارد عصر یادگیری عمیق شد – مدل‌های شبکه عصبی چندلایه که دستاوردهای چشمگیری داشتند و تمام رکوردها را شکستند در طیف گسترده‌ای از وظایف AI. رویای ماشین‌هایی که «مانند مغز انسان یاد می‌گیرند» تا حدی با الگوریتم‌های یادگیری عمیق تحقق یافت.

نقطه عطف تاریخی در سال ۲۰۱۲ رخ داد، زمانی که گروه جفری هینتون و شاگردانش (الکس کریژفسکی، ایلیا سوتس‌کوور) در مسابقه ImageNet Challenge شرکت کردند. مدل آن‌ها – معروف به AlexNet – شبکه عصبی کانولوشنی ۸ لایه بود که روی GPU آموزش دیده بود. نتیجه، دقت بسیار بالایی بود که نرخ خطای تشخیص تصویر را نسبت به تیم دوم نصف کرد.

این پیروزی چشمگیر جامعه بینایی ماشین را شگفت‌زده کرد و آغاز تب یادگیری عمیق در AI بود. در سال‌های بعد، اکثر روش‌های سنتی تشخیص تصویر جای خود را به مدل‌های یادگیری عمیق دادند.

موفقیت AlexNet نشان داد که با داده کافی (ImageNet) و محاسبات (GPU)، شبکه‌های عصبی عمیق می‌توانند از سایر تکنیک‌های AI پیشی بگیرند. هینتون و همکارانش به سرعت به گوگل دعوت شدند و یادگیری عمیق به داغ‌ترین موضوع تحقیق AI تبدیل شد.

یادگیری عمیق نه تنها بینایی ماشین را متحول کرد، بلکه به پردازش گفتار، زبان و حوزه‌های دیگر نیز گسترش یافت. در سال ۲۰۱۲، Google Brain (پروژه اندرو انگ و جف دین) با معرفی شبکه عصبی عمیقی که ویدئوهای یوتیوب را خودآموزی می‌کرد و مفهوم «گربه» را بدون برچسب یاد گرفت، سروصدا کرد.

در بازه ۲۰۱۱–۲۰۱۴، دستیارهای صوتی مانند سیری، Google Now (۲۰۱۲) و Microsoft Cortana (۲۰۱۴) معرفی شدند که از پیشرفت‌های تشخیص گفتار و درک زبان طبیعی بهره می‌بردند. برای مثال، سیستم تشخیص گفتار مایکروسافت در سال ۲۰۱۷ به دقت انسانی رسید که عمدتاً به دلیل استفاده از شبکه‌های عصبی عمیق برای مدل‌سازی صوت بود. در ترجمه، گوگل ترنسلیت در سال ۲۰۱۶ به معماری ترجمه ماشینی مبتنی بر شبکه عصبی (NMT) منتقل شد که کیفیت ترجمه را به طور قابل توجهی بهبود بخشید.

رویداد مهم دیگر، پیروزی AI در بازی گو (Go) بود – نقطه عطفی که زمانی بسیار دور از دسترس تصور می‌شد. در مارس ۲۰۱۶، برنامه AlphaGo شرکت DeepMind (وابسته به گوگل) قهرمان جهان لی سدول را با نتیجه ۴-۱ شکست داد. بازی گو بسیار پیچیده‌تر از شطرنج است و تعداد حرکات ممکن آن به حدی زیاد است که نمی‌توان با جستجوی brute-force آن را حل کرد. AlphaGo با ترکیب یادگیری عمیق و الگوریتم جستجوی مونت‌کارلو، از میلیون‌ها بازی انسانی و بازی‌های خودآموزی بهره برد.

این پیروزی با مسابقه Deep Blue و کاسپاروف در سال ۱۹۹۷ مقایسه شد و نشان داد که AI می‌تواند در حوزه‌هایی که نیازمند شهود و تجربه است، از انسان پیشی بگیرد. پس از AlphaGo، DeepMind مدل AlphaGo Zero (۲۰۱۷) را توسعه داد که کاملاً خودآموز بود و بدون داده انسانی، نسخه قبلی را با نتیجه ۱۰۰-۰ شکست داد. این نشان‌دهنده پتانسیل یادگیری تقویتی همراه با یادگیری عمیق برای دستیابی به عملکرد فوق‌العاده است.

در سال ۲۰۱۷، اختراعی انقلابی در پردازش زبان طبیعی رخ داد: معماری Transformer. پژوهشگران گوگل مدل Transformer را در مقاله «توجه همه چیزی است که نیاز دارید» معرفی کردند که مکانیزم self-attention را برای مدل‌سازی روابط بین کلمات در جمله بدون نیاز به توالی زمانی پیشنهاد داد.

Transformer آموزش مدل‌های زبان بزرگ (LLM) را بسیار مؤثرتر از معماری‌های قبلی (RNN/LSTM) کرد. از اینجا به بعد، مدل‌های زبان پیشرفته مبتنی بر Transformer مانند BERT (گوگل، ۲۰۱۸) برای درک زمینه و به ویژه GPT (Generative Pre-trained Transformer) شرکت OpenAI که اولین بار در سال ۲۰۱۸ معرفی شد، ظهور کردند.

این مدل‌ها در وظایف زبانی از طبقه‌بندی و پاسخ به سوال تا تولید متن، نتایج برجسته‌ای داشتند. Transformer پایه‌گذار رقابت مدل‌های زبان عظیم در دهه ۲۰۲۰ شد.

پایان دهه ۲۰۱۰ همچنین شاهد ظهور هوش مصنوعی مولد (generative AI) بود – مدل‌هایی که قادر به تولید محتوای جدید بودند. در سال ۲۰۱۴، ایان گودفلو و همکارانش مدل GAN (Generative Adversarial Network) را اختراع کردند که شامل دو شبکه عصبی متقابل برای تولید داده‌های جعلی شبیه داده‌های واقعی بود.

GAN به سرعت به خاطر توانایی تولید تصاویر چهره‌های مصنوعی بسیار واقعی (deepfake) مشهور شد. همچنین مدل‌های autoencoder و انتقال سبک (style transfer) توسعه یافتند که امکان تغییر تصاویر و ویدئوها به سبک‌های جدید را فراهم کردند.

در سال ۲۰۱۹، OpenAI مدل GPT-2 را معرفی کرد – مدل تولید متن با ۱.۵ میلیارد پارامتر که توانایی تولید متن‌های طولانی و روان شبیه انسان را داشت. واضح بود که AI اکنون نه تنها در طبقه‌بندی و پیش‌بینی بلکه در تولید محتوا نیز توانمند شده است.

هوش مصنوعی در دهه ۲۰۱۰ پیشرفت‌های چشمگیری فراتر از انتظار داشت. بسیاری از وظایفی که قبلاً برای کامپیوترها «غیرممکن» به نظر می‌رسید، اکنون AI در سطح یا فراتر از انسان انجام می‌داد: تشخیص تصویر، تشخیص گفتار، ترجمه، بازی‌های پیچیده و غیره.

مهم‌تر از همه، هوش مصنوعی وارد زندگی روزمره شد: از دوربین‌های گوشی هوشمند با تشخیص چهره خودکار، دستیارهای صوتی در بلندگوهای هوشمند (آلکسا، گوگل هوم) تا پیشنهادات محتوا در شبکه‌های اجتماعی که همه توسط AI انجام می‌شد. این واقعاً دوره انفجار AI بود که بسیاری آن را «الکتریسیته جدید» نامیدند – فناوری بنیادی که همه صنایع را متحول می‌کند.

هوش مصنوعی در دهه ۲۰۱۰

دهه ۲۰۲۰: انفجار هوش مصنوعی مولد و روندهای نوین

در چند سال اول دهه ۲۰۲۰، هوش مصنوعی با سرعت بی‌سابقه‌ای انفجار کرد، عمدتاً به دلیل ظهور هوش مصنوعی مولد (Generative AI) و مدل‌های زبان بزرگ (LLM). این سیستم‌ها به AI اجازه دادند مستقیماً به صدها میلیون کاربر دسترسی پیدا کند و موجی از برنامه‌های خلاقانه و همچنین بحث‌های اجتماعی گسترده درباره تأثیرات AI را به راه انداختند.

در ژوئن ۲۰۲۰، OpenAI مدل GPT-3 را معرفی کرد – مدل زبان عظیمی با ۱۷۵ میلیارد پارامتر که ده برابر بزرگ‌تر از بزرگ‌ترین مدل قبلی بود. GPT-3 شگفت‌انگیز بود زیرا می‌توانست متن بنویسد، به سوالات پاسخ دهد، شعر بسراید، کد برنامه‌نویسی بنویسد تقریباً مانند انسان، هرچند هنوز خطاهای واقعی داشت. قدرت GPT-3 نشان داد که مقیاس مدل همراه با حجم عظیم داده‌های آموزشی می‌تواند توانایی تولید زبان روان و بی‌نظیری به AI ببخشد. برنامه‌های کاربردی مبتنی بر GPT-3 به سرعت ظاهر شدند، از تولید محتوای بازاریابی و دستیار ایمیل تا پشتیبانی برنامه‌نویسی.

در نوامبر ۲۰۲۲، AI واقعاً وارد توجه عمومی شد با عرضه ChatGPT – چت‌بات تعاملی توسعه یافته توسط OpenAI بر پایه مدل GPT-3.5. تنها در ۵ روز، ChatGPT به یک میلیون کاربر رسید و در حدود دو ماه بیش از ۱۰۰ میلیون کاربر جذب کرد و سریع‌ترین برنامه مصرفی رشد یافته در تاریخ شد.

ChatGPT توانایی پاسخگویی روان به مجموعه‌ای گسترده از سوالات، از نگارش متن و حل مسائل ریاضی تا مشاوره را داشت و کاربران را به خاطر هوشمندی و انعطاف‌پذیری خود شگفت‌زده کرد. محبوبیت ChatGPT نشان‌دهنده اولین استفاده گسترده AI به عنوان ابزار تولید محتوا و آغاز رقابت AI میان غول‌های فناوری بود.

اوایل ۲۰۲۳، مایکروسافت GPT-4 (نسخه بعدی OpenAI) را در موتور جستجوی Bing ادغام کرد، در حالی که گوگل چت‌بات Bard را با مدل LaMDA خود عرضه نمود. این رقابت به گسترش و بهبود سریع فناوری هوش مصنوعی مولد کمک کرد.

علاوه بر متن، هوش مصنوعی مولد در حوزه تصویر و صدا نیز پیشرفت چشمگیری داشت. در سال ۲۰۲۲، مدل‌های text-to-image مانند DALL-E 2 (OpenAI)، Midjourney و Stable Diffusion به کاربران اجازه می‌دادند با وارد کردن توصیف متنی، تصاویر خلق شده توسط AI دریافت کنند. کیفیت تصاویر بسیار زنده و خلاقانه بود و عصر جدیدی برای تولید محتوای دیجیتال آغاز کرد.

با این حال، این پیشرفت‌ها چالش‌هایی در زمینه حقوق مالکیت معنوی و اخلاق ایجاد کردند، زیرا AI از آثار هنرمندان برای آموزش استفاده می‌کرد و محصولاتی مشابه خلق می‌کرد. در حوزه صدا، مدل‌های نسل جدید text-to-speech قادر به تبدیل متن به صدایی کاملاً شبیه انسان بودند و حتی صداهای تقلیدی از افراد مشهور تولید می‌کردند که نگرانی‌هایی درباره deepfake صوتی به وجود آورد.

در سال ۲۰۲۳، برای نخستین بار پرونده‌های حقوقی درباره داده‌های آموزشی AI مطرح شد – مثلاً شرکت Getty Images از Stability AI (توسعه‌دهنده Stable Diffusion) شکایت کرد به دلیل استفاده از میلیون‌ها تصویر دارای حق نشر بدون اجازه برای آموزش مدل. این نشان‌دهنده روی تاریک انفجار AI است: مسائل حقوقی، اخلاقی و اجتماعی مطرح شده و نیازمند توجه جدی هستند.

در بحبوحه تب AI، سال ۲۰۲۳ شاهد ابراز نگرانی‌های جامعه متخصصان درباره ریسک‌های هوش مصنوعی قوی بود. بیش از ۱۰۰۰ شخصیت برجسته فناوری (از جمله ایلان ماسک، استیو وزنیاک و پژوهشگران AI) نامه‌ای سرگشاده امضا کردند که خواستار تعلیق ۶ ماهه آموزش مدل‌های بزرگ‌تر از GPT-4 شدند، به دلیل نگرانی از توسعه سریع خارج از کنترل.

در همان سال، پیشگامانی مانند جفری هینتون (یکی از «پدران» یادگیری عمیق) نیز درباره خطرات AI فراتر از کنترل انسانی هشدار دادند. کمیسیون اروپا به سرعت قانون AI (EU AI Act) را تکمیل کرد – نخستین مقررات جامع جهانی درباره هوش مصنوعی که از ۲۰۲۴ اجرا خواهد شد. این قانون استفاده از سیستم‌های AI با ریسک غیرقابل قبول (مانند نظارت گسترده و امتیازدهی اجتماعی) را ممنوع کرده و شفافیت مدل‌های AI عمومی را الزامی می‌کند.

در آمریکا نیز ایالت‌های متعددی قوانین محدودکننده استفاده از AI در حوزه‌های حساس (استخدام، مالی، تبلیغات سیاسی و غیره) تصویب کردند. واضح است که جهان در حال تسریع در تدوین چارچوب‌های حقوقی و اخلاقی برای AI است، امری اجتناب‌ناپذیر با توجه به تأثیرات گسترده فناوری.

در مجموع، دهه ۲۰۲۰ شاهد انفجار AI از نظر فناوری و فراگیری است. ابزارهای نسل جدید AI مانند ChatGPT، DALL-E، Midjourney و غیره به بخشی آشنا تبدیل شده‌اند و به میلیون‌ها نفر کمک می‌کنند تا خلاق‌تر و کارآمدتر باشند.

همزمان، رقابت سرمایه‌گذاری در AI بسیار داغ است: پیش‌بینی می‌شود هزینه‌های AI مولد شرکت‌ها در سال‌های آینده از ۱ میلیارد دلار فراتر رود. AI همچنین به طور فزاینده‌ای وارد حوزه‌های مختلفی مانند پزشکی (تشخیص تصویر، کشف دارو)، مالی (تحلیل ریسک، کشف تقلب)، آموزش (دستیارهای آموزشی، محتوای شخصی‌سازی شده)، حمل‌ونقل (خودروهای خودران سطح بالا)، دفاع (تصمیم‌گیری تاکتیکی) و غیره شده است.

می‌توان گفت هوش مصنوعی اکنون مانند برق یا اینترنت است – زیرساختی فناوری که همه کسب‌وکارها و دولت‌ها می‌خواهند از آن بهره‌مند شوند. بسیاری از متخصصان خوشبین‌اند که AI همچنان جهش‌های بزرگی در بهره‌وری و کیفیت زندگی ایجاد خواهد کرد اگر به درستی توسعه و مدیریت شود.

هوش مصنوعی در دهه ۲۰۲۰


از دهه ۱۹۵۰ تاکنون، تاریخچه توسعه هوش مصنوعی مسیر شگفت‌انگیزی را طی کرده است – پر از بلندپروازی، ناامیدی و سپس شکوفایی. از کارگاه کوچک دارتموث ۱۹۵۶ که پایه‌های این حوزه را گذاشت، AI دو بار وارد «زمستان هوش مصنوعی» شد به دلیل انتظارات بیش از حد، اما پس از هر بار با قدرت بیشتری احیا شد به لطف پیشرفت‌های علمی و فناوری. به ویژه در ۱۵ سال اخیر، AI پیشرفت‌های چشمگیری داشته و واقعاً از آزمایشگاه به دنیای واقعی آمده و تأثیر عمیقی ایجاد کرده است.

در حال حاضر، هوش مصنوعی در تقریباً همه حوزه‌ها حضور دارد و روز به روز هوشمندتر و چندمنظوره‌تر می‌شود. با این حال، هدف هوش مصنوعی قوی (هوش مصنوعی عمومی) – ماشینی با هوش انعطاف‌پذیر مانند انسان – هنوز در دسترس نیست.

مدل‌های AI کنونی هرچند چشمگیرند، اما تنها در حوزه‌های آموزش دیده عملکرد خوبی دارند و گاهی اشتباهات ساده‌ای مرتکب می‌شوند (مانند اینکه ChatGPT ممکن است با اعتماد به نفس بالا اطلاعات نادرست «توهم» بزند). همچنین چالش‌های ایمنی و اخلاقی وجود دارد که نیازمند توجه فوری است: چگونه AI را به گونه‌ای توسعه دهیم که قابل کنترل، شفاف و در خدمت منافع جمعی انسان‌ها باشد.

مسیر آینده AI بسیار جذاب خواهد بود. با روند کنونی، می‌توان انتظار داشت AI عمیق‌تر وارد زندگی شود: از پزشکان AI که به مراقبت سلامت کمک می‌کنند، وکلای AI که قوانین را جستجو می‌کنند، تا دوستان AI که در تحصیل و گفتگو همراه انسان‌ها هستند.

فناوری‌هایی مانند محاسبات نورومورفیک (neuromorphic computing) در حال تحقیق هستند تا ساختار مغز انسان را تقلید کنند و نسل جدیدی از AI کارآمد و نزدیک‌تر به هوش طبیعی ایجاد کنند. اگرچه چشم‌انداز هوش مصنوعی فراتر از هوش انسانی هنوز بحث‌برانگیز است، اما واضح است که AI به تکامل خود ادامه خواهد داد و آینده بشر را به شکلی عمیق شکل خواهد داد.

نگاهی به تاریخچه شکل‌گیری و توسعه هوش مصنوعی، داستانی از پشتکار و خلاقیت بی‌پایان انسان را نشان می‌دهد. از کامپیوترهای ابتدایی که فقط محاسبه می‌کردند، انسان‌ها به ماشین‌هایی آموختند که بازی کنند، رانندگی کنند، جهان را تشخیص دهند و حتی آثار هنری خلق کنند. هوش مصنوعی اکنون، گذشته و آینده، گواهی بر توانایی ما برای فراتر رفتن از محدودیت‌هاست.

مهم این است که از درس‌های تاریخ بیاموزیم – انتظارات واقع‌بینانه داشته باشیم و AI را مسئولانه توسعه دهیم – تا اطمینان حاصل کنیم که AI بیشترین منفعت را برای بشریت به ارمغان آورد در مسیرهای پیش رو.