בינה מלאכותית (AI) הפכה כיום לחלק מוכר בחיי היומיום המודרניים, ונמצאת בכל תחום, מעסקים ועד לרפואה. עם זאת, מעטים צפו כי ההיסטוריה של התפתחות הבינה המלאכותית החלה באמצע המאה ה-20 ועברה תהפוכות רבות לפני שהגיעה להישגים פורצי דרך כפי שאנו רואים היום.
מאמר זה של INVIAI יספק מבט מפורט על ההיסטוריה של היווצרות והתפתחות הבינה המלאכותית, מהרעיונות הראשוניים, דרך תקופות ה־"חורף הבינה המלאכותית" הקשות, ועד למהפכת הלמידה העמוקה ולגל הבינה המלאכותית היוצרת שפרץ בשנות ה-2020.
שנות ה-1950: תחילת הבינה המלאכותית
שנות ה-1950 נחשבות לנקודת הפתיחה הרשמית של תחום הבינה המלאכותית. בשנת 1950, המתמטיקאי אלן טיורינג פרסם את המאמר "Computing Machinery and Intelligence", בו הציע מבחן מפורסם להערכת יכולת החשיבה של מכונות – שנודע מאוחר יותר כמבחן טיורינג. זה נחשב לאבן דרך שהניחה את היסודות לתיאוריה של AI, עם הרעיון שמחשבים יכולים "לחשוב" כמו בני אדם.
בשנת 1956 הוטבע המונח "Artificial Intelligence" (בינה מלאכותית) רשמית. באותו קיץ, מדען המחשב ג'ון מקארתי (אוניברסיטת דארטמות') יחד עם עמיתים כמו מרווין מינסקי, נתניאל רוצ'סטר (IBM) וקלוד שאנון, ארגן סמינר היסטורי באוניברסיטת דארטמות'.
מקארתי הציע את המונח "בינה מלאכותית" (AI) לסמינר זה, ואירוע דארטמות' 1956 נחשב ללידת תחום הבינה המלאכותית. שם, המדענים הכריזו באומץ כי "כל היבט של למידה או אינטליגנציה ניתן לדמות באמצעות מכונות", וקבעו יעד שאפתני לתחום החדש.
בסוף שנות ה-1950 נרשמו הישגים ראשונים בתחום ה-AI. בשנת 1951 נכתבו תוכניות AI ראשוניות לריצה על מחשב Ferranti Mark I – בין היתר תוכנית לשחמט של כריסטופר סטרצ'י ותוכנית לשחמט של דיטריך פרינץ, שסימנו את הפעם הראשונה שמחשב שיחק משחק אינטלקטואלי.
בשנת 1955, ארתור סמואל ב-IBM פיתח תוכנית לשחמט עם יכולת למידה עצמית מניסיון, שהייתה מערכת למידת מכונה ראשונית. באותה תקופה, אלן ניואל, הרברט סיימון ועמיתיהם כתבו את תוכנית Logic Theorist (1956) – שיכלה להוכיח משפטים מתמטיים באופן אוטומטי, והראתה שמכונות יכולות לבצע היגיון לוגי.
לצד האלגוריתמים, כלים ושפות תכנות ייעודיות ל-AI נוצרו בשנות ה-1950. בשנת 1958, ג'ון מקארתי המציא את שפת התכנות Lisp – שפה שנועדה במיוחד ל-AI, שהפכה במהרה לפופולרית בקרב מפתחי AI. באותה שנה, הפסיכולוג פרנק רוזנבלט הציג את Perceptron – מודל רשת עצבית מלאכותית ראשוני עם יכולת למידה מנתונים. Perceptron נחשב ליסוד הראשוני של רשתות עצביות מודרניות.
בשנת 1959, ארתור סמואל השתמש לראשונה במונח "machine learning" (למידת מכונה) במאמר פורץ דרך, שתיאר כיצד מחשבים יכולים להיות מתוכנתים לללמוד ולשפר את יכולת המשחק שלהם מעבר למתכנתים. התפתחויות אלו הראו אופטימיות רבה: חלוצים האמינו שבמספר עשורים מחשבים יגיעו לאינטליגנציה אנושית.
שנות ה-1960: הצעדים הראשונים
בשנות ה-1960, ה-AI המשיכה להתפתח עם פרויקטים והמצאות משמעותיות. מעבדות AI הוקמו באוניברסיטאות מובילות (MIT, סטנפורד, קרנגי מלון...), שזכו לתמיכה ומימון מחקר. המחשבים הפכו חזקים יותר, ואפשרו ניסוי ברעיונות AI מורכבים יותר מאשר בעשור הקודם.
הישג בולט היה יצירת תוכנית הצ'אטבוט הראשונה. בשנת 1966, ג'וזף וייזנבאום מ-MIT יצר את ELIZA, תוכנית המדמה שיחה עם משתמש בסגנון פסיכולוג. ELIZA תוכנתה בפשטות (בהתבסס על זיהוי מילות מפתח ותבניות תגובה), אך הפתיעה בכך שרבים חשבו שELIZA באמת "מבינה" ויש לה רגשות. הצלחת ELIZA סללה את הדרך לצ'אטבוטים מודרניים והעלתה שאלות על נטיית האדם להקנות רגשות למכונות.
במקביל, הופיעו גם הרובוטים החכמים הראשונים. בין 1966 ל-1972, מכון המחקר של סטנפורד (SRI) פיתח את Shakey – הרובוט הנייד הראשון עם יכולת מודעות עצמית ותכנון פעולות במקום ביצוע פקודות בודדות בלבד. Shakey היה מצויד בחיישנים ומצלמות, יכל לנוע בסביבה ולנתח משימות בסיסיות כמו מציאת מסלול, דחיפת מכשולים, טיפוס על מדרגות ועוד. זה היה המערכת הראשונה ששילבה באופן מלא ראייה ממוחשבת, עיבוד שפה טבעית ותכנון ברובוט, והניחה את היסודות לרובוטיקה מבוססת AI.
האגודה האמריקאית לבינה מלאכותית (AAAI) נוסדה גם היא בתקופה זו (הקודמת לה היו כנס IJCAI ב-1969 וארגון AAAI מ-1980), לאיחוד חוקרי AI, מה שהדגים שקהילת ה-AI הולכת וגדלה.
בנוסף, שנות ה-1960 סימנו התפתחות של מערכות מומחים ואלגוריתמים בסיסיים. בשנת 1965, אדוארד פייגנבאום ועמיתיו פיתחו את DENDRAL – שנחשב למערכת המומחים הראשונה בעולם. DENDRAL תוכנן לתמוך בכימאים בניתוח מבנה מולקולות מנתוני ניסויים, באמצעות דימוי הידע והחשיבה של מומחה כימיה. הצלחת DENDRAL הראתה שמחשבים יכולים לסייע בפתרון בעיות מקצועיות מורכבות, והניחה את היסודות למערכות מומחים שפרחו בשנות ה-1980.
כמו כן, שפת התכנות Prolog (ייעודית לוגיקה בבינה מלאכותית) פותחה בשנת 1972 באוניברסיטת מרסיי, ופתחה גישה ל-AI מבוסס לוגיקה וחוקי יחסים. אבן דרך חשובה נוספת הייתה בשנת 1969, כאשר מרווין מינסקי ו-סיימור פייפרט פרסמו את הספר "Perceptrons". ספר זה הציג את המגבלות המתמטיות של מודל הפרספטרון חד-שכבתי (שלא יכול לפתור בעיית XOR פשוטה), מה שגרם לחשדנות קשה כלפי תחום הרשתות העצביות.
משקיעים רבים איבדו אמון ביכולת הלמידה של רשתות עצביות, ומחקר הרשתות העצביות דעך בסוף שנות ה-1960. זו הייתה ההתחלה של תקופת "הקיפאון" בהתלהבות מ-AI לאחר עשור של אופטימיות.
שנות ה-1970: אתגרים ו"חורף הבינה המלאכותית" הראשון
בשנות ה-1970, תחום ה-AI התמודד עם אתגרים מציאותיים: ציפיות גבוהות מהעשור הקודם לא התממשו בשל מגבלות כוח המחשוב, נתונים ומדע. כתוצאה מכך, האמון והמימון ל-AI החלו לרדת משמעותית באמצע שנות ה-1970 – תקופה שנודעה מאוחר יותר כ"חורף הבינה המלאכותית" הראשון.
בשנת 1973, סר ג'יימס לייטהיל הוסיף שמן למדורה כשפרסם דוח בשם "Artificial Intelligence: A General Survey" שהעריך באופן ביקורתי את ההתקדמות במחקר AI. דוח לייטהיל סיכם כי חוקרי AI "הבטיחו יותר מדי, אך השיגו מעט מדי", וביקר במיוחד את חוסר היכולת של מחשבים להבין שפה וראייה כפי שציפו.
דוח זה הוביל לקיצוץ תקציבים משמעותי למימון AI בממשלת בריטניה. בארה"ב, סוכנויות מימון כמו DARPA הפנו את ההשקעות לפרויקטים מעשיים יותר. כתוצאה, מ-אמצע שנות ה-1970 ועד תחילת שנות ה-1980, תחום ה-AI כמעט הוקפא, עם מעט פריצות דרך ומימון דל. זו הייתה תקופת חורף הבינה המלאכותית – מונח שהוטבע ב-1984 לתיאור תקופת הקיפאון הארוכה במחקר AI.
למרות הקשיים, שנות ה-1970 כללו כמה נקודות אור במחקר AI. מערכות מומחים המשיכו להתפתח באקדמיה, בולטת במיוחד הייתה MYCIN (1974) – מערכת מומחים לייעוץ רפואי שפותחה על ידי טד שורטליף בסטנפורד, שסייעה באבחון זיהומים בדם. MYCIN השתמשה בחוקי היגיון להמלצות טיפול והגיעה לדיוק גבוה, והראתה את הערך המעשי של מערכות מומחים בתחומים מצומצמים.
בנוסף, שפת Prolog (שיצאה ב-1972) החלה לשמש בפתרון בעיות עיבוד שפה ולוגיקה, והפכה לכלי חשוב ל-AI מבוסס לוגיקה. בתחום הרובוטיקה, בשנת 1979 קבוצת מחקר בסטנפורד הצליחה לפתח את Stanford Cart – הרובוט הראשון שנסע בעצמו בחדר מלא מכשולים ללא צורך בשליטה מרחוק. הישג זה, קטן ככל שיהיה, הניח את היסודות למחקר הרכבים האוטונומיים בעתיד.
בסך הכל, בסוף שנות ה-1970, מחקר ה-AI נכנס למצב של שפל. מדעני AI רבים נאלצו לשנות כיוון לתחומים קשורים כמו למידת מכונה סטטיסטית, רובוטיקה וראייה ממוחשבת כדי להמשיך בעבודתם.
ה-AI כבר לא הייתה ה"כוכב הזוהר" של העשור הקודם, אלא תחום מצומצם עם מעט התקדמות משמעותית. תקופה זו הזכירה לחוקרים כי אינטליגנציה מלאכותית מורכבת הרבה יותר ממה שחשבו, ודורשת גישות יסודיות חדשות במקום להסתמך רק על דימוי היגיון.
שנות ה-1980: מערכות מומחים – עלייה ושפל
בתחילת שנות ה-1980, ה-AI נכנסה שוב לשלב של התחדשות – לעיתים נקרא "רנסנס ה-AI". דחיפה זו נבעה מהצלחות מסחריות של מערכות מומחים וחידוש העניין וההשקעה מצד ממשלות ועסקים. המחשבים הפכו חזקים יותר, והקהילה האמינה שניתן לממש בהדרגה את רעיונות ה-AI בתחומים מצומצמים.
מניע מרכזי היה מערכות מומחים מסחריות. בשנת 1981, חברת Digital Equipment Corporation השיקה את XCON (Expert Configuration) – מערכת מומחים שסייעה בקונפיגורציה של מערכות מחשב, וחסכה לחברה מיליוני דולרים. הצלחת XCON הובילה לגל פיתוח של מערכות מומחים בארגונים לתמיכה בקבלת החלטות. חברות טכנולוגיה רבות השקיעו ביצירת "קליפות" למערכות מומחים (expert system shells) כדי לאפשר לעסקים לבנות מערכות מותאמות אישית.
שפת Lisp יצאה מהמעבדה עם הופעת מכונות Lisp (Lisp machines) – חומרה ייעודית לאופטימיזציה של הרצת תוכניות AI. בתחילת שנות ה-1980, נוסדו חברות סטארט-אפ רבות בתחום מכונות Lisp (כגון Symbolics, Lisp Machines Inc.), שיצרו באזז והשקעות, ונחשבו ל"עידן מכונות Lisp" עבור ה-AI.
גם ממשלות גדולות השקיעו משמעותית ב-AI בתקופה זו. בשנת 1982, יפן השיקה את פרויקט מחשב הדור החמישי עם תקציב של 850 מיליון דולר, במטרה לפתח מחשבים חכמים המשתמשים בלוגיקה ו-Prolog. במקביל, ארה"ב (DARPA) הגבירו את התמיכה במחקר AI במסגרת התחרות הטכנולוגית מול יפן. הפרויקטים התמקדו במערכות מומחים, עיבוד שפה טבעית ובסיסי ידע, בתקווה ליצור מחשבים חכמים מתקדמים.
בין גל האופטימיות החדש, תחום הרשתות העצביות המלאכותיות החל להתחדש בשקט. בשנת 1986, החוקר ג'פרי הינטון ועמיתיו פרסמו את אלגוריתם Backpropagation (הפצה לאחור) – שיטה יעילה לאימון רשתות עצביות רב-שכבתיות, שפתרה את המגבלות שהוצגו בספר Perceptrons (1969).
בעצם, עיקרון ההפצה לאחור נוסח כבר בשנות ה-70, אך רק באמצע שנות ה-80 הוא מומש במלואו בזכות כוח המחשוב שהתגבר. אלגוריתם ה-backpropagation עורר גל מחקר שני ברשתות עצביות. באותה תקופה, האמונה כי רשתות עצביות עמוקות יכולות ללמוד מודלים מורכבים החלה להתעורר, והניחה את היסודות ללמידה עמוקה (deep learning) בעתיד.
חוקרים צעירים כמו Yann LeCun (צרפת) ו-Yoshua Bengio (קנדה) הצטרפו לתנועה זו, ופיתחו מודלים לזיהוי כתב יד שהצליחו בסוף העשור.
עם זאת, השגשוג השני של ה-AI לא ארך זמן רב. בסוף שנות ה-1980, התחום שוב נכנס למשבר עקב תוצאות שלא עמדו בציפיות. מערכות מומחים, אף שהיו שימושיות בתחומים מצומצמים, הציגו חסרונות: הן היו קשיחות, קשות להרחבה ודרשו עדכון ידני מתמיד של הידע.
פרויקטים גדולים של מערכות מומחים נכשלו, ושוק מכונות Lisp קרס עקב תחרות ממחשבים אישיים זולים יותר. בשנת 1987, תעשיית מכונות Lisp כמעט פשטה רגל. ההשקעה ב-AI צונחה שנית בסוף שנות ה-1980, מה שהוביל לחורף AI שני. המונח "AI winter" שהוטבע ב-1984 התגשם כאשר חברות AI רבות נסגרו בין 1987 ל-1988. שוב, תחום ה-AI נכנס למחזור של ירידה, שדרש מהחוקרים להתאים ציפיות ואסטרטגיות.
לסיכום, שנות ה-1980 סימנו מחזור של פריחה ושפל ב-AI. מערכות מומחים סייעו ל-AI לחדור לתעשייה לראשונה, אך גם חשפו מגבלות הגישה המבוססת על חוקים נוקשים. עם זאת, התקופה ייצרה רעיונות וכלים יקרים ערך: מאלגוריתמים עצביים ועד בסיסי ידע ראשוניים. לקחים יקרים על הימנעות מהגזמות הונחו, והיוו בסיס לגישה זהירה יותר בעשור הבא.
שנות ה-1990: AI חוזרת לפרקטיקה
לאחר חורף ה-AI בסוף שנות ה-1980, האמון ב-AI החל להתאושש בשנות ה-1990 בזכות סדרת התקדמויות מעשיות. במקום להתמקד בAI חזק (אינטליגנציה מלאכותית כללית) שאפתנית, החוקרים התמקדו בAI חלש – יישום טכניקות AI לבעיות ספציפיות, שהחלו להניב תוצאות מרשימות. תחומים רבים שהתפצלו מ-AI בעבר (כגון זיהוי דיבור, ראייה ממוחשבת, אלגוריתמי חיפוש, מערכות ידע) התפתחו באופן עצמאי והיו נפוצים יותר.
ציון דרך חשוב שהוביל להצלחות מעשיות היה במאי 1997, כאשר מחשב Deep Blue של IBM ניצח את אלוף העולם בשחמט גרי קספרוב במשחק רשמי. זו הייתה הפעם הראשונה שמערכת AI ניצחה אלוף עולם במשחק אינטלקטואלי מורכב, וגרמה להדים רבים.
ניצחון Deep Blue – שהתבסס על אלגוריתם חיפוש ברוטפורס בשילוב עם בסיס נתונים של פתיחות – הדגים את כוח המחשוב העצום ואת הטכניקות המיוחדות שיכולות לסייע למכונות להתעלות על בני אדם במשימות מוגדרות. אירוע זה סימן חזרה מרשימה של ה-AI לתודעה הציבורית והמריץ מחקר לאחר שנים של קיפאון.
ה-AI בשנות ה-1990 התקדמה גם בתחומים רבים אחרים. בתחום המשחקים, בשנת 1994 תוכנית Chinook פתרה לחלוטין את משחק הדראפט (cờ đam), והכריחה את אלוף העולם להודות כי לא ניתן לנצח את המחשב.
בתחום זיהוי דיבור, מערכות מסחריות כמו Dragon Dictate (1990) החלו להופיע, ובסוף העשור תוכנות זיהוי דיבור שימשו באופן נרחב במחשבים אישיים. זיהוי כתב יד גם שולב במכשירי PDA (עוזרים דיגיטליים אישיים) עם דיוק הולך וגדל.
יישומי ראייה ממוחשבת החלו להיכנס לתעשייה, מבדיקת רכיבים ועד מערכות אבטחה. אפילו תרגום מכונה – תחום שגרם לאכזבות בשנות ה-60 – התפתח משמעותית עם מערכת SYSTRAN לתרגום אוטומטי רב-שפתי עבור האיחוד האירופי.
כיוון חשוב נוסף היה למידת מכונה סטטיסטית ורשתות עצביות שהוחלו על כריית נתונים גדולים. סוף שנות ה-1990 התאפיינו בפריחת האינטרנט, שיצרה כמות עצומה של נתונים דיגיטליים. טכניקות כריית נתונים (data mining) ואלגוריתמים של למידת מכונה כמו עצי החלטה, רשתות עצביות, מודלים סמויים של מרקוב ועוד, שימשו לניתוח נתוני רשת, אופטימיזציה של מנועי חיפוש והתאמה אישית של תוכן.
המונח "מדעי הנתונים" עדיין לא היה נפוץ, אך בפועל ה-AI כבר חדרה למערכות תוכנה לשיפור ביצועים באמצעות למידה מנתוני משתמש (כגון סינון דואר זבל, המלצות קניות באיקומרס). הצלחות קטנות אך משמעותיות אלו סייעו לשיקום אמון ה-AI בעיני עסקים וחברה.
ניתן לומר ששנות ה-1990 היו תקופת התקדמות שקטה אך יציבה של AI. במקום הצהרות נרחבות על אינטליגנציה אנושית, המפתחים התמקדו בפתרון בעיות ספציפיות. התוצאה היא שAI הייתה קיימת במוצרים טכנולוגיים רבים בסוף המאה ה-20 מבלי שמשתמשים תמיד שמו לב – ממשחקים ותוכנות ועד למכשירים אלקטרוניים. תקופה זו גם הניחה יסודות חשובים לנתונים ואלגוריתמים, שהכינו את ה-AI לפריחה בעשור הבא.
שנות ה-2000: למידת מכונה ועידן הנתונים הגדולים
עם כניסת המאה ה-21, ה-AI התעצמה משמעותית בזכות האינטרנט ועידן הנתונים הגדולים. שנות ה-2000 התאפיינו בפריחה של מחשבים אישיים, רשת האינטרנט ומכשירי חישה, שיצרו כמות עצומה של נתונים. למידת מכונה – במיוחד שיטות מונחות פיקוח – הפכה לכלי מרכזי לניצול "מאגרי הנתונים" הללו.
הסיסמה "data is the new oil" (נתונים הם הנפט החדש) הפכה לנפוצה, כי ככל שיש יותר נתונים, האלגוריתמים של ה-AI מדויקים יותר. חברות טכנולוגיה גדולות החלו לבנות מערכות לאיסוף ולמידה מנתוני משתמש לשיפור מוצרים: גוגל עם מנוע החיפוש החכם, אמזון עם המלצות קנייה מבוססות התנהגות, נטפליקס עם אלגוריתמי המלצות סרטים. ה-AI הפכה ל"מוח" השקט מאחורי הפלטפורמות הדיגיטליות.
בשנת 2006 אירוע חשוב התרחש: פיי-פיי לי, פרופסור באוניברסיטת סטנפורד, יזמה את פרויקט ImageNet – מאגר נתונים עצום עם מעל 14 מיליון תמונות מתויגות בפירוט. שהוצג ב-2009, ImageNet הפך לסטנדרט לאימון והערכת אלגוריתמים של ראייה ממוחשבת, במיוחד לזיהוי עצמים בתמונות.
ImageNet נחשב ל"ממריץ" שדחף את מחקר ה-deep learning מאוחר יותר, כשהוא סיפק מספיק נתונים לאימון מודלים עמוקים מורכבים. תחרות ImageNet Challenge השנתית מאז 2010 הפכה לזירה חשובה שבה קבוצות מחקר התחרו בפיתוח אלגוריתמים הטובים ביותר לזיהוי תמונות. מהזירה הזו יצא פריצת דרך היסטורית ב-2012 (ראו חלק שנות ה-2010).
גם בשנות ה-2000, ה-AI כבשה הישגים בולטים נוספים ביישומים:
- בשנת 2005, הרכב האוטונומי של סטנפורד (כינוי "סטנלי") ניצח בDARPA Grand Challenge – תחרות רכבים אוטונומיים במדבר לאורך 212 ק"מ. סטנלי סיים את המסלול ב-6 שעות ו-53 דקות, ופתח עידן חדש לרכבים אוטונומיים שקיבל השקעות גדולות מגוגל ואובר בשנים הבאות.
- עוזרים וירטואליים בטלפון הופיעו: בשנת 2008, אפליקציית Google Voice Search אפשרה חיפוש קולי באייפון; בשיאה, Apple Siri (שיצאה ב-2011) – עוזרת וירטואלית מבוססת קול באייפון. Siri השתמשה בטכנולוגיות זיהוי דיבור, הבנת שפה טבעית וחיבור לשירותי רשת, וסימנה את הכניסה הראשונה של AI לציבור הרחב בקנה מידה גדול.
- בשנת 2011, מחשב העל IBM Watson ניצח שני אלופי עולם במשחק השאלות Jeopardy! בטלוויזיה האמריקאית. Watson היה מסוגל להבין שאלות מורכבות באנגלית ולשלוף מידע עצום כדי למצוא תשובות, והדגים את כוח ה-AI בעיבוד שפה טבעית וחיפוש מידע. ניצחון זה הוכיח שמחשבים יכולים "להבין" ולהגיב בחוכמה בתחום ידע רחב.
- רשתות חברתיות ואינטרנט: פייסבוק הציגה תכונת זיהוי פנים אוטומטי לתיוג תמונות (כ-2010), שהשתמשה באלגוריתמי למידת מכונה על נתוני תמונות משתמשים. יוטיוב וגוגל השתמשו ב-AI לסינון תוכן והמלצות וידאו. טכניקות למידת מכונה פעלו בשקט בפלטפורמות, ושיפרו את חוויית המשתמש מבלי שמשתמשים תמיד היו מודעים לכך.
ניתן לומר כי המניע העיקרי של ה-AI בשנות ה-2000 היה נתונים ויישומים. אלגוריתמים מסורתיים כמו רגרסיה, SVM, עצי החלטה הוטמעו בקנה מידה גדול והניבו תוצאות מעשיות.
ה-AI, שהייתה נושא מחקר, השתלבה באופן משמעותי בתעשייה: "AI לעסקים" הפך לנושא חם, עם חברות רבות המספקות פתרונות AI בניהול, פיננסים, שיווק ועוד. בשנת 2006 הופיע המונח "בינה מלאכותית ארגונית" (enterprise AI), שהדגיש את השימוש ב-AI לשיפור יעילות עסקית וקבלת החלטות.
בסוף שנות ה-2000 נרשמה גם התחלה של מהפכת הלמידה העמוקה. מחקרים על רשתות עצביות רב-שכבתיות המשיכו לפרוח. בשנת 2009, קבוצת אנדרו נג באוניברסיטת סטנפורד פרסמה שימוש ב-GPU (מעבד גרפי) לאימון רשתות עצביות במהירות פי 70 ממעבד רגיל.
כוח המחשוב המקבילי של ה-GPU התאימה באופן טבעי לחישובי מטריצות ברשתות עצביות, ופתחה את הדרך לאימון מודלים גדולים של למידה עמוקה בעשור הבא. המרכיבים הסופיים – נתונים גדולים, חומרה חזקה ואלגוריתמים משופרים – היו מוכנים, והמתינו לפריצת דרך חדשה ב-AI.
שנות ה-2010: מהפכת הלמידה העמוקה (Deep Learning)
אם יש תקופה שבה ה-AI באמת "המריאה", זו שנות ה-2010. עם היסודות של נתונים וחומרה מהעשור הקודם, הבינה המלאכותית נכנסה לעידן הלמידה העמוקה (deep learning) – מודלים של רשתות עצביות רב-שכבתיות שהשיגו הישגים מרשימים, שברו שיאים במגוון משימות AI שונות. החלום של מכונות שיכולות "ללמוד כמו המוח האנושי" הפך במידה מסוימת למציאות באמצעות אלגוריתמים של למידה עמוקה.
נקודת מפנה היסטורית התרחשה ב-2012, כאשר קבוצת ג'פרי הינטון ותלמידיו (אלכס קריז'בסקי, איליה סוצקבר) השתתפו בתחרות ImageNet Challenge. המודל שלהם – שנקרא בדרך כלל AlexNet – היה רשת עצבית קונבולוציונית עם 8 שכבות שאומנה על GPU. התוצאה הייתה ש-AlexNet השיג דיוק גבוה משמעותית, והקטין בחצי את שיעור הטעות בזיהוי תמונות לעומת הקבוצה השנייה.
ניצחון מוחץ זה זעזע את קהילת הראייה הממוחשבת וסימן את תחילת "הבהלה ללמידה עמוקה" ב-AI. בשנים הבאות, רוב שיטות זיהוי התמונות המסורתיות הוחלפו במודלים של למידה עמוקה.
הצלחת AlexNet הוכיחה שעם מספיק נתונים (ImageNet) וחישוב (GPU), רשתות עצביות עמוקות יכולות לעלות על טכניקות AI אחרות. הינטון ועמיתיו הוזמנו במהרה לגוגל, ולמידה עמוקה הפכה למונח החם ביותר במחקר AI מאז.
למידה עמוקה לא רק מהפכה בראייה ממוחשבת, אלא התפשטה גם לעיבוד דיבור, שפה טבעית ותחומים רבים אחרים. בשנת 2012, Google Brain (פרויקט של אנדרו נג וג'ף דין) יצר רעש כשפרסם רשת עצבית עמוקה שלמדה לצפות בסרטוני YouTube וגילתה את המושג "חתול" ללא תיוג מוקדם.
בין 2011 ל-2014, עוזרים וירטואליים כמו Siri, Google Now (2012) ו-Microsoft Cortana (2014) הושקו, וניצלו את ההתקדמות בזיהוי דיבור והבנת שפה טבעית. לדוגמה, מערכת זיהוי הדיבור של מיקרוסופט הגיעה לדיוק ברמת אדם ב-2017, בעיקר בזכות שימוש ברשתות עצביות עמוקות למודלי קול. בתחום התרגום, בשנת 2016 גוגל טרנסלייט עברה למבנה תרגום מכונה מבוסס רשת עצבית (NMT), ששיפר משמעותית את איכות התרגום לעומת מודלים סטטיסטיים ישנים.
אירוע חשוב נוסף היה ניצחון ה-AI במשחק גו – אבן דרך שנחשבה רחוקה. במרץ 2016, תוכנית AlphaGo של DeepMind (של גוגל) ניצחה את אלוף העולם בגו לי סדול בתוצאה 4-1. גו הוא משחק מורכב בהרבה משחמט, עם מספר עצום של מהלכים אפשריים שלא ניתן לפתור בברוטפורס. AlphaGo שילבה למידה עמוקה ואלגוריתם Monte Carlo Tree Search, למדה לשחק דרך מיליוני משחקים אנושיים ומשחקה נגד עצמה.
ניצחון זה הושווה לחשיבות של משחק Deep Blue-קספרוב ב-1997, והוכיח שAI יכולה להתעלות על בני אדם בתחומים הדורשים אינטואיציה וניסיון. לאחר AlphaGo, DeepMind המשיכה לפתח את AlphaGo Zero (2017) שלמדה לשחק גו לבד מהחוקים בלבד, ללא נתוני אדם, וניצחה את הגרסה הקודמת 100-0. זה הדגים את הפוטנציאל של למידה מחוזקת (reinforcement learning) בשילוב למידה עמוקה להשגת ביצועים על-אנושיים.
גם בשנת 2017, פיתוח פורץ דרך בתחום עיבוד השפה היה ארכיטקטורת Transformer. חוקרי גוגל פרסמו את המודל במאמר "Attention Is All You Need", שהציע מנגנון self-attention המאפשר למודל ללמוד קשרים בין מילים במשפט בלי תלות בסדר הרציף.
Transformer אפשר אימון יעיל של מודלים גדולים של שפה (LLM) הרבה יותר מאשר ארכיטקטורות רציפות קודמות (RNN/LSTM). מאז, סדרת מודלים מבוססי Transformer נולדו: BERT (גוגל, 2018) להבנת הקשר, ובמיוחד GPT (Generative Pre-trained Transformer) של OpenAI שהוצג לראשונה ב-2018.
מודלים אלו השיגו תוצאות מצוינות במשימות שפה שונות – סיווג, מענה על שאלות ויצירת טקסט. Transformer הניח את היסודות למירוץ המודלים הגדולים בשנות ה-2020.
בסוף שנות ה-2010 הופיעה גם בינה מלאכותית יוצרת (generative AI) – מודלים שיכולים ליצור תוכן חדש. בשנת 2014, יאן גודפלו ועמיתיו המציאו את מודל GAN (Generative Adversarial Network), הכולל שתי רשתות עצביות מתחרות שיוצרות נתונים מזויפים שנראים אמיתיים.
GAN הפך למפורסם ביכולתו ליצור תמונות פנים מזויפות באיכות גבוהה (deepfake). במקביל, פותחו גם מודלים כמו autoencoder ו-variant (VAE) וstyle transfer המאפשרים שינוי תמונות וסרטונים בסגנונות חדשים.
בשנת 2019, OpenAI הציגה את GPT-2 – מודל טקסט עם 1.5 מיליארד פרמטרים שזכה לתשומת לב רבה בזכות יכולתו ליצור פסקאות ארוכות וזורמות הדומות לבני אדם. ברור כי ה-AI כבר לא רק מסווגת או חוזה, אלא גם יוצרת תוכן באופן משכנע.
ה-AI בשנות ה-2010 עשתה קפיצות גדולות מעבר לציפיות. משימות שבעבר נחשבו ל"בלתי אפשריות" למחשבים, הושגו או עלו על רמת האדם: זיהוי תמונות, זיהוי דיבור, תרגום, משחקים מורכבים ועוד.
חשוב מכך, ה-AI החלה לחדור לחיי היומיום: מצלמות סמארטפונים שמזהות פנים אוטומטית, עוזרים וירטואליים ברמקולים חכמים (Alexa, Google Home), והמלצות תוכן ברשתות חברתיות – כל אלה מנוהלים על ידי AI. זו הייתה תקופת פריחת ה-AI, שגרמה להשוואות ל"החשמל החדש" – טכנולוגיה בסיסית שמשנה כל תחום.
שנות ה-2020: פריחת הבינה המלאכותית היוצרת ומגמות חדשות
בתוך מספר שנים בלבד בתחילת שנות ה-2020, ה-AI פרצה בקצב חסר תקדים, בעיקר בזכות התפתחות הבינה המלאכותית היוצרת (Generative AI) ומודלים גדולים של שפה (LLM). מערכות אלו מאפשרות ל-AI להגיע ישירות למאות מיליוני משתמשים, ויוצרות גל של יישומים יצירתיים לצד דיונים חברתיים נרחבים על השפעות ה-AI.
ביוני 2020, OpenAI הציגה את GPT-3 – מודל שפה עצום עם 175 מיליארד פרמטרים, פי 10 מהמודל הגדול ביותר קודם לכן. GPT-3 הפתיע ביכולתו לכתוב פסקאות, לענות על שאלות, לכתוב שירה, לכתוב קוד תוכנה... כמעט כמו אדם, אם כי עדיין עם טעויות מעשיות. עוצמת GPT-3 הראתה כי גודל המודל בשילוב עם כמות עצומה של נתוני אימון יכולים להביא ליכולת שפה חלקה וחדשנית. יישומים מבוססי GPT-3 צצו במהירות, מכתיבת תוכן שיווקי, עוזרי דוא"ל ועד תמיכה בתכנות.
בנובמבר 2022, ה-AI יצאה לאור העם עם השקת ChatGPT – צ'אטבוט אינטראקטיבי שפותח על ידי OpenAI, מבוסס על מודל GPT-3.5. בתוך 5 ימים, ChatGPT הגיע למיליון משתמשים, ובכ-חודשיים עבר את 100 מיליון המשתמשים, והפך לאפליקציית הצריכה עם הצמיחה המהירה ביותר בהיסטוריה.
ChatGPT מסוגל לענות בצורה שוטפת על מגוון שאלות, החל מכתיבת טקסטים, פתרון בעיות, ייעוץ ועוד, והפתיע משתמשים בחוכמה וגמישות. הפופולריות של ChatGPT סימנה את השימוש ההמוני הראשון של AI ככלי ליצירת תוכן, והחלה את מירוץ ה-AI בין ענקיות הטכנולוגיה.
בתחילת 2023, מיקרוסופט שילבה את GPT-4 (הדור הבא של OpenAI) בכלי החיפוש Bing, בעוד שגוגל השיקה את הצ'אטבוט Bard המשתמש במודל LaMDA שלה. התחרות הזו סייעה לטכנולוגיית הבינה המלאכותית היוצרת להתפשט ולהשתפר במהירות.
מעבר לטקסט, הבינה המלאכותית היוצרת בתחום התמונה והקול התפתחה משמעותית. בשנת 2022, מודלים text-to-image כמו DALL-E 2 (OpenAI), Midjourney ו-Stable Diffusion אפשרו למשתמשים להזין תיאורי טקסט ולקבל תמונות שצוירו על ידי AI. איכות התמונות הייתה מרשימה ומפתיעה, ופתחה עידן חדש של יצירת תוכן דיגיטלי.
עם זאת, זה גם העלה אתגרים של זכויות יוצרים ואתיקה, כאשר AI לומדת מתמונות של אמנים ויוצרת יצירות דומות. בתחום הקול, מודלים text-to-speech חדשים יכולים להמיר טקסט לקול דומה מאוד לאדם, ואף לחקות קולות של מפורסמים, מה שמעלה חששות לגבי deepfake קול.
בשנת 2023, לראשונה התקיימו תביעות משפטיות בנושא זכויות יוצרים על נתוני אימון AI – למשל, חברת Getty Images תבעה את Stability AI (מפתחת Stable Diffusion) על שימוש במיליוני תמונות עם זכויות יוצרים לאישור המודל ללא רשות. זה מראה את הצד האפל של פריחת ה-AI: סוגיות משפטיות, אתיות וחברתיות צצות ודורשות תשומת לב רצינית.
בתוך סערת ה-AI, בשנת 2023 קהילת מומחים הביעה חששות לגבי סיכוני AI חזק. למעלה מ-1,000 אישיות בתעשייה (כולל אילון מאסק, סטיב ווזניאק וחוקרי AI) חתמו על מכתב פתוח שקרא להשהיית אימון מודלים גדולים מ-GPT-4 למשך 6 חודשים, מחשש שהפיתוח המהיר מדי עלול לצאת משליטה.
באותה שנה, חלוצים כמו ג'פרי הינטון (אחד מ"אבוני" הלמידה העמוקה) גם הזהירו מפני סיכונים של AI שיצא משליטה אנושית. הוועדה האירופית השלימה במהירות את חוק ה-AI של האיחוד האירופי (EU AI Act) – הרגולציה המקיפה הראשונה בעולם לבינה מלאכותית, שתיכנס לתוקף ב-2024. החוק אוסר על מערכות AI שנחשבות ל"סיכון בלתי מתקבל" (כגון מעקב המוני, דירוג חברתי) ודורש שקיפות במודלים כלליים.
בארה"ב, מדינות רבות חוקקו חוקים להגבלת השימוש ב-AI בתחומים רגישים (כגון גיוס עובדים, פיננסים, לובינג פוליטי ועוד). ברור כי העולם ממהר לעצב מסגרת משפטית ואתית ל-AI, כחלק בלתי נמנע מהתפתחות הטכנולוגיה והשפעתה הרחבה.
בסיכום, שנות ה-2020 מציינות פריחה טכנולוגית וציבורית של ה-AI. כלי AI חדשים כמו ChatGPT, DALL-E, Midjourney ועוד הפכו מוכרים, ועזרו למיליוני אנשים ליצור ולעבוד ביעילות בדרכים שלא היו אפשריות קודם.
במקביל, מירוץ ההשקעות ב-AI מתנהל בעוצמה: לפי תחזיות, ההוצאה העסקית על AI יוצרת תכנים תעלה על טריליון דולר בשנים הקרובות. ה-AI גם חודרת לעומק לתחומים כמו רפואה (תמיכה באבחון תמונות, חיפוש תרופות), פיננסים (ניתוח סיכונים, גילוי הונאות), חינוך (עוזרים וירטואליים, תוכן מותאם אישית), תחבורה (רכבים אוטונומיים), ביטחון (קבלת החלטות טקטיות) ועוד.
ניתן לומר כי ה-AI כיום דומה לחשמל או לאינטרנט – תשתית טכנולוגית שכל עסק וממשלה רוצים לנצל. מומחים רבים אופטימיים כי ה-AI תמשיך להביא קפיצות גדולות בפרודוקטיביות ובאיכות החיים אם תפותח ותנוהל נכון.
מאמצע שנות ה-1950 ועד היום, ההיסטוריה של התפתחות ה-AI עברה דרך מרתקת – מלאה בשאיפות, אכזבות, ואז פריחה. מהסמינר הקטן בדארטמות' ב-1956 שהניח את היסודות לתחום, ה-AI נכנסה פעמיים ל"חורף" עקב ציפיות מופרזות, אך בכל פעם התעוררה מחדש בעוצמה בזכות פריצות דרך מדעיות וטכנולוגיות. במיוחד ב-15 השנים האחרונות, ה-AI התקדמה משמעותית, יצאה מהמעבדה לעולם האמיתי ויצרה השפעה רחבה.
כיום, ה-AI נמצאת כמעט בכל תחום והופכת לחכמה ורב-תכליתית יותר. עם זאת, המטרה של AI חזקה (אינטליגנציה מלאכותית כללית) – מכונה עם אינטליגנציה גמישה כמו בני אדם – עדיין רחוקה.
המודלים הקיימים מרשימים אך מוגבלים למשימות שהוכשרו אליהן, ולעיתים עושים טעויות מוזרות (כמו שChatGPT עלול "להזות" מידע שגוי בביטחון רב). האתגרים של בטיחות ואתיקה דורשים תשומת לב דחופה: כיצד לפתח AI בשליטה, שקיפות ולמען טובת הכלל.
הדרך הבאה של ה-AI מבטיחה להיות מרתקת במיוחד. בהתחשב בקצב ההתקדמות, אנו צפויים לראות את ה-AI חודרת עמוק יותר לחיינו: מרופאי AI המסייעים בטיפול רפואי, עורכי דין AI המחפשים חוקים, ועד חברים AI המלווים בלימודים ובשיחות.
טכנולוגיות כמו חישוב נוירומורפי (neuromorphic computing) נחקרות כדי לחקות את מבנה המוח האנושי, ויכולות ליצור דורות חדשים של AI יעילים וקרובים לאינטליגנציה טבעית. למרות שהאפשרות של AI שעולה על האינטליגנציה האנושית מעוררת מחלוקת, ברור שה-AI תמשיך להתפתח ולעצב את עתיד האנושות בצורה עמוקה.
בהסתכלות לאחור על ההיסטוריה של היווצרות והתפתחות ה-AI, אנו רואים סיפור של התמדה ויצירתיות בלתי פוסקת של האדם. ממחשב ראשוני שידע רק לחשב, לימדנו את המכונות לשחק שחמט, לנהוג, לזהות את העולם ואפילו ליצור אמנות. הבינה המלאכותית היא, הייתה ותמשיך להיות הוכחה ליכולת שלנו לפרוץ גבולות.
החשוב הוא שנלמד מההיסטוריה – למקם ציפיות נכונות, לפתח AI באחריות – כדי להבטיח שה-AI תביא תועלת מקסימלית לאנושות בדרכים הבאות.