人工智慧(AI)如今已成為現代生活中熟悉的一部分,出現在從商業到醫療的各個領域。然而,鮮少人知道AI 的發展歷史始於 20 世紀中葉,經歷多次起伏,才達成如今的爆發性成就

本文由 INVIAI 提供關於 AI 形成與發展歷史的詳細觀察,從最初的初步構想,經歷艱難的「AI 冬天」階段,到深度學習革命生成式 AI 浪潮在 2020 年代的爆發。

1950 年代:人工智慧的起點

1950 年代被視為AI 領域的正式起點。1950 年,數學家艾倫·圖靈(Alan Turing)發表了《Computing Machinery and Intelligence》論文,提出著名的圖靈測試,用以評估機器的思考能力,後來被稱為圖靈測試。這被視為開啟了電腦能像人類一樣「思考」的理論基礎。

1956 年,「Artificial Intelligence(人工智慧)」一詞正式誕生。當年夏天,計算機科學家約翰·麥卡錫(John McCarthy)(達特茅斯學院)與同事 Marvin Minsky、Nathaniel Rochester(IBM)及 Claude Shannon 共同舉辦了歷史性的達特茅斯會議。

麥卡錫提出了「人工智慧(AI)」這一術語,達特茅斯 1956 會議通常被視為AI 領域的誕生。會中,科學家們大膽宣稱「學習或智能的所有方面都可以用機器模擬」,為這一新興領域設定了雄心壯志的目標。

1950 年代末期見證了多項AI 的初步成就。1951 年,早期 AI 程式在 Ferranti Mark I 電腦上運行,值得注意的是Christopher Strachey的跳棋程式和Dietrich Prinz的西洋棋程式,標誌著電腦首次能玩智能遊戲

1955 年,IBM 的Arthur Samuel開發了能夠從經驗中自我學習的跳棋程式,成為最早的機器學習系統。同時期,Allen Newell、Herbert Simon及其團隊編寫了Logic Theorist(1956),能自動證明數學定理,證明機器能進行邏輯推理。

除了算法,1950 年代還誕生了專為 AI 設計的工具與程式語言。1958 年,John McCarthy 發明了專為 AI 設計的程式語言Lisp,迅速成為 AI 開發社群的主流語言。同年,心理學家Frank Rosenblatt提出了感知器(Perceptron),這是第一個能從數據中學習的人工神經網絡模型,被視為現代神經網絡的基礎。

1959 年,Arthur Samuel 首次在一篇具有里程碑意義的論文中使用了「機器學習(machine learning)」一詞,描述了電腦如何被程式設計來學習並自我提升跳棋技能,甚至超越程式設計者。這些發展展現了強烈的樂觀態度:先驅們相信在幾十年內,機器能達到人類智能水平。

1950 年代 - 人工智慧的起點

1960 年代:初步進展

進入 1960 年代,AI 持續發展,出現多個重要項目與發明。多所著名大學(MIT、史丹佛、卡內基梅隆等)成立 AI 實驗室,吸引研究關注與資金支持。當時的電腦性能逐漸提升,使得更複雜的 AI 構想得以實驗。

一項重要成就是首個聊天機器人的誕生。1966 年,MIT 的Joseph Weizenbaum創造了ELIZA,一個模擬心理醫生風格與用戶對話的程式。ELIZA 程式設計簡單(基於關鍵詞識別與模板回應),但令人驚訝的是,許多人誤以為ELIZA 真正「理解」並有情感。ELIZA 的成功不僅為現代聊天機器人鋪路,也引發了人類傾向賦予機器情感的討論。

同時,首批智能機器人也開始出現。1966 至 1972 年間,史丹佛研究院(SRI)開發了Shakey,這是第一個能夠自主感知與規劃行動的移動機器人,而非僅執行單一指令。Shakey 配備感測器與攝影機,能在環境中自主移動,分析任務並完成基本步驟如尋路、推動障礙物、爬坡等。這是首個整合電腦視覺、自然語言處理與規劃的機器人,為後來的機器人 AI奠定基礎。

美國人工智慧協會(AAAI)也於此時期成立(前身為 1969 年的 IJCAI 會議,1980 年正式成立 AAAI),凝聚 AI 研究社群,顯示AI 社群日益壯大

此外,1960 年代也見證了專家系統與基礎算法的發展。1965 年,Edward Feigenbaum與同事開發了DENDRAL,被認為是世界上第一個專家系統。DENDRAL 設計用於協助化學家從實驗數據分析分子結構,模擬化學專家的知識與推理。DENDRAL 的成功證明電腦能解決複雜專業問題,為 1980 年代專家系統的爆發奠定基礎。

另外,專為邏輯 AI 設計的程式語言Prolog於 1972 年在馬賽大學開發,開啟了基於邏輯與關係規則的 AI 研究方向。1969 年,Marvin MinskySeymour Papert出版了《Perceptrons》,指出單層感知器模型的數學限制(無法解決 XOR 問題),導致神經網絡領域遭受嚴重質疑

許多資助者對神經網絡的學習能力失去信心,神經網絡研究於 1960 年代末逐漸衰退。這是 AI 熱潮過後首次出現的「AI 冬天」徵兆。

1960 年代的 AI

1970 年代:挑戰與首個「AI 冬天」

進入 1970 年代,AI 面臨現實挑戰:前一年代的高期待因計算能力、數據與科學理解的限制未能實現,導致信心與資金大幅減少,此階段後被稱為首個「AI 冬天」

1973 年,詹姆斯·萊特希爾爵士(Sir James Lighthill)發表名為《Artificial Intelligence: A General Survey》的報告,對 AI 研究進展持悲觀評價。萊特希爾報告指出 AI 研究「承諾過多,成果甚少」,尤其批評電腦尚無法達到語言理解與視覺識別的預期。

該報告導致英國政府大幅削減 AI 預算。美國的 DARPA 也轉向更實用的項目。結果是從1970 年代中期到 1980 年初,AI 領域幾乎停滯不前,缺乏重大突破與資金支持,這正是所謂的「AI 冬天」——1984 年起用以形容 AI 研究長期低迷的術語。

儘管困難重重,1970 年代仍有一些亮點。專家系統在學術界持續發展,代表作是 1974 年由 Ted Shortliffe 在史丹佛開發的醫療專家系統MYCIN,用於診斷血液感染。MYCIN 利用推理規則給出治療建議,準確度高,證明了專家系統在狹窄領域的實用價值。

此外,1972 年推出的Prolog 程式語言開始應用於語言處理與邏輯問題,成為基於邏輯的 AI 重要工具。1979 年,史丹佛研究團隊成功開發了Stanford Cart,這是首輛能在障礙重重的房間內自主移動、無需遠端操控的機器車。此成就雖小,卻為後來的自駕車研究奠定基礎。

整體而言,1970 年代末期,AI 研究陷入低潮,許多 AI 科學家轉向相關領域如機器學習、統計學、機器人與電腦視覺繼續工作。

AI 不再是前一十年的「明星」,而成為一個進展緩慢的狹窄領域。這一時期提醒研究者,人工智慧比預期複雜得多,需要更根本的新方法,而非僅靠模擬推理。

1970 年代的 AI

1980 年代:專家系統的興衰

1980 年代初,AI 再度進入復興階段,有時稱為「AI 文藝復興」。這波推動力來自於專家系統的商業成功及政府與企業的重新投資。電腦性能提升,社群相信可逐步實現狹窄領域的 AI 構想。

一大動力是商業專家系統。1981 年,Digital Equipment Corporation 推出XCON(Expert Configuration),幫助配置電腦系統,為公司節省數千萬美元。XCON 的成功推動企業內專家系統的發展,支持決策。許多科技公司投資開發專家系統框架(expert system shell),方便企業定制專屬系統。

Lisp 程式語言也走出實驗室,出現了專為 AI 運行優化的Lisp 機器。1980 年代初,眾多 Lisp 機器初創公司(如 Symbolics、Lisp Machines Inc.)成立,引發投資熱潮,被稱為 AI 的「Lisp 機器時代」

各大政府也大力資助 AI。1982 年,日本啟動了耗資 8.5 億美元的第五代電腦計劃,目標開發基於邏輯與 Prolog 的智能電腦。美國(DARPA)也加強 AI 研究資助,聚焦專家系統、自然語言處理與知識庫,期望打造卓越智能電腦。

在這波樂觀浪潮中,人工神經網絡也悄然復甦。1986 年,研究者Geoffrey Hinton等人發表了反向傳播(Backpropagation)算法,這是一種有效訓練多層神經網絡的方法,解決了 1969 年《Perceptrons》一書指出的限制。

反向傳播算法迅速引發了第二波神經網絡研究熱潮。此時,深度神經網絡有望學習複雜模型,為後來的深度學習奠定基礎。

年輕研究者如 Yann LeCun(法國)、Yoshua Bengio(加拿大)也加入神經網絡運動,成功開發手寫字識別模型,成為 1980 年代末的重要成果。

然而,AI 第二次繁榮並未持久。1980 年代末,AI 再度陷入危機,因為成果未達預期。專家系統雖在狹窄領域有效,但暴露出僵化、難以擴展且需人工持續更新知識的缺點。

多個大型專家系統項目失敗,Lisp 機器市場因個人電腦競爭而崩潰。1987 年,Lisp 機器產業幾乎完全破產。AI 第二次資金削減發生於 1980 年代末,導致第二波「AI 冬天」。1984 年提出的「AI 冬天」一詞在 1987-1988 年間多家 AI 公司倒閉時應驗。AI 領域再次陷入低潮,研究者被迫調整期望與策略。

總結來說,1980 年代是 AI 的興衰週期專家系統首次讓 AI 進入工業實踐,但也暴露了基於固定規則方法的限制。儘管如此,這一時期孕育了許多寶貴的理念與工具:從神經網絡算法到首批知識庫。同時,這段經歷教會我們避免過度炒作,為未來更謹慎的發展奠定基礎。

1980 年代的 AI

1990 年代:AI 重返實務

經歷了 1980 年代末的AI 冬天後,1990 年代AI 信心逐步恢復,得益於一系列實用性進展。研究重點從雄心勃勃的強 AI(通用人工智慧)轉向弱 AI,即將 AI 技術應用於具體問題,取得顯著成果。許多 AI 衍生領域(如語音識別、電腦視覺、搜尋算法、知識庫系統)獨立發展並廣泛應用。

一個重要里程碑是 1997 年 5 月,IBM 的電腦Deep Blue擊敗世界西洋棋冠軍加里·卡斯帕羅夫(Garry Kasparov)。這是AI 系統首次在複雜智力遊戲中擊敗世界冠軍,引起廣泛關注。

Deep Blue 利用暴力搜尋結合開局資料庫,展現了強大的計算能力與專門技術,標誌著 AI 在媒體上的華麗回歸,激發了多年來的研究熱情。

不僅在西洋棋,1990 年代的 AI 在多個領域取得進展。1994 年,程式Chinook完全解決了跳棋遊戲,令世界冠軍承認無法擊敗電腦。

語音識別方面,商業系統如 Dragon Dictate(1990)開始出現,至十年末,語音識別軟體廣泛應用於個人電腦。手寫識別也整合於 PDA(個人數位助理)設備,準確度日益提升。

機器視覺應用於工業檢測與安全系統。即使是曾令 AI 失望的機器翻譯,也因 SYSTRAN 系統支持多語言自動翻譯而取得進展,廣泛應用於歐盟。

另一重要方向是統計機器學習與神經網絡應用於大規模數據挖掘。1990 年代末,互聯網爆炸式增長,帶來海量數據。技術如資料探勘(data mining)與機器學習算法(決策樹、神經網絡、隱馬可夫模型等)被用於網絡數據分析、搜尋優化與內容個性化。

「資料科學」一詞尚未普及,但 AI 已滲透軟體系統,透過學習用戶數據提升性能(如垃圾郵件過濾、電商推薦)。這些實用成功幫助 AI 在企業與社會中重建信譽。

可以說,1990 年代是 AI 「默默紮根」的時期。研究者不再誇大智能,而專注於解決具體問題。結果是,AI 已存在於 20 世紀末多種科技產品中,用戶往往未察覺,從遊戲、軟體到電子設備。這一時期也為 AI 的數據與算法基礎打下重要基礎,為下一個爆發期做準備。

1990 年代的 AI

2000 年代:機器學習與大數據時代

進入 21 世紀,AI 因互聯網與大數據時代而強勢轉型。2000 年代見證了個人電腦、網絡與感測設備的爆炸式增長,產生海量數據。機器學習(特別是監督式學習)成為開採這些「數據寶藏」的核心工具。

資料是新石油」的口號盛行,因為數據越多,AI 算法越精準。大型科技公司開始建立用戶數據收集與學習系統,提升產品性能:Google 的智慧搜尋、Amazon 的行為推薦、Netflix 的影片推薦。AI 漸成數位平台背後的「大腦」

2006 年是重要里程碑:史丹佛大學教授 Fei-Fei Li發起了ImageNet計劃,建立超過 1400 萬張帶有詳細標籤的圖像數據庫。2009 年推出後,ImageNet 迅速成為訓練與評估電腦視覺算法的標準數據集,尤其是物體識別。

ImageNet 被譽為推動後續深度學習研究的「助推劑」,因為它提供了足夠的數據支持複雜深度模型的訓練。從 2010 年起,ImageNet 挑戰賽成為重要競技場,促使研究團隊開發最佳圖像識別算法。正是在這個舞台上,2012 年 AI 迎來歷史性轉折(詳見 2010 年代部分)。

2000 年代,AI 也陸續達成多項重要應用:

  • 2005 年,史丹佛自駕車「Stanley」贏得了DARPA 大挑戰賽,這是一場長達 212 公里的沙漠自駕車競賽。Stanley 以 6 小時 53 分完成賽程,開啟了自駕車新紀元,並吸引 Google、Uber 等巨頭後續投資。
  • 手機虛擬助理出現:2008 年,Google Voice Search 推出,允許 iPhone 用戶語音搜尋;2011 年,Apple Siri 上市,成為首個整合語音識別、自然語言理解與網路服務的語音助理,標誌著 AI 首次大規模接觸大眾。
  • 2011 年,IBM Watson 在美國電視節目《Jeopardy!》中擊敗兩位冠軍,展現了自然語言處理與資訊檢索的強大能力,證明電腦能在廣泛知識領域中「理解」並智能回應。
  • 社交網路與網路平台:Facebook 約 2010 年推出自動人臉標籤功能,利用機器學習分析用戶照片。YouTube 與 Google 利用 AI 過濾內容與推薦影片。這些機器學習技術默默運作,優化用戶體驗,往往用戶不自知。

總結來說,2000 年代 AI 的動力來自數據與應用。傳統機器學習算法如回歸、支持向量機(SVM)、決策樹等在大規模數據上實現,帶來實際效益。

AI 從研究主題轉向工業應用,「企業 AI」成為熱門話題,眾多公司提供管理、金融、行銷等領域的 AI 解決方案。2006 年,「企業人工智慧」一詞出現,強調 AI 在提升商業效率與決策中的應用。

2000 年代末,深度學習革命的萌芽開始顯現。多層神經網絡研究持續發展。2009 年,Andrew Ng團隊在史丹佛大學發表利用 GPU 訓練神經網絡,速度比 CPU 快 70 倍。

GPU 的並行計算能力非常適合神經網絡矩陣運算,為 2010 年代大型深度學習模型的訓練鋪路。最後的關鍵要素——大數據、強大硬體與改進算法——齊備,只待時機爆發新一輪 AI 革命。

2000 年代的 AI

2010 年代:深度學習革命

若要選擇 AI 真正「起飛」的時期,非 2010 年代莫屬。憑藉前一十年的數據與硬體基礎,人工智慧進入深度學習時代——多層神經網絡模型取得突破性成就,打破多項紀錄,在眾多 AI 任務中表現卓越。機器「像人腦一樣學習」的夢想部分成真。

2012 年,Geoffrey Hinton及其學生(Alex Krizhevsky、Ilya Sutskever)參加 ImageNet 挑戰賽。他們的模型——通常稱為AlexNet——是一個 8 層卷積神經網絡,在 GPU 上訓練。結果,AlexNet 以壓倒性優勢獲勝,錯誤率比第二名減半。

這場勝利震驚電腦視覺社群,標誌著 AI 中「深度學習熱潮」的開始。隨後數年,傳統圖像識別方法大多被深度學習模型取代。

AlexNet 的成功證明,擁有充足數據(ImageNet)與計算能力(GPU),深度神經網絡能超越其他 AI 技術。Hinton 與團隊迅速受邀加入 Google,深度學習成為 AI 研究的熱門關鍵詞

深度學習不僅革新了電腦視覺,也擴展至語音處理、自然語言及其他領域。2012 年,Google Brain(Andrew Ng 與 Jeff Dean 項目)引起轟動,發布一個自學 YouTube 影片的深度神經網絡,無需標籤即可識別「貓」的概念。

2011 至 2014 年間,虛擬助理如 Siri、Google Now(2012)、Microsoft Cortana(2014)相繼問世,利用語音識別與自然語言理解技術。2017 年,微軟語音識別系統達到接近人類的準確率,主要得益於深度神經網絡音頻模型。2016 年,Google Translate 採用基於神經網絡的機器翻譯架構(NMT),顯著提升翻譯品質。

另一重要里程碑是 AI 在圍棋領域的突破。2016 年 3 月,DeepMind(Google 旗下)開發的AlphaGo以 4-1 擊敗世界第一圍棋高手李世石。圍棋比西洋棋複雜得多,無法暴力搜尋。AlphaGo 結合深度學習與蒙地卡羅樹搜尋算法,通過數百萬局人類棋譜學習並自我對弈。

此勝利與 1997 年 Deep Blue-Kasparov 對決齊名,證明AI 已能超越人類在直覺與經驗要求高的領域。之後,DeepMind 推出完全自學的AlphaGo Zero(2017),無需人類數據,仍以 100-0 擊敗舊版,展現了強化學習與深度學習結合的潛力

2017 年,Google 研究團隊發表了具有突破性的自然語言處理架構——Transformer。該模型提出了自注意力機制(self-attention),允許模型捕捉句子中詞語間的關聯,且不依賴序列順序。

Transformer 大幅提升了大型語言模型(LLM)的訓練效率,取代了之前的循環神經網絡(RNN/LSTM)。此後,基於 Transformer 的多款語言模型相繼問世:Google 的BERT(2018)用於語境理解,OpenAI 的GPT(Generative Pre-trained Transformer)於 2018 年首次亮相。

這些模型在語言分類、問答、文本生成等任務中表現卓越。Transformer 為 2020 年代大型語言模型競賽奠定基礎

2010 年代末,生成式 AI(Generative AI)開始興起——能夠自動創造新內容的 AI 模型。2014 年,Ian Goodfellow等人提出了生成對抗網絡(GAN),由兩個對抗的神經網絡生成逼真數據。

GAN 迅速聞名於能生成逼真的人像(deepfake)。同時,變分自編碼器(VAE)與風格轉換(style transfer)模型也被開發,允許用戶以新風格變換圖像與影片。

2019 年,OpenAI 推出參數達 15 億的文本生成模型GPT-2,能生成流暢且接近人類的長文本。AI 不再僅是分類或預測工具,而是能說服力地創造內容

2010 年代的 AI 取得了超乎預期的飛躍。許多過去被認為「不可能」的任務,如圖像識別、語音識別、翻譯及複雜遊戲,AI 現已達到或超越人類水平。

更重要的是,AI 開始滲透日常生活:從智慧手機的臉部識別、智能音箱(Alexa、Google Home)中的虛擬助理,到社交媒體上的內容推薦,AI 無處不在。這是 AI 的爆發期,被譽為「AI 是新電力」——一項改變所有行業的基礎技術。

2010 年代的 AI

2020 年代:生成式 AI 爆發與新趨勢

僅在 2020 年代初數年,AI 以空前速度爆發,主要得益於生成式 AI(Generative AI)大型語言模型(LLM)的崛起。這些系統使 AI 直接觸及數億用戶,引發創新應用浪潮及廣泛的社會討論,探討 AI 的影響。

2020 年 6 月,OpenAI 推出擁有1750 億參數的 GPT-3,規模是此前最大模型的十倍。GPT-3 令人驚訝地能夠撰寫文章、回答問題、作詩、編程,幾乎媲美人類,儘管仍有事實錯誤。GPT-3 的規模與龐大訓練數據帶來了前所未有的語言生成能力。基於 GPT-3 的應用迅速湧現,涵蓋行銷文案、郵件助理、程式輔助等。

2022 年 11 月,AI 真正走入公眾視野,OpenAI 發布了基於 GPT-3.5 的互動聊天機器人ChatGPT。僅用5 天用戶數突破 100 萬,約兩個月內突破 1 億,成為史上增長最快的消費應用。

ChatGPT 能流暢回答各類問題,從寫作、解題到諮詢,令用戶驚嘆其「智能」與靈活性。其普及標誌著AI 首次大規模作為內容創作工具被廣泛使用,並引發科技巨頭間的 AI 競賽。

2023 年初,微軟將 GPT-4(OpenAI 的後續模型)整合入 Bing 搜尋,Google 則推出基於自家 LaMDA 模型的聊天機器人 Bard。這場競爭推動了生成式 AI 技術的快速普及與改進

除了文本,生成式 AI 在影像與音頻領域也取得突破。2022 年,DALL-E 2(OpenAI)、Midjourney 與 Stable Diffusion 等文字轉圖像模型問世,允許用戶輸入文字描述,AI 即生成逼真且創意十足的圖像,開啟數位內容創作新時代。

然而,這也帶來了關於版權與倫理的挑戰,因為 AI 從藝術家作品中學習並生成類似作品。在音頻方面,新一代文字轉語音模型能模仿真人聲音,甚至仿冒名人聲音,引發對 deepfake 的擔憂。

2023 年,首批關於 AI 訓練數據版權的訴訟出現,例如 Getty Images 起訴 Stability AI,指控其未經授權使用數百萬張有版權圖片訓練模型。這反映了AI 爆發背後的法律、倫理與社會問題,亟需嚴肅關注。

同年,超過 1000 位科技界人士(包括 Elon Musk、Steve Wozniak 及多位 AI 研究者)聯署公開信,呼籲暫停 6 個月訓練比 GPT-4 更大型的 AI 模型,擔憂快速發展可能失控。

同時,深度學習之父Geoffrey Hinton等先驅也公開警告 AI 可能超出人類控制。歐盟委員會迅速完善了全球首部全面 AI 規範——AI 法案(EU AI Act),預計 2024 年生效,禁止被視為「不可接受風險」的 AI 系統(如大規模監控、社會評分),並要求 AI 模型透明度。

美國多州也頒布法律限制 AI 在敏感領域(招聘、金融、選舉等)的使用。顯然,全球正加速建立 AI 法律與倫理框架,以應對技術帶來的深遠影響。

總體來看,2020 年代見證了 AI 在技術與普及上的雙重爆發。新一代AI 工具如 ChatGPT、DALL-E、Midjourney 等已成為日常,幫助數百萬人以全新方式創作與提升效率。

同時,AI 投資競賽熱烈展開:預計未來數年企業在生成式 AI 上的支出將超過千億美元。AI 也深入多個行業:醫療(影像診斷、藥物研發)、金融(風險分析、詐騙偵測)、教育(虛擬助教、個性化學習內容)、交通(高級自駕車)、國防(戰術決策)等。

可以說,AI 如同電力與互聯網,成為所有企業與政府必爭的基礎設施。許多專家樂觀認為,若妥善發展與管理,AI 將持續帶來生產力與生活品質的飛躍

2020 年代的 AI


自 1950 年代以來,AI 發展歷程經歷了令人驚嘆的旅程——充滿了雄心、失望與再度繁榮。從 1956 年達特茅斯會議奠基,AI 曾兩度陷入「AI 冬天」,因過度期待而失落,但每次都因科學與技術突破而強勢復甦。尤其近 15 年,AI 取得了飛躍進展,真正從實驗室走向現實世界,產生深遠影響

目前,AI 幾乎存在於所有領域,且日益智能與多功能。然而,強 AI(通用人工智慧)——具有人類般靈活智能的機器——仍是未來目標。

現有 AI 模型雖令人印象深刻,但多數僅擅長特定任務,偶爾會犯低級錯誤(如ChatGPT 可能「幻覺」錯誤資訊,且自信滿滿)。安全與倫理挑戰也日益迫切:如何確保 AI 發展受控、透明,並造福全人類

AI 未來的旅程將極具趣味性。依現有趨勢,我們可見 AI 將更深度融入生活:從AI 醫生協助健康照護、AI 律師查閱法律文件,到陪伴學習與心靈的AI 朋友

類似神經形態計算(neuromorphic computing)的技術正被研究,模仿人腦結構,可能催生更高效且更接近自然智能的新一代 AI。儘管AI 超越人類智能的前景仍具爭議,但顯然 AI 將持續演進,深刻塑造人類未來

回顧 AI 的形成與發展歷史,我們看到一個關於人類堅持與不斷創新的故事。從只能計算的原始電腦,到教機器下棋、駕駛、識別世界,甚至創作藝術,人工智慧正是我們突破自我極限的最佳證明。

重要的是,我們從歷史中學到——合理設定期望,負責任地發展 AI,確保 AI 在未來道路上為人類帶來最大福祉