ปัญญาประดิษฐ์ (AI) ในปัจจุบันได้กลายเป็นส่วนหนึ่งที่คุ้นเคยในชีวิตสมัยใหม่ ปรากฏในทุกสาขาตั้งแต่ธุรกิจจนถึงการแพทย์ อย่างไรก็ตาม มีเพียงไม่กี่คนที่คาดคิดว่า ประวัติการพัฒนาของ AI เริ่มต้นตั้งแต่กลางศตวรรษที่ 20 และผ่านช่วงเวลาที่มีทั้งขึ้นและลงก่อนจะประสบความสำเร็จอย่างล้นหลามในปัจจุบัน
บทความนี้ INVIAI จะนำเสนอภาพรวมอย่างละเอียดเกี่ยวกับ ประวัติการก่อตั้งและพัฒนาของ AI ตั้งแต่แนวคิดเริ่มแรก ผ่านช่วงเวลาของ “ฤดูหนาว AI” ที่เต็มไปด้วยความท้าทาย จนถึง การปฏิวัติการเรียนรู้เชิงลึก และ คลื่นลูกใหม่ของ AI สร้างสรรค์ ที่พุ่งทะยานในทศวรรษ 2020
ทศวรรษ 1950: จุดเริ่มต้นของปัญญาประดิษฐ์
ช่วงปี 1950 ถือเป็น จุดเริ่มต้นอย่างเป็นทางการของวงการ AI ในปี 1950 นักคณิตศาสตร์ อลัน ทัวริง ได้ตีพิมพ์บทความ “Computing Machinery and Intelligence” ซึ่งเสนอการทดสอบที่มีชื่อเสียงเพื่อประเมินความสามารถในการคิดของเครื่องจักร – ที่ต่อมารู้จักกันในชื่อ การทดสอบทัวริง เหตุการณ์นี้ถือเป็นจุดเริ่มต้นของแนวคิดที่ว่า คอมพิวเตอร์สามารถ “คิด” เหมือนมนุษย์ได้ และวางรากฐานทางทฤษฎีสำหรับ AI
ในปี 1956 คำว่า “Artificial Intelligence” (ปัญญาประดิษฐ์) ได้ถือกำเนิดขึ้นอย่างเป็นทางการ ในฤดูร้อนปีนั้น นักวิทยาศาสตร์คอมพิวเตอร์ จอห์น แมคคาร์ธี (มหาวิทยาลัยดาร์ตมัธ) พร้อมด้วยเพื่อนร่วมงานอย่าง มาร์วิน มินสกี้, เนธานิเอล รอเชสเตอร์ (IBM) และ โคลด แชนนอน ได้จัดประชุมเชิงประวัติศาสตร์ที่มหาวิทยาลัยดาร์ตมัธ
แมคคาร์ธีได้เสนอคำว่า “ปัญญาประดิษฐ์” (AI) สำหรับการประชุมนี้ และเหตุการณ์ดาร์ตมัธ 1956 มักถูกมองว่าเป็น จุดเริ่มต้นของวงการ AI ที่นี่ นักวิทยาศาสตร์ผู้กล้าหาญได้ประกาศว่า “ทุกแง่มุมของการเรียนรู้หรือความฉลาดสามารถจำลองได้ด้วยเครื่องจักร” ซึ่งเป็นเป้าหมายที่ทะเยอทะยานสำหรับวงการใหม่แห่งนี้
ในช่วงปลายทศวรรษ 1950 มี ความสำเร็จครั้งแรกของ AI เกิดขึ้น ในปี 1951 โปรแกรม AI เริ่มถูกเขียนขึ้นเพื่อรันบนเครื่องคอมพิวเตอร์ Ferranti Mark I – โดยเฉพาะโปรแกรมเล่นหมากฮอส (checkers) ของ คริสโตเฟอร์ สเตรชีย์ และโปรแกรมเล่นหมากรุกของ ไดทริช ปรินซ์ ซึ่งถือเป็นครั้งแรกที่คอมพิวเตอร์สามารถเล่นเกมที่ต้องใช้ความคิดได้
ในปี 1955 อาเธอร์ ซามูเอล ที่ IBM ได้พัฒนาโปรแกรมเล่นหมากฮอสที่มีความสามารถ เรียนรู้จากประสบการณ์ กลายเป็นระบบ machine learning (การเรียนรู้ของเครื่อง) ขั้นต้น นอกจากนี้ในช่วงนี้ อัลเลน นิวเวลล์, เฮอร์เบิร์ต ไซมอน และทีมงานได้เขียนโปรแกรม Logic Theorist (1956) ซึ่งสามารถพิสูจน์ทฤษฎีคณิตศาสตร์โดยอัตโนมัติ แสดงให้เห็นว่าเครื่องจักรสามารถทำการวิเคราะห์เชิงตรรกะได้
นอกจากอัลกอริทึมแล้ว เครื่องมือและภาษาการเขียนโปรแกรมเฉพาะสำหรับ AI ก็ถือกำเนิดขึ้นในทศวรรษ 1950 เช่น ในปี 1958 จอห์น แมคคาร์ธี ได้คิดค้นภาษา Lisp ซึ่งเป็นภาษาที่ออกแบบมาเฉพาะสำหรับ AI และได้รับความนิยมอย่างรวดเร็วในชุมชนนักพัฒนา AI ในปีเดียวกัน นักจิตวิทยา แฟรงค์ โรเซนบลัต ได้แนะนำ Perceptron ซึ่งเป็นโมเดลเครือข่ายประสาทเทียมขั้นต้นที่สามารถเรียนรู้จากข้อมูลได้ Perceptron ถือเป็นรากฐานของ เครือข่ายประสาทสมัยใหม่
ในปี 1959 อาเธอร์ ซามูเอล ใช้คำว่า “machine learning” (การเรียนรู้ของเครื่อง) เป็นครั้งแรกในบทความสำคัญที่อธิบายวิธีการโปรแกรมคอมพิวเตอร์ให้ เรียนรู้และปรับปรุงความสามารถในการเล่นหมากฮอส จนเก่งกว่าผู้สร้างโปรแกรมเอง ความก้าวหน้าเหล่านี้แสดงให้เห็นถึง ความหวังอย่างแรงกล้า ว่าในเวลาไม่กี่ทศวรรษ เครื่องจักรจะมีความฉลาดเทียบเท่ามนุษย์
ทศวรรษ 1960: ก้าวแรกของความก้าวหน้า
เข้าสู่ทศวรรษ 1960, AI ยังคงพัฒนาด้วยโครงการและการประดิษฐ์ที่น่าสนใจมากขึ้น ห้องปฏิบัติการ AI ถูกก่อตั้งขึ้นในมหาวิทยาลัยชั้นนำหลายแห่ง (MIT, Stanford, Carnegie Mellon...) ดึงดูดความสนใจและเงินทุนวิจัย คอมพิวเตอร์ในยุคนี้มีประสิทธิภาพมากขึ้น ทำให้สามารถทดลองแนวคิด AI ที่ซับซ้อนกว่าทศวรรษก่อน
ความสำเร็จที่โดดเด่นคือการเกิดขึ้นของ โปรแกรมแชทบอทตัวแรก ในปี 1966 โจเซฟ ไวเซนบอม ที่ MIT สร้าง ELIZA โปรแกรมจำลองการสนทนากับผู้ใช้ในบทบาทของจิตแพทย์ ELIZA ถูกเขียนขึ้นอย่างง่าย (อาศัยการตรวจจับคำสำคัญและตอบกลับตามแบบแผน) แต่กลับทำให้หลายคนเข้าใจผิดว่า ELIZA “เข้าใจ” และมีอารมณ์ความรู้สึกจริงๆ ความสำเร็จของ ELIZA ไม่เพียงเปิดทางให้กับ แชทบอทสมัยใหม่ แต่ยังตั้งคำถามเกี่ยวกับแนวโน้มที่มนุษย์มักจะมอบอารมณ์ให้กับเครื่องจักร
พร้อมกันนั้น หุ่นยนต์อัจฉริยะตัวแรก ก็ปรากฏขึ้น ระหว่างปี 1966–1972 สถาบันวิจัยสแตนฟอร์ด (SRI) พัฒนา Shakey – หุ่นยนต์เคลื่อนที่ตัวแรกที่มีความสามารถรับรู้ตนเองและวางแผนการกระทำ แทนที่จะทำตามคำสั่งทีละอย่าง หุ่นยนต์ Shakey ติดตั้งเซ็นเซอร์และกล้องเพื่อเคลื่อนที่ในสภาพแวดล้อมและวิเคราะห์งานเป็นขั้นตอน เช่น การหาทางเดิน ผลักวัตถุ หรือปีนขึ้นเนิน นี่เป็นครั้งแรกที่ระบบบูรณาการ การมองเห็นด้วยคอมพิวเตอร์ การประมวลผลภาษาธรรมชาติ และการวางแผน ในหุ่นยนต์ วางรากฐานสำหรับสาขา robotics AI ในอนาคต
สมาคมปัญญาประดิษฐ์แห่งอเมริกา (AAAI) ก็ถูกก่อตั้งในช่วงนี้ (มีต้นกำเนิดจากการประชุม IJCAI 1969 และจัดตั้ง AAAI อย่างเป็นทางการในปี 1980) เพื่อรวบรวมนักวิจัย AI แสดงให้เห็นว่า ชุมชน AI กำลังเติบโตอย่างต่อเนื่อง
นอกจากนี้ ทศวรรษ 1960 ยังเป็นช่วงเวลาที่ ระบบผู้เชี่ยวชาญ และอัลกอริทึมพื้นฐานได้รับการพัฒนา ในปี 1965 เอ็ดเวิร์ด ไฟเกนบัม และทีมงานพัฒนา DENDRAL ซึ่งถือเป็น ระบบผู้เชี่ยวชาญตัวแรกของโลก DENDRAL ถูกออกแบบมาเพื่อช่วยนักเคมีวิเคราะห์โครงสร้างโมเลกุลจากข้อมูลการทดลอง โดยจำลองความรู้และการคิดวิเคราะห์ของผู้เชี่ยวชาญด้านเคมี ความสำเร็จของ DENDRAL แสดงให้เห็นว่าคอมพิวเตอร์สามารถช่วยแก้ปัญหาที่ซับซ้อนได้ วางรากฐานสำหรับ ระบบผู้เชี่ยวชาญ ที่เติบโตอย่างรวดเร็วในทศวรรษ 1980
นอกจากนี้ ภาษาโปรแกรม Prolog (ออกแบบสำหรับ AI เชิงตรรกะ) ถูกพัฒนาขึ้นในปี 1972 ที่มหาวิทยาลัยมาร์เซย์ เปิดทางสู่การเข้าถึง AI ผ่านตรรกะและกฎความสัมพันธ์ อีกหนึ่งเหตุการณ์สำคัญคือในปี 1969 มาร์วิน มินสกี้ และ เซย์มอร์ แพเพิร์ต ได้ตีพิมพ์หนังสือ “Perceptrons” ซึ่งชี้ให้เห็น ข้อจำกัดทางคณิตศาสตร์ของโมเดล perceptron ชั้นเดียว (ไม่สามารถแก้ปัญหา XOR ง่ายๆ ได้) ทำให้ วงการเครือข่ายประสาทเทียม ถูกตั้งคำถามอย่างหนัก
นักลงทุนหลายรายสูญเสียความเชื่อมั่นในความสามารถของเครือข่ายประสาท และ การวิจัยเครือข่ายประสาทเริ่มเสื่อมถอยในช่วงปลายทศวรรษ 1960 นี่เป็นสัญญาณแรกของความ “เย็นชา” ในความตื่นเต้นของ AI หลังจากช่วงเวลาของความหวังมากกว่าทศวรรษ
ทศวรรษ 1970: ความท้าทายและ “ฤดูหนาว AI” ครั้งแรก
เข้าสู่ทศวรรษ 1970 วงการ AI ต้องเผชิญกับ ความท้าทายด้านความเป็นจริง ความคาดหวังสูงจากทศวรรษก่อนยังไม่บรรลุผลเนื่องจากข้อจำกัดด้านพลังการประมวลผล ข้อมูล และความรู้ทางวิทยาศาสตร์ ส่งผลให้ ความเชื่อมั่นและเงินทุนสนับสนุน AI เริ่มลดลงอย่างมาก ในช่วงกลางทศวรรษ 1970 ซึ่งต่อมาถูกเรียกว่า “ฤดูหนาว AI” ครั้งแรก
ในปี 1973 เซอร์ เจมส์ ไลท์ฮิลล์ ได้จุดไฟความไม่พอใจด้วยการเผยแพร่รายงานชื่อ “Artificial Intelligence: A General Survey” ซึ่งประเมินความก้าวหน้าของงานวิจัย AI อย่างรุนแรง รายงานของไลท์ฮิลล์สรุปว่านักวิจัย AI “ให้คำมั่นสัญญามากเกินไปแต่ทำได้น้อยเกินคาด” โดยเฉพาะการวิจารณ์ว่าคอมพิวเตอร์ยังไม่สามารถเข้าใจภาษาและการมองเห็นตามที่คาดหวัง
รายงานนี้ทำให้ รัฐบาลอังกฤษตัดงบประมาณส่วนใหญ่สำหรับ AI ในสหรัฐฯ หน่วยงานสนับสนุนอย่าง DARPA ก็เปลี่ยนทิศทางไปลงทุนในโครงการที่มีความเป็นไปได้มากกว่า ผลที่ตามมาคือในช่วง กลางทศวรรษ 1970 ถึงต้นทศวรรษ 1980 วงการ AI เกือบจะ หยุดชะงัก มีงานวิจัยน้อยและขาดแคลนงบประมาณอย่างรุนแรง นี่คือช่วง “ฤดูหนาว AI” ซึ่งเป็นคำที่ถูกตั้งขึ้นในปี 1984 เพื่อบ่งบอกช่วงเวลาที่งานวิจัย AI ถูก “แช่แข็ง” เป็นเวลานาน
แม้จะมีความยากลำบาก ทศวรรษ 1970 ก็ยังมี แสงสว่างบางประการ ในงานวิจัย AI ระบบผู้เชี่ยวชาญยังคงพัฒนาในแวดวงวิชาการ โดยเฉพาะ MYCIN (1974) ระบบผู้เชี่ยวชาญให้คำปรึกษาทางการแพทย์ที่พัฒนาโดย เท็ด ชอร์ตลิฟฟ์ ที่สแตนฟอร์ด ช่วยวินิจฉัยโรคติดเชื้อในเลือด MYCIN ใช้ชุดกฎการอนุมานเพื่อให้คำแนะนำการรักษาและมีความแม่นยำสูง แสดงให้เห็น คุณค่าทางปฏิบัติของระบบผู้เชี่ยวชาญ ในสาขาที่จำกัด
นอกจากนี้ ภาษาโปรแกรม Prolog (เปิดตัวปี 1972) เริ่มถูกนำไปใช้แก้ปัญหาการประมวลผลภาษาและตรรกะ กลายเป็นเครื่องมือสำคัญสำหรับ AI เชิงตรรกะ ในด้านหุ่นยนต์ ปี 1979 ทีมวิจัยที่สแตนฟอร์ดประสบความสำเร็จในการพัฒนา รถยนต์ Stanford Cart – รถหุ่นยนต์ตัวแรกที่เคลื่อนที่ผ่านห้องที่เต็มไปด้วยสิ่งกีดขวางได้โดย ไม่ต้องมีคนควบคุมระยะไกล ความสำเร็จนี้แม้จะเล็กน้อยแต่เป็นรากฐานสำคัญสำหรับงานวิจัย รถยนต์ขับเคลื่อนอัตโนมัติ ในอนาคต
โดยรวมแล้ว ในช่วงปลายทศวรรษ 1970 งานวิจัย AI อยู่ในภาวะซบเซา นักวิทยาศาสตร์ AI หลายคนต้อง เปลี่ยนสายงาน ไปยังสาขาที่เกี่ยวข้อง เช่น การเรียนรู้ของเครื่อง สถิติ หุ่นยนต์ และการมองเห็นด้วยคอมพิวเตอร์ เพื่อดำเนินงานต่อไป
AI ไม่ได้เป็น “ดาวเด่น” เหมือนทศวรรษก่อนหน้าอีกต่อไป แต่กลายเป็นสาขาย่อยที่มีความก้าวหน้าจำกัด ช่วงเวลานี้เตือนนักวิจัยว่า ปัญญาประดิษฐ์ซับซ้อนกว่าที่คาดมาก และต้องการแนวทางใหม่ที่รอบคอบมากขึ้น แทนที่จะอาศัยการจำลองตรรกะแบบเดิม
ทศวรรษ 1980: ระบบผู้เชี่ยวชาญ – การฟื้นตัวและการถดถอย
เข้าสู่ต้นทศวรรษ 1980 AI ก้าวเข้าสู่ ช่วงฟื้นตัว หรือที่บางครั้งเรียกว่า “ยุคฟื้นฟู AI” แรงขับเคลื่อนมาจาก ความสำเร็จทางการค้าของระบบผู้เชี่ยวชาญ และ ความสนใจลงทุนที่กลับมาอีกครั้ง จากรัฐบาลและภาคธุรกิจ คอมพิวเตอร์มีประสิทธิภาพมากขึ้น และชุมชนเชื่อว่าสามารถทำให้แนวคิด AI ในขอบเขตจำกัดเป็นจริงได้
แรงขับเคลื่อนสำคัญคือ ระบบผู้เชี่ยวชาญเชิงพาณิชย์ ในปี 1981 บริษัท Digital Equipment Corporation เปิดตัว XCON (Expert Configuration) – ระบบผู้เชี่ยวชาญช่วยกำหนดค่าระบบคอมพิวเตอร์ ประหยัดเงินบริษัทหลายสิบล้านดอลลาร์ ความสำเร็จของ XCON กระตุ้นให้เกิดคลื่นการพัฒนาระบบผู้เชี่ยวชาญในธุรกิจเพื่อช่วยตัดสินใจ หลายบริษัทเทคโนโลยีลงทุนสร้าง “เชลล์ระบบผู้เชี่ยวชาญ” (expert system shell) เพื่อให้ธุรกิจสามารถปรับแต่งระบบของตนเองได้
ภาษา Lisp ก็เริ่มออกจากห้องทดลองด้วยการมี เครื่อง Lisp (Lisp machine) ซึ่งเป็นฮาร์ดแวร์เฉพาะสำหรับรันโปรแกรม AI ในช่วงต้นทศวรรษ 1980 บริษัทสตาร์ทอัพหลายแห่งเกี่ยวกับเครื่อง Lisp (Symbolics, Lisp Machines Inc.) เกิดขึ้น สร้างกระแสการลงทุนและถูกเรียกว่า “ยุคเครื่อง Lisp” สำหรับ AI
รัฐบาลใหญ่ๆ ก็ลงทุนอย่างหนักในช่วงนี้ ปี 1982 ญี่ปุ่น เริ่มโครงการ คอมพิวเตอร์ยุคที่ 5 ด้วยงบประมาณ 850 ล้านดอลลาร์สหรัฐ เพื่อพัฒนาคอมพิวเตอร์อัจฉริยะที่ใช้ตรรกะและ Prolog เช่นเดียวกับ สหรัฐฯ (DARPA) ที่เพิ่มการสนับสนุนวิจัย AI ในการแข่งขันเทคโนโลยีกับญี่ปุ่น โครงการเหล่านี้เน้นที่ ระบบผู้เชี่ยวชาญ การประมวลผลภาษาธรรมชาติ และฐานความรู้ โดยหวังสร้าง คอมพิวเตอร์อัจฉริยะขั้นสูง
ท่ามกลางคลื่นความหวังใหม่ เครือข่ายประสาทเทียม ก็เริ่มฟื้นคืนชีพอย่างเงียบๆ ในปี 1986 นักวิจัย เจฟฟรีย์ ฮินตัน และทีมงานเผยแพร่อัลกอริทึม Backpropagation (การถ่ายทอดกลับ) ซึ่งเป็นวิธีที่มีประสิทธิภาพในการฝึกเครือข่ายประสาทหลายชั้น แก้ไขข้อจำกัดที่หนังสือ Perceptrons (1969) กล่าวถึง
จริงๆ แล้วหลักการถ่ายทอดกลับถูกวางโครงร่างตั้งแต่ปี 1970 แต่เพิ่งได้รับการใช้เต็มที่ในกลางทศวรรษ 80 ด้วยพลังการประมวลผลที่เพิ่มขึ้น อัลกอริทึม backpropagation กระตุ้นให้เกิด คลื่นการวิจัยเครือข่ายประสาทครั้งที่สอง ขณะนั้น ความเชื่อมั่นว่าเครือข่ายประสาทลึกสามารถเรียนรู้โมเดลซับซ้อนได้ เริ่มก่อตัว เป็นจุดเริ่มต้นของ การเรียนรู้เชิงลึก (deep learning) ในอนาคต
นักวิจัยรุ่นใหม่อย่าง Yann LeCun (ฝรั่งเศส), Yoshua Bengio (แคนาดา) ก็เข้าร่วมขบวนการเครือข่ายประสาทในช่วงนี้ พัฒนารูปแบบการรู้จำลายมือที่ประสบความสำเร็จในปลายทศวรรษ
อย่างไรก็ตาม ยุครุ่งเรืองครั้งที่สองของ AI ไม่ยาวนาน ปลายทศวรรษ 1980 วงการ AI เผชิญวิกฤตอีกครั้งเนื่องจาก ผลลัพธ์ไม่เป็นไปตามความคาดหวัง ระบบผู้เชี่ยวชาญแม้มีประโยชน์ในบางแอปพลิเคชันจำกัด แต่แสดงให้เห็น ข้อจำกัด คือ ความแข็งทื่อ ขยายตัวยาก และต้องอัปเดตความรู้ด้วยมือ
โครงการระบบผู้เชี่ยวชาญขนาดใหญ่หลายโครงการล้มเหลว ตลาด เครื่อง Lisp ก็ล่มสลาย เนื่องจากการแข่งขันกับคอมพิวเตอร์ส่วนบุคคลราคาถูกกว่า ในปี 1987 อุตสาหกรรมเครื่อง Lisp เกือบล้มละลาย เงินทุนสำหรับ AI ครั้งที่สองถูกตัดลดอย่างหนักในปลายทศวรรษ 1980 นำไปสู่ “ฤดูหนาว AI” ครั้งที่สอง คำว่า “AI winter” ที่ตั้งขึ้นในปี 1984 ก็เป็นจริงเมื่อหลายบริษัท AI ปิดตัวในปี 1987–1988 อีกครั้ง วงการ AI ก้าวเข้าสู่ช่วงถดถอย ทำให้นักวิจัยต้องปรับความคาดหวังและกลยุทธ์
สรุปได้ว่า ทศวรรษ 1980 เป็นช่วงของ วงจรเฟื่องฟูและถดถอย ของ AI ระบบผู้เชี่ยวชาญ ช่วยให้ AI เข้าสู่ภาคอุตสาหกรรมครั้งแรก แต่ก็เผยให้เห็น ข้อจำกัดของแนวทางที่อิงกฎตายตัว อย่างไรก็ตาม ช่วงเวลานี้ได้ผลิตแนวคิดและเครื่องมืออันมีค่า เช่น อัลกอริทึมเครือข่ายประสาท และ ฐานความรู้ เป็นบทเรียนสำคัญเกี่ยวกับการหลีกเลี่ยงความคาดหวังเกินจริง ซึ่งเป็นพื้นฐานสำหรับแนวทางที่รอบคอบขึ้นในทศวรรษถัดไป
ทศวรรษ 1990: AI กลับสู่ภาคปฏิบัติ
หลังจาก ฤดูหนาว AI ปลายทศวรรษ 1980 ความเชื่อมั่นใน AI ค่อยๆ ฟื้นตัวในทศวรรษ 1990 ด้วยความก้าวหน้าที่เน้นการใช้งานจริง แทนที่จะมุ่งเน้นที่ AI ที่แข็งแกร่ง (ปัญญาประดิษฐ์ทั่วไปที่มีความทะเยอทะยานสูง) นักวิจัยหันมาเน้นที่ AI ที่อ่อนแอ – คือการประยุกต์เทคนิค AI กับ ปัญหาเฉพาะทาง ซึ่งเริ่มให้ผลลัพธ์ที่น่าประทับใจ หลายสาขาย่อยของ AI ที่แยกออกมาจากช่วงก่อนหน้า (เช่น การรู้จำเสียงพูด การมองเห็นด้วยคอมพิวเตอร์ อัลกอริทึมการค้นหา ระบบฐานความรู้...) เติบโตอย่างแข็งแกร่งและถูกนำไปใช้แพร่หลาย
เหตุการณ์สำคัญที่เปิดทางสู่ ความสำเร็จในทางปฏิบัติ คือในเดือนพฤษภาคม 1997 คอมพิวเตอร์ Deep Blue ของ IBM เอาชนะแชมป์โลกหมากรุก แกร์รี กัสปารอฟ ในการแข่งขันอย่างเป็นทางการ นี่เป็น ครั้งแรกที่ระบบ AI ชนะแชมป์โลกในเกมที่ต้องใช้ความคิดซับซ้อน สร้างความตื่นตะลึงในวงกว้าง
ชัยชนะของ Deep Blue – ซึ่งอาศัย อัลกอริทึมค้นหาแบบ brute-force ร่วมกับฐานข้อมูลเปิดเกม – แสดงให้เห็นถึงพลังการประมวลผลมหาศาลและเทคนิคเฉพาะทางที่ช่วยให้เครื่องจักรชนะมนุษย์ในงานที่กำหนดได้ เหตุการณ์นี้เป็นสัญญาณของ การกลับมาของ AI บนสื่อมวลชน กระตุ้นความสนใจในการวิจัยหลังจากช่วงเวลาที่เงียบเหงา
ไม่เพียงแต่ในหมากรุก AI ในทศวรรษ 1990 ยังก้าวหน้าในหลายด้าน ในด้านเกม ปี 1994 โปรแกรม Chinook สามารถแก้เกมหมากฮอส (draughts) อย่างสมบูรณ์ในระดับแชมป์โลก ทำให้แชมป์โลกยอมรับว่าไม่สามารถชนะคอมพิวเตอร์ได้
ในด้าน การรู้จำเสียงพูด ระบบเชิงพาณิชย์เช่น Dragon Dictate (1990) เริ่มปรากฏ และในปลายทศวรรษ ซอฟต์แวร์รู้จำเสียงพูด ถูกใช้อย่างแพร่หลายบนคอมพิวเตอร์ส่วนบุคคล การรู้จำลายมือ ก็ถูกรวมเข้ากับอุปกรณ์ PDA (ผู้ช่วยดิจิทัลส่วนบุคคล) ด้วยความแม่นยำที่เพิ่มขึ้น
แอปพลิเคชัน การมองเห็นด้วยคอมพิวเตอร์ (machine vision) เริ่มถูกนำไปใช้ในอุตสาหกรรม ตั้งแต่ การตรวจสอบชิ้นส่วน ถึง ระบบรักษาความปลอดภัย แม้แต่ การแปลภาษาอัตโนมัติ – ซึ่งเคยทำให้ AI ท้อแท้ในทศวรรษ 60 – ก็มีความก้าวหน้าที่น่าประทับใจด้วยระบบ SYSTRAN ที่รองรับการแปลหลายภาษาในสหภาพยุโรป
อีกแนวทางสำคัญคือ การเรียนรู้ของเครื่องเชิงสถิติ และ เครือข่ายประสาท ถูกนำไปใช้ในการวิเคราะห์ ข้อมูลขนาดใหญ่ ปลายทศวรรษ 1990 เป็นช่วงที่อินเทอร์เน็ตบูมตามมาด้วยข้อมูลดิจิทัลมหาศาล เทคนิค การทำเหมืองข้อมูล (data mining) และ อัลกอริทึมการเรียนรู้ของเครื่อง เช่น ต้นไม้ตัดสินใจ เครือข่ายประสาท โมเดลมาร์คอฟซ่อนเร้น ฯลฯ ถูกใช้วิเคราะห์ข้อมูลเว็บ ปรับแต่งเครื่องมือค้นหา และปรับแต่งเนื้อหาให้เหมาะกับผู้ใช้
คำว่า “วิทยาศาสตร์ข้อมูล” ยังไม่แพร่หลาย แต่ในความเป็นจริง AI ได้แทรกซึมเข้าสู่ซอฟต์แวร์ต่างๆ เพื่อปรับปรุงประสิทธิภาพโดยเรียนรู้จากข้อมูลผู้ใช้ (เช่น ตัวกรองสแปมอีเมล การแนะนำสินค้าในอีคอมเมิร์ซ) ความสำเร็จเล็กๆ เหล่านี้ช่วยให้ AI สะสมความน่าเชื่อถือ กลับมาในสายตาของธุรกิจและสังคม
กล่าวได้ว่า ทศวรรษ 1990 เป็นช่วงที่ AI “เงียบแต่มั่นคง” ก้าวเข้าสู่ชีวิตประจำวัน แทนที่จะประกาศความทะเยอทะยานสูงเกี่ยวกับปัญญาประดิษฐ์เหมือนในอดีต นักพัฒนามุ่งแก้ปัญหาเฉพาะทาง ผลลัพธ์คือ AI ปรากฏในผลิตภัณฑ์เทคโนโลยีมากมายในปลายศตวรรษที่ 20 ที่ผู้ใช้บางครั้งไม่ทันสังเกต ตั้งแต่เกม ซอฟต์แวร์ ไปจนถึงอุปกรณ์อิเล็กทรอนิกส์ ช่วงเวลานี้ยังวางรากฐานสำคัญด้าน ข้อมูลและอัลกอริทึม ที่ช่วยให้ AI พร้อมระเบิดในทศวรรษถัดไป
ทศวรรษ 2000: การเรียนรู้ของเครื่องและยุคข้อมูลขนาดใหญ่
เข้าสู่ศตวรรษที่ 21, AI เปลี่ยนแปลงอย่างรวดเร็วด้วยอินเทอร์เน็ตและยุคข้อมูลขนาดใหญ่ ช่วงปี 2000 เป็นยุคที่คอมพิวเตอร์ส่วนบุคคล อินเทอร์เน็ต และอุปกรณ์เซ็นเซอร์ระเบิดข้อมูลจำนวนมหาศาล การเรียนรู้ของเครื่อง (machine learning) โดยเฉพาะวิธี การเรียนรู้แบบมีผู้สอน กลายเป็น เครื่องมือหลัก ในการขุด “เหมืองน้ำมัน” ข้อมูลเหล่านี้
คำขวัญ “data is the new oil” (ข้อมูลคือ น้ำมันใหม่) กลายเป็นที่นิยม เพราะ ยิ่งมีข้อมูลมาก อัลกอริทึม AI ก็ยิ่งแม่นยำขึ้น บริษัทเทคโนโลยีใหญ่เริ่มสร้าง ระบบเก็บและเรียนรู้จากข้อมูลผู้ใช้ เพื่อปรับปรุงผลิตภัณฑ์ เช่น Google กับเครื่องมือค้นหาที่ชาญฉลาดขึ้น Amazon กับการแนะนำสินค้าตามพฤติกรรม Netflix กับอัลกอริทึมแนะนำภาพยนตร์ AI ค่อยๆ กลายเป็น “สมอง” ที่อยู่เบื้องหลังแพลตฟอร์มดิจิทัล
ปี 2006 เป็นเหตุการณ์สำคัญเมื่อ Fei-Fei Li ศาสตราจารย์ที่มหาวิทยาลัยสแตนฟอร์ด เริ่มโครงการ ImageNet – ฐานข้อมูลภาพขนาดใหญ่ที่มีภาพมากกว่า 14 ล้านภาพพร้อมป้ายกำกับละเอียด เปิดตัวในปี 2009 ImageNet กลายเป็น มาตรฐานสำหรับฝึกและประเมินอัลกอริทึมการมองเห็นด้วยคอมพิวเตอร์ โดยเฉพาะการรู้จำวัตถุในภาพ
ImageNet ถูกเปรียบเสมือน “ยากระตุ้น” ที่เร่งงานวิจัย deep learning ในเวลาต่อมา เพราะให้ข้อมูลเพียงพอสำหรับโมเดลเรียนรู้เชิงลึกซับซ้อน การแข่งขัน ImageNet Challenge รายปีตั้งแต่ปี 2010 เป็นต้นมา กลายเป็นสนามประลองสำคัญที่ทีมวิจัยแข่งขันพัฒนาอัลกอริทึมรู้จำภาพที่ดีที่สุด จากสนามนี้เองที่เกิดจุดเปลี่ยนครั้งสำคัญของ AI ในปี 2012 (ดูส่วนทศวรรษ 2010)
ในทศวรรษ 2000 AI ยังพิชิต จุดสำคัญของการใช้งานที่โดดเด่น ดังนี้:
- ปี 2005 รถยนต์ขับเคลื่อนอัตโนมัติ Stanford (ชื่อเล่น “Stanley”) ชนะ DARPA Grand Challenge – การแข่งขันรถยนต์ไร้คนขับในทะเลทรายระยะทาง 212 กม. Stanley ใช้เวลา 6 ชั่วโมง 53 นาที ทำลายยุคใหม่ของ รถยนต์ขับเคลื่อนอัตโนมัติ และได้รับความสนใจลงทุนจาก Google, Uber ในปีถัดมา
- ผู้ช่วยเสมือนบนมือถือ ปรากฏขึ้น: ปี 2008 แอป Google Voice Search เปิดให้ค้นหาด้วยเสียงบน iPhone และจุดสูงสุดคือ Apple Siri (เปิดตัว 2011) ผู้ช่วยเสียงใน iPhone ใช้เทคโนโลยีรู้จำเสียงพูด เข้าใจภาษาธรรมชาติ และเชื่อมต่อบริการเว็บ ตอกย้ำว่า AI เริ่มเข้าถึงผู้คนจำนวนมาก
- ปี 2011 ซูเปอร์คอมพิวเตอร์ IBM Watson ชนะผู้เล่นสองคนในเกมตอบคำถาม Jeopardy! ทางโทรทัศน์สหรัฐ Watson สามารถเข้าใจคำถามภาษาอังกฤษซับซ้อนและค้นข้อมูลจำนวนมหาศาลเพื่อหาคำตอบ แสดงพลังของ AI ในการประมวลผลภาษาธรรมชาติและค้นหาข้อมูล ชัยชนะนี้พิสูจน์ว่าคอมพิวเตอร์สามารถ “เข้าใจ” และตอบสนองอย่างชาญฉลาดในสาขาความรู้กว้าง
- โซเชียลมีเดียและเว็บ: Facebook เปิดตัวฟีเจอร์ การจดจำใบหน้าอัตโนมัติสำหรับแท็กภาพ (ราวปี 2010) ใช้อัลกอริทึมการเรียนรู้ของเครื่องบนข้อมูลภาพผู้ใช้ YouTube และ Google ใช้ AI เพื่อ กรองเนื้อหาและแนะนำวิดีโอ เทคนิค machine learning ทำงานอย่างเงียบๆ ในแพลตฟอร์ม ช่วย เพิ่มประสบการณ์ผู้ใช้ แม้ผู้ใช้บางครั้งไม่รู้ตัว
กล่าวได้ว่า แรงขับเคลื่อนหลักของ AI ในทศวรรษ 2000 คือข้อมูลและการใช้งาน อัลกอริทึมการเรียนรู้ของเครื่องแบบดั้งเดิม เช่น การถดถอย, SVM, ต้นไม้ตัดสินใจ ถูกนำไปใช้ในระดับใหญ่และให้ผลลัพธ์ที่มีประสิทธิภาพในทางปฏิบัติ
AI จากที่เคยเป็นหัวข้อวิจัยได้ เปลี่ยนเข้าสู่อุตสาหกรรมอย่างเต็มตัว โดย “AI สำหรับธุรกิจ” กลายเป็นหัวข้อร้อน มีบริษัทจำนวนมากนำเสนอทางออก AI ในการบริหารจัดการ การเงิน การตลาด ฯลฯ ปี 2006 คำว่า “ปัญญาประดิษฐ์สำหรับองค์กร” (enterprise AI) ปรากฏขึ้น เน้นการนำ AI ไปใช้เพื่อ เพิ่มประสิทธิภาพธุรกิจและการตัดสินใจ
ปลายทศวรรษ 2000 ยังเป็นช่วงเริ่มต้นของ การปฏิวัติการเรียนรู้เชิงลึก งานวิจัยเกี่ยวกับ เครือข่ายประสาทหลายชั้น เริ่มออกดอกผล ปี 2009 ทีมของ แอนดรูว์ หว่อง ที่มหาวิทยาลัยสแตนฟอร์ด ประกาศใช้ GPU (หน่วยประมวลผลกราฟิก) เพื่อฝึกเครือข่ายประสาทเร็วขึ้น 70 เท่าเมื่อเทียบกับ CPU ทั่วไป
พลังการประมวลผลแบบขนานของ GPU เหมาะสมอย่างยิ่งสำหรับการคำนวณเมทริกซ์ของเครือข่ายประสาท เปิดทางสู่การฝึกโมเดล deep learning ขนาดใหญ่ ในทศวรรษ 2010 องค์ประกอบสุดท้าย – ข้อมูลขนาดใหญ่ ฮาร์ดแวร์ทรงพลัง และอัลกอริทึมที่พัฒนา – พร้อมแล้ว เพียงรอเวลาระเบิดสู่การปฏิวัติ AI ใหม่
ทศวรรษ 2010: การปฏิวัติการเรียนรู้เชิงลึก (Deep Learning)
ถ้าต้องเลือกช่วงเวลาที่ AI “ทะยานขึ้นอย่างแท้จริง” คงเป็นทศวรรษ 2010 ด้วยรากฐานข้อมูลและฮาร์ดแวร์จากทศวรรษก่อนหน้า ปัญญาประดิษฐ์ก้าวเข้าสู่ยุคการเรียนรู้เชิงลึก (deep learning) – โมเดลเครือข่ายประสาทหลายชั้นที่ประสบความสำเร็จอย่างก้าวกระโดด ทำลายสถิติทุกอย่าง ในงาน AI หลากหลายประเภท ความฝันที่ว่าเครื่องจักรจะ “เรียนรู้เหมือนสมองมนุษย์” เริ่มเป็นจริงผ่านอัลกอริทึม deep learning
จุดเปลี่ยนสำคัญเกิดขึ้นในปี 2012 เมื่อทีมของ เจฟฟรีย์ ฮินตัน และนักเรียน (อเล็กซ์ คริซเชฟสกี, อิลยา ซัทสเคเวอร์) เข้าร่วมการแข่งขัน ImageNet Challenge โมเดลของพวกเขา – ที่เรียกว่า AlexNet – เป็นเครือข่ายประสาทแบบ convolutional 8 ชั้น ฝึกบน GPU ผลลัพธ์คือ AlexNet มีความแม่นยำสูงกว่าทีมอันดับสองถึงครึ่งหนึ่งของอัตราความผิดพลาดในการรู้จำภาพ
ชัยชนะอย่างถล่มทลายนี้สร้างความตื่นเต้นให้กับชุมชนการมองเห็นด้วยคอมพิวเตอร์ และเป็นจุดเริ่มต้นของ “กระแส deep learning” ใน AI ในปีถัดมา วิธีการรู้จำภาพแบบดั้งเดิมส่วนใหญ่ถูกแทนที่ ด้วยโมเดล deep learning
ความสำเร็จของ AlexNet ยืนยันว่าเมื่อมีข้อมูลเพียงพอ (ImageNet) และพลังการประมวลผล (GPU) เครือข่ายประสาทลึกสามารถทำได้ดีกว่าเทคนิค AI อื่นๆ ฮินตันและทีมงานถูกเชิญไป Google และ deep learning กลายเป็นคำค้นหายอดนิยม ในงานวิจัย AI ตั้งแต่นั้น
Deep learning ไม่เพียงแต่ปฏิวัติการมองเห็นด้วยคอมพิวเตอร์ แต่ยังขยายไปสู่ การประมวลผลเสียงพูด ภาษา และสาขาอื่นๆ ในปี 2012 Google Brain (โครงการของแอนดรูว์ หว่อง และ เจฟฟ์ ดีน) สร้างความฮือฮาด้วยการประกาศเครือข่ายประสาทลึกที่เรียนรู้ดู วิดีโอ YouTube และค้นพบแนวคิด “แมว” โดยไม่ต้องมีป้ายกำกับ
ในช่วงปี 2011–2014 ผู้ช่วยเสมือน เช่น Siri, Google Now (2012) และ Microsoft Cortana (2014) เปิดตัว ใช้ประโยชน์จากความก้าวหน้าใน การรู้จำเสียงพูดและความเข้าใจภาษาธรรมชาติ เช่น ระบบรู้จำเสียงพูดของ Microsoft มีความแม่นยำเทียบเท่ามนุษย์ในปี 2017 ส่วนใหญ่เป็นผลจากการใช้เครือข่ายประสาทลึก ในด้าน การแปลภาษา ปี 2016 Google Translate เปลี่ยนมาใช้สถาปัตยกรรม การแปลด้วยเครือข่ายประสาท (NMT) ปรับปรุงคุณภาพการแปลอย่างชัดเจนเมื่อเทียบกับโมเดลสถิติเดิม
อีกเหตุการณ์สำคัญคือ ชัยชนะของ AI ในเกมโกะ ซึ่งเคยถูกมองว่าไกลเกินเอื้อม ในเดือนมีนาคม 2016 โปรแกรม AlphaGo ของ DeepMind (Google) เอาชนะแชมป์โลกโกะอันดับหนึ่งของโลก ลี เซดอล ด้วยคะแนน 4-1 เกมโกะซับซ้อนกว่าหมากรุกมาก มีจำนวนการเดินหมากมหาศาลจนไม่สามารถใช้ brute-force ได้ AlphaGo ผสมผสาน deep learning และอัลกอริทึม Monte Carlo Tree Search เรียนรู้การเล่นจากเกมมนุษย์นับล้านและเล่นกับตัวเอง
ชัยชนะนี้ถูกเปรียบเทียบกับการแข่งขัน Deep Blue-Kasparov 1997 ยืนยันว่า AI สามารถเหนือกว่ามนุษย์ในด้านที่ต้องใช้สัญชาตญาณและประสบการณ์ หลังจาก AlphaGo DeepMind พัฒนา AlphaGo Zero (2017) ที่เรียนรู้เล่นโกะด้วยตัวเองจากกฎโดยไม่ต้องใช้ข้อมูลมนุษย์ และยังชนะเวอร์ชันเก่าด้วยคะแนน 100-0 แสดงให้เห็น ศักยภาพของการเรียนรู้เสริม (reinforcement learning) ร่วมกับ deep learning ในการบรรลุประสิทธิภาพระดับสูง
ในปี 2017 ยังมีการประดิษฐ์ที่ก้าวหน้าด้านการประมวลผลภาษา คือสถาปัตยกรรม Transformer นักวิจัย Google เผยแพร่โมเดล Transformer ในบทความ “Attention Is All You Need” เสนอแนวคิด self-attention ที่ช่วยให้โมเดลเรียนรู้ความสัมพันธ์ระหว่างคำในประโยคโดยไม่ต้องเรียงลำดับ
Transformer ช่วยฝึก โมเดลภาษาใหญ่ (LLM) ได้อย่างมีประสิทธิภาพมากกว่าสถาปัตยกรรมลำดับก่อนหน้า (RNN/LSTM) ตั้งแต่นั้น โมเดลภาษาที่พัฒนาจาก Transformer ก็เกิดขึ้นมากมาย เช่น BERT (Google, 2018) สำหรับเข้าใจบริบท และที่สำคัญคือ GPT (Generative Pre-trained Transformer) ของ OpenAI ที่เปิดตัวครั้งแรกในปี 2018
โมเดลเหล่านี้ทำผลงานได้ดีเยี่ยมในงานด้านภาษา ตั้งแต่การจำแนกประเภท ตอบคำถาม ไปจนถึงการสร้างข้อความ Transformer วางรากฐานสำหรับการแข่งขันโมเดลภาษาใหญ่ ในทศวรรษ 2020
ปลายทศวรรษ 2010 ยังมีการปรากฏตัวของ AI สร้างสรรค์ (generative AI) – โมเดล AI ที่สามารถ สร้างเนื้อหาใหม่ได้เอง ในปี 2014 เอียน กู๊ดเฟลโลว์ และทีมงานคิดค้นโมเดล GAN (Generative Adversarial Network) ซึ่งประกอบด้วยเครือข่ายประสาทสองชุดที่แข่งขันกันเพื่อสร้างข้อมูลปลอมที่เหมือนจริง
GAN มีชื่อเสียงในด้านการ สร้างภาพใบหน้าปลอมที่สมจริง (deepfake) พร้อมกันนั้น โมเดล autoencoder แบบแปรผัน (VAE) และ เครือข่ายเปลี่ยนสไตล์ (style transfer) ก็ถูกพัฒนา ช่วยให้ เปลี่ยนแปลงภาพและวิดีโอในสไตล์ใหม่ๆ
ในปี 2019 OpenAI เปิดตัว GPT-2 – โมเดลสร้างข้อความที่มี 1.5 พันล้านพารามิเตอร์ ซึ่งสร้างความสนใจเพราะสามารถเขียนข้อความยาวได้อย่างลื่นไหลและคล้ายมนุษย์ ชัดเจนว่า AI ไม่เพียงแต่ จำแนกหรือทำนาย แต่ยังสามารถ สร้างเนื้อหาใหม่ได้อย่างน่าเชื่อถือ
AI ในทศวรรษ 2010 ก้าวกระโดดเกินความคาดหมาย หลายงานที่เคยถูกมองว่า “เป็นไปไม่ได้” สำหรับคอมพิวเตอร์ เช่น การรู้จำภาพ การรู้จำเสียง การแปลภาษา และการเล่นเกมซับซ้อน AI สามารถทำได้หรือเก่งกว่ามนุษย์
ที่สำคัญกว่า AI เริ่มแทรกซึมเข้าสู่ชีวิตประจำวัน ตั้งแต่กล้องสมาร์ทโฟนที่รู้จำใบหน้า ผู้ช่วยเสียงในลำโพงอัจฉริยะ (Alexa, Google Home) ไปจนถึงการแนะนำเนื้อหาบนโซเชียลมีเดียที่ AI ดูแล นี่คือ ยุค AI ระเบิดตัว ที่หลายคนเปรียบเทียบว่า “AI คือไฟฟ้ารุ่นใหม่” – เทคโนโลยีพื้นฐานที่เปลี่ยนแปลงทุกอุตสาหกรรม
ทศวรรษ 2020: การระเบิดของ AI สร้างสรรค์และแนวโน้มใหม่
เพียงไม่กี่ปีแรกของทศวรรษ 2020, AI ระเบิดอย่างรวดเร็วอย่างไม่เคยมีมาก่อน ส่วนใหญ่เป็นผลจากการเติบโตของ AI สร้างสรรค์ (Generative AI) และ โมเดลภาษาใหญ่ (LLM) ระบบเหล่านี้ช่วยให้ AI เข้าถึงผู้ใช้หลายร้อยล้านคนโดยตรง สร้างคลื่นลูกใหม่ของแอปพลิเคชันสร้างสรรค์ และกระตุ้น การถกเถียงทางสังคมอย่างกว้างขวาง เกี่ยวกับผลกระทบของ AI
ในเดือนมิถุนายน 2020 OpenAI เปิดตัว GPT-3 – โมเดลภาษาขนาดใหญ่ที่มี 175 พันล้านพารามิเตอร์ ใหญ่กว่ารุ่นก่อนหน้าถึง 10 เท่า GPT-3 สร้างความประหลาดใจด้วยความสามารถในการ เขียนข้อความ ตอบคำถาม แต่งกลอน และเขียนโค้ดโปรแกรม ได้ใกล้เคียงมนุษย์ แม้ยังมีข้อผิดพลาดในเชิงข้อเท็จจริง พลังของ GPT-3 แสดงให้เห็นว่า ขนาดโมเดล ร่วมกับ ปริมาณข้อมูลฝึกสอนมหาศาล สามารถสร้างความสามารถในการสร้างภาษาได้อย่างลื่นไหล แอปพลิเคชันที่ใช้ GPT-3 เกิดขึ้นอย่างรวดเร็ว ตั้งแต่การเขียนเนื้อหาการตลาด ผู้ช่วยอีเมล ไปจนถึงการช่วยเขียนโปรแกรม
จนถึง เดือนพฤศจิกายน 2022 AI ได้ก้าวสู่สายตาสาธารณะอย่างแท้จริงด้วยการเปิดตัว ChatGPT – แชทบอทโต้ตอบที่พัฒนาโดย OpenAI บนพื้นฐานโมเดล GPT-3.5 ภายใน 5 วัน ChatGPT มีผู้ใช้ถึง 1 ล้านคน และในเวลา 2 เดือนมีผู้ใช้เกิน 100 ล้านคน กลายเป็นแอปพลิเคชันผู้บริโภคที่เติบโตเร็วที่สุดในประวัติศาสตร์
ChatGPT สามารถตอบคำถามได้อย่างลื่นไหล ตั้งแต่การเขียนข้อความ แก้โจทย์คณิตศาสตร์ ให้คำปรึกษา ฯลฯ ทำให้ผู้ใช้ประทับใจในความ “ฉลาด” และยืดหยุ่น ของมัน ความนิยมของ ChatGPT เป็นสัญญาณว่า AI ถูกใช้เป็นเครื่องมือสร้างสรรค์เนื้อหาอย่างแพร่หลายครั้งแรก และเป็นจุดเริ่มต้นของ การแข่งขัน AI ระหว่าง “บริษัทยักษ์ใหญ่” ด้านเทคโนโลยี
ต้นปี 2023 Microsoft ผสาน GPT-4 (โมเดลถัดไปของ OpenAI) เข้ากับเครื่องมือค้นหา Bing ขณะที่ Google เปิดตัวแชทบอท Bard ที่ใช้โมเดล LaMDA ของตนเอง การแข่งขันนี้ช่วยให้ เทคโนโลยี AI สร้างสรรค์ เข้าถึงผู้ใช้มากขึ้นและพัฒนาอย่างรวดเร็ว
นอกจากข้อความแล้ว AI สร้างสรรค์ในด้านภาพและเสียงก็พัฒนาอย่างก้าวกระโดด ในปี 2022 โมเดล text-to-image เช่น DALL-E 2 (OpenAI), Midjourney และ Stable Diffusion ช่วยให้ผู้ใช้ป้อนคำอธิบายข้อความและรับภาพที่ AI วาดขึ้น คุณภาพภาพมีความสมจริงและสร้างสรรค์จนไม่น่าเชื่อ เปิดยุคใหม่ของ การสร้างเนื้อหาดิจิทัล
อย่างไรก็ตาม สิ่งนี้ก็นำมาซึ่งความท้าทายด้าน ลิขสิทธิ์และจริยธรรม เมื่อ AI เรียนรู้จากภาพของศิลปินและสร้างผลงานที่คล้ายคลึงกัน ในด้านเสียง โมเดล text-to-speech รุ่นใหม่สามารถเปลี่ยนข้อความเป็นเสียงพูดที่เหมือนมนุษย์จริงๆ รวมถึง เลียนเสียง คนดัง สร้างความกังวลเรื่อง deepfake เสียง
ในปี 2023 เป็นครั้งแรกที่เกิดคดีความเกี่ยวกับลิขสิทธิ์ข้อมูลฝึก AI เช่น Getty Images ฟ้อง Stability AI (ผู้พัฒนา Stable Diffusion) ที่ใช้ภาพลิขสิทธิ์หลายล้านภาพฝึกโมเดลโดยไม่ได้รับอนุญาต แสดงให้เห็น ด้านมืดของการระเบิด AI ปัญหาทางกฎหมาย จริยธรรม และสังคมเริ่มปรากฏและต้องการความสนใจอย่างจริงจัง
ท่ามกลางกระแส AI ร้อนแรง ปี 2023 ชุมชนนักวิจัยกว่า 1,000 คนในวงการเทคโนโลยี (รวมถึง Elon Musk, Steve Wozniak และนักวิจัย AI หลายคน) ลงนามในจดหมายเปิดผนึกเรียกร้องให้ หยุดชั่วคราว 6 เดือนในการฝึกโมเดล AI ที่ใหญ่กว่า GPT-4 เนื่องจากกังวลว่าการพัฒนาอย่างรวดเร็วเกินไปอาจอยู่นอกการควบคุม
ในปีเดียวกัน ผู้บุกเบิกอย่าง เจฟฟรีย์ ฮินตัน (หนึ่งใน “บิดาแห่ง deep learning”) ก็ออกมาเตือนถึงความเสี่ยงที่ AI อาจหลุดพ้นการควบคุมของมนุษย์ คณะกรรมาธิการยุโรป เร่งรัดการออก กฎหมาย AI (EU AI Act) ซึ่งเป็นกฎระเบียบครอบคลุมฉบับแรกของโลกเกี่ยวกับปัญญาประดิษฐ์ คาดว่าจะบังคับใช้ในปี 2024 กฎหมายนี้ห้ามระบบ AI ที่ถือว่าเป็น “ความเสี่ยงที่ไม่อาจยอมรับได้” (เช่น การเฝ้าระวังจำนวนมาก การให้คะแนนสังคม) และกำหนดให้มีความโปร่งใสสำหรับโมเดล AI ทั่วไป
ในสหรัฐฯ หลายรัฐก็ออกกฎหมายจำกัดการใช้ AI ในสาขาที่มีความอ่อนไหว (เช่น การสรรหาบุคลากร การเงิน การรณรงค์เลือกตั้ง ฯลฯ) ชัดเจนว่า โลกกำลังเร่งวางกรอบกฎหมายและจริยธรรมสำหรับ AI ซึ่งเป็นสิ่งจำเป็นเมื่อเทคโนโลยีพัฒนาไปจนส่งผลกระทบอย่างลึกซึ้ง
โดยรวมแล้ว ทศวรรษ 2020 กำลังเป็นยุคของ AI ระเบิดทั้งด้านเทคนิคและการแพร่หลาย เครื่องมือ AI รุ่นใหม่ เช่น ChatGPT, DALL-E, Midjourney ฯลฯ กลายเป็นที่คุ้นเคย ช่วยให้ผู้คนนับล้าน สร้างสรรค์และทำงานได้อย่างมีประสิทธิภาพมากขึ้น ในรูปแบบที่ไม่เคยมีมาก่อน
พร้อมกันนั้น การแข่งขันลงทุน ใน AI ก็ดุเดือด: คาดว่าการใช้จ่ายของธุรกิจใน AI สร้างสรรค์จะเกิน 1 พันล้านดอลลาร์ในปีหน้า AI ยังแทรกซึมลึกในหลายสาขา เช่น การแพทย์ (ช่วยวินิจฉัยภาพถ่ายทางการแพทย์ ค้นหายาใหม่), การเงิน (วิเคราะห์ความเสี่ยง ตรวจจับการฉ้อโกง), การศึกษา (ผู้ช่วยสอนเสมือน เนื้อหาส่วนบุคคล), การขนส่ง (รถยนต์ขับเคลื่อนอัตโนมัติระดับสูง), การป้องกันประเทศ (ตัดสินใจยุทธศาสตร์) เป็นต้น
กล่าวได้ว่า AI วันนี้เหมือนกับไฟฟ้าหรืออินเทอร์เน็ต – โครงสร้างพื้นฐานทางเทคโนโลยีที่ทุกองค์กรและรัฐบาลต้องการใช้ นักวิจัยหลายคนมองโลกในแง่ดีว่า AI จะยังคงนำมาซึ่งการก้าวกระโดดด้านประสิทธิภาพและคุณภาพชีวิต หากได้รับการพัฒนาและบริหารจัดการอย่างเหมาะสม
ตั้งแต่ปี 1950 จนถึงปัจจุบัน ประวัติการพัฒนาของ AI ได้ผ่านเส้นทางที่น่าทึ่ง – เต็มไปด้วย ความทะเยอทะยาน ความผิดหวัง และการฟื้นตัวอย่างยิ่งใหญ่ จากการประชุมดาร์ตมัธ 1956 ที่เล็กน้อยซึ่งวางรากฐานให้วงการ AI AI ได้ผ่าน “ฤดูหนาว” ถึงสองครั้งเพราะความคาดหวังเกินจริง แต่หลังจากแต่ละครั้งก็ ฟื้นตัวอย่างแข็งแกร่งกว่าเดิม ด้วยนวัตกรรมทางวิทยาศาสตร์และเทคโนโลยี โดยเฉพาะในช่วง 15 ปีที่ผ่านมา AI ได้ ก้าวหน้าอย่างก้าวกระโดด ออกจากห้องทดลองสู่โลกจริงและ สร้างผลกระทบอย่างลึกซึ้ง
ในปัจจุบัน AI ปรากฏในเกือบทุกสาขา และมีความ ฉลาดและหลากหลายมากขึ้น อย่างไรก็ตาม เป้าหมาย AI ที่แข็งแกร่ง (ปัญญาประดิษฐ์ทั่วไป) – คือเครื่องจักรที่มีความฉลาดยืดหยุ่นเหมือนมนุษย์ – ยังอยู่ในอนาคต
โมเดล AI ปัจจุบันแม้จะน่าประทับใจแต่ยังเชี่ยวชาญเฉพาะงานที่ได้รับการฝึกฝน และบางครั้งก็ทำผิดพลาดง่ายๆ (เช่น ChatGPT อาจ “หลอกลวง” ด้วยข้อมูลผิดอย่างมั่นใจ) ความท้าทายด้านความปลอดภัยและจริยธรรม ก็เป็นเรื่องเร่งด่วน: ต้องพัฒนา AI ให้ ควบคุมได้ โปร่งใส และเพื่อประโยชน์ส่วนรวมของมนุษยชาติ
เส้นทางต่อไปของ AI น่าจะ น่าตื่นเต้นอย่างยิ่ง ด้วยความก้าวหน้าปัจจุบัน เราจะเห็น AI แทรกซึมลึกยิ่งขึ้น ในชีวิต ตั้งแต่ แพทย์ AI ที่ช่วยดูแลสุขภาพมนุษย์, ทนาย AI ที่ค้นหากฎหมาย ไปจนถึง เพื่อน AI ที่เป็นเพื่อนเรียนและที่ปรึกษาใจ
เทคโนโลยี การประมวลผลแบบสมองเทียม (neuromorphic computing) กำลังถูกวิจัยเพื่อเลียนแบบโครงสร้างสมองมนุษย์ อาจสร้าง AI รุ่นใหม่ที่มีประสิทธิภาพและใกล้เคียงกับปัญญาธรรมชาติมากขึ้น แม้ว่าวิสัยทัศน์ AI ที่เหนือกว่ามนุษย์ จะยังเป็นเรื่องถกเถียง แต่ชัดเจนว่า AI จะ พัฒนาต่อเนื่อง และกำหนดอนาคตมนุษยชาติอย่างลึกซึ้ง
เมื่อย้อนดูประวัติการก่อตั้งและพัฒนาของ AI เราจะเห็นเรื่องราวของ ความมุ่งมั่นและความคิดสร้างสรรค์ที่ไม่หยุดยั้ง ของมนุษย์ จากคอมพิวเตอร์เครื่องแรกที่ทำได้แค่คำนวณ สู่การสอนให้เล่นหมากรุก ขับรถ รู้จำโลก และแม้แต่สร้างสรรค์งานศิลปะ ปัญญาประดิษฐ์ คือหลักฐานที่แสดงถึงความสามารถในการก้าวข้ามขีดจำกัดของเราเอง
สิ่งสำคัญคือเราต้องเรียนรู้จากบทเรียนในอดีต – ตั้งความคาดหวังอย่างเหมาะสม และพัฒนา AI อย่างรับผิดชอบ – เพื่อให้แน่ใจว่า AI จะนำมาซึ่ง ประโยชน์สูงสุดแก่มนุษยชาติ ในเส้นทางข้างหน้า