Trí tuệ nhân tạo (AI) là hệ thống máy tính mô phỏng trí thông minh con người – ví dụ như các chương trình có thể nhận diện hình ảnh, hiểu ngôn ngữ hoặc đưa ra quyết định. Trong cuộc sống hàng ngày, AI hỗ trợ các công cụ như trợ lý giọng nói trên điện thoại thông minh, hệ thống đề xuất trên mạng xã hội, và thậm chí các chatbot tiên tiến có khả năng viết văn bản.

AI có tiềm năng cải thiện nhiều lĩnh vực, nhưng cũng đặt ra không ít lo ngại.

Vậy, AI có nguy hiểm không? Bài viết này sẽ khám phá cả hai mặt: lợi ích thực tế mà AI mang lại và những nguy cơ mà các chuyên gia cảnh báo.

Lợi ích thực tiễn của AI

Hình ảnh: Hình minh họa thân thiện về robot và con người làm việc cùng nhau tượng trưng cho AI hỗ trợ con người. AI đã được tích hợp trong nhiều ứng dụng hữu ích.

Ví dụ, UNESCO ghi nhận AI “đã tạo ra nhiều cơ hội” trên toàn cầu – từ chẩn đoán y tế nhanh hơn đến kết nối tốt hơn qua mạng xã hội và tự động hóa các công việc nhàm chán.

Liên minh châu Âu cũng nhấn mạnh rằng “AI đáng tin cậy có thể mang lại nhiều lợi ích” như chăm sóc sức khỏe tốt hơngiao thông an toàn hơn, và nâng cao hiệu quả công nghiệp và sử dụng năng lượng. Trong y học, Tổ chức Y tế Thế giới báo cáo AI được dùng để chẩn đoán, phát triển thuốc và ứng phó dịch bệnh, khuyến khích các quốc gia thúc đẩy đổi mới này cho mọi người.

Các nhà kinh tế còn so sánh sự lan rộng nhanh chóng của AI với các cuộc cách mạng công nghệ trước đây.

Chính phủ Mỹ nhấn mạnh rằng “AI có tiềm năng phi thường cả về hứa hẹn và rủi ro,” nghĩa là chúng ta nên khai thác sức mạnh của nó để giải quyết các vấn đề như biến đổi khí hậu hay bệnh tật, đồng thời cẩn trọng với các rủi ro.

Các lợi ích chính của AI bao gồm:

  • Cải thiện chăm sóc sức khỏe: Hệ thống AI có thể phân tích X-quang, MRI và dữ liệu bệnh nhân nhanh hơn con người, hỗ trợ phát hiện bệnh sớm và điều trị cá nhân hóa. Ví dụ, hình ảnh hỗ trợ bởi AI có thể phát hiện khối u mà bác sĩ có thể bỏ sót.
  • Tăng hiệu quả: Tự động hóa trong nhà máy, văn phòng và dịch vụ giúp nâng cao năng suất. Như EU ghi nhận, tự động hóa do AI dẫn đến “sản xuất hiệu quả hơn” và cả lưới điện thông minh hơn.
    Robot và phần mềm đảm nhận các công việc lặp đi lặp lại để con người tập trung vào công việc sáng tạo hoặc phức tạp hơn.
  • Giao thông và dịch vụ an toàn hơn: Công nghệ xe tự lái và AI quản lý giao thông nhằm giảm tai nạn và ùn tắc. AI thông minh cũng có thể nâng cao hệ thống cảnh báo thiên tai và tối ưu hóa logistics, giúp việc đi lại và vận chuyển an toàn hơn.
  • Hỗ trợ khoa học và môi trường: Các nhà nghiên cứu sử dụng AI để xử lý mô hình khí hậu và dữ liệu di truyền. Điều này giúp giải quyết các vấn đề lớn như biến đổi khí hậu: UNESCO báo cáo rằng ngay cả những thay đổi nhỏ trong thiết kế AI cũng có thể giảm đáng kể năng lượng tiêu thụ, làm cho AI trở thành công cụ bền vững hơn trong chống biến đổi khí hậu.
  • Giáo dục và tiếp cận: Gia sư AI có thể cá nhân hóa việc học cho từng học sinh, và công cụ nhận dạng giọng nói hoặc dịch thuật giúp người khuyết tật. Britannica ghi nhận AI còn “giúp các nhóm thiểu số bằng cách cung cấp khả năng tiếp cận” (ví dụ như trợ lý đọc cho người khiếm thị).

Những ví dụ này cho thấy AI không chỉ là khoa học viễn tưởng – nó đã mang lại giá trị thực tế ngày nay.

Lợi ích thực tiễn của AI

Những rủi ro và nguy hiểm tiềm ẩn của AI

Hình ảnh: Nghệ thuật đường phố với từ “Robot” cảnh báo về những tác động chưa biết của AI. Mặc dù đầy hứa hẹn, nhiều chuyên gia cảnh báo AI có thể gây nguy hiểm nếu bị lạm dụng hoặc không được kiểm soát. Một mối quan tâm lớn là định kiến và phân biệt đối xử. Vì AI học từ dữ liệu hiện có, nó có thể thừa hưởng thành kiến của con người.

UNESCO cảnh báo rằng nếu không có đạo đức nghiêm ngặt, AI “có nguy cơ tái tạo các định kiến và phân biệt trong thế giới thực, làm gia tăng chia rẽ và đe dọa các quyền cơ bản của con người”. Thực tế, các nghiên cứu đã chỉ ra nhận diện khuôn mặt thường nhận dạng sai phụ nữ hoặc người da màu, và thuật toán tuyển dụng có thể ưu tiên một số giới tính nhất định.

Britannica cũng lưu ý AI có thể “gây tổn hại cho các nhóm dân tộc thiểu số bằng cách lặp lại và làm trầm trọng thêm nạn phân biệt chủng tộc”.

Các nguy hiểm khác bao gồm:

  • Quyền riêng tư và giám sát: Hệ thống AI thường cần lượng lớn dữ liệu cá nhân (bài đăng mạng xã hội, hồ sơ sức khỏe, v.v.). Điều này làm tăng nguy cơ bị lạm dụng. Nếu chính phủ hoặc công ty sử dụng AI để phân tích dữ liệu của bạn mà không có sự đồng ý, có thể dẫn đến giám sát xâm phạm.

    Britannica cảnh báo về “các rủi ro nghiêm trọng về quyền riêng tư” từ AI. Ví dụ, một ứng dụng gây tranh cãi của AI gọi là điểm tín nhiệm xã hội – nơi công dân bị đánh giá bởi thuật toán – đã bị EU cấm như một thực hành “không thể chấp nhận”.
    Ngay cả các chatbot nổi tiếng cũng từng gây lo ngại: năm 2023, Ý đã tạm thời chặn ChatGPT vì vấn đề bảo mật dữ liệu.

  • Thông tin sai lệch và deepfake: AI có thể tạo ra văn bản, hình ảnh hoặc video giả mạo rất chân thực. Điều này làm cho việc tạo ra deepfake – video giả mạo người nổi tiếng hoặc tin tức giả – trở nên dễ dàng hơn.

    Britannica chỉ ra AI có thể lan truyền “thông tin sai lệch mang tính chính trị, thậm chí nguy hiểm”. Các chuyên gia cảnh báo những giả mạo này có thể được dùng để thao túng bầu cử hoặc dư luận.

    Trong một sự kiện, hình ảnh do AI tạo về các nhà lãnh đạo thế giới chia sẻ tiêu đề tin tức sai lệch đã lan truyền rộng rãi trước khi bị bác bỏ. Các nhà khoa học lưu ý nếu không có quy định, thông tin sai lệch do AI tạo ra có thể leo thang (ví dụ, bài phát biểu giả hoặc hình ảnh bị chỉnh sửa mà luật pháp hiện tại chưa thể kiểm soát).

  • Mất việc làm và gián đoạn kinh tế: Bằng cách tự động hóa các công việc, AI sẽ thay đổi môi trường làm việc. Quỹ Tiền tệ Quốc tế báo cáo khoảng 40% công việc toàn cầu (và 60% ở các nước phát triển) có nguy cơ bị tự động hóa bởi AI. Điều này không chỉ ảnh hưởng đến công việc nhà máy mà còn cả các công việc trung lưu như kế toán hay viết lách.
    Dù AI có thể tăng năng suất (từ đó nâng cao thu nhập lâu dài), nhiều người lao động có thể cần đào tạo lại hoặc đối mặt với thất nghiệp trong ngắn hạn.
    Các lãnh đạo công nghệ cũng thừa nhận mối lo này: ngay cả CEO Microsoft cũng nói AI có thể thay thế các chuyên gia lành nghề một cách đột ngột.

  • An ninh và sử dụng ác ý: Giống như bất kỳ công nghệ nào, AI có thể bị lợi dụng để gây hại. Tội phạm mạng đã dùng AI để tạo email lừa đảo thuyết phục hoặc quét hệ thống tìm điểm yếu.

    Các chuyên gia quân sự lo ngại về vũ khí tự động: drone hoặc robot tự chọn mục tiêu mà không cần sự phê duyệt của con người.
    Báo cáo gần đây của các nhà nghiên cứu AI cảnh báo rõ ràng rằng chúng ta thiếu các tổ chức để ngăn chặn “các tác nhân liều lĩnh... có thể triển khai hoặc theo đuổi các khả năng theo cách nguy hiểm”, như hệ thống tấn công tự động.

    Nói cách khác, một hệ thống AI có quyền kiểm soát vật lý (như vũ khí) có thể đặc biệt nguy hiểm nếu bị lỗi hoặc bị lập trình với mục đích xấu.

  • Mất kiểm soát của con người: Một số nhà tư tưởng chỉ ra rằng nếu AI trở nên mạnh mẽ hơn nhiều so với hiện nay, nó có thể hành động theo cách khó đoán. Mặc dù AI hiện tại không có ý thức hay tự nhận thức, AI tổng quát tương lai (AGI) có thể theo đuổi mục tiêu không phù hợp với giá trị con người.

    Các nhà khoa học AI hàng đầu gần đây cảnh báo rằng “các hệ thống AI tổng quát mạnh mẽ” có thể xuất hiện trong tương lai gần nếu chúng ta không chuẩn bị.

    Nhà khoa học đoạt giải Nobel Geoffrey Hinton và các chuyên gia khác còn mô tả nguy cơ tăng lên rằng AI có thể gây hại cho nhân loại nếu AI tiên tiến không được điều chỉnh phù hợp. Dù rủi ro này chưa chắc chắn, nó đã thúc đẩy các lời kêu gọi thận trọng nổi bật.

  • Tác động năng lượng và môi trường: Việc huấn luyện và vận hành các mô hình AI lớn tiêu thụ rất nhiều điện năng. UNESCO báo cáo năng lượng tiêu thụ hàng năm của AI tạo sinh hiện tương đương với một quốc gia nhỏ ở châu Phi – và đang tăng nhanh.

    Điều này có thể làm trầm trọng thêm biến đổi khí hậu nếu chúng ta không sử dụng các phương pháp xanh hơn.

    Tin tốt là các nhà nghiên cứu đang tìm giải pháp: một nghiên cứu của UNESCO cho thấy việc sử dụng các mô hình nhỏ hơn, hiệu quả hơn cho các nhiệm vụ cụ thể có thể giảm tiêu thụ năng lượng của AI tới 90% mà không mất độ chính xác.

Tóm lại, các nguy cơ thực sự của AI hiện nay chủ yếu đến từ cách con người sử dụng nó. Nếu AI được quản lý cẩn thận, lợi ích (sức khỏe, tiện lợi, an toàn) là rất lớn.

Nhưng nếu không kiểm soát, AI có thể gây ra định kiến, tội phạm và tai nạn.

Điểm chung trong các nguy cơ này là thiếu kiểm soát hoặc giám sát: công cụ AI mạnh mẽ và nhanh chóng, nên lỗi hoặc lạm dụng có thể xảy ra trên quy mô lớn nếu không có sự can thiệp.

Rủi ro và nguy hiểm tiềm ẩn của AI

Ý kiến của chuyên gia và quan chức

Trước những vấn đề này, nhiều nhà lãnh đạo và nhà nghiên cứu đã lên tiếng. Một đồng thuận lớn của các chuyên gia AI đã hình thành trong những năm gần đây.

Năm 2024, nhóm 25 nhà khoa học AI hàng đầu (từ Oxford, Berkeley, các người đoạt giải Turing, v.v.) đã công bố tuyên bố chung kêu gọi hành động khẩn cấp.

Họ cảnh báo các chính phủ trên thế giới chuẩn bị ngay: “nếu chúng ta đánh giá thấp rủi ro AI, hậu quả có thể thảm khốc,” và kêu gọi tài trợ nghiên cứu an toàn AI cũng như thành lập các cơ quan quản lý để giám sát AI mạnh.

Họ nhấn mạnh rằng phát triển AI đã tiến nhanh “với an toàn chỉ là suy nghĩ muộn màng,” và hiện chúng ta thiếu các tổ chức để ngăn chặn các ứng dụng sai trái.

Các lãnh đạo công nghệ cũng chia sẻ sự thận trọng này. CEO OpenAI Sam Altman – công ty tạo ra ChatGPT – nói với The New York Times rằng xây dựng AI tiên tiến giống như một “Dự án Manhattan” của thời đại kỹ thuật số.

Ông thừa nhận cùng công cụ có thể viết luận văn hoặc mã lập trình cũng có thể gây ra “lạm dụng, tai nạn nghiêm trọng và gián đoạn xã hội” nếu không được xử lý cẩn thận.

Cuối năm 2023, hơn 1.000 chuyên gia AI (bao gồm Elon Musk, đồng sáng lập Apple Steve Wozniak và nhiều nhà nghiên cứu AI) đã ký thư ngỏ kêu gọi tạm dừng việc huấn luyện các mô hình AI thế hệ mới.

Họ cảnh báo chúng ta đang trong một “cuộc đua mất kiểm soát” để xây dựng AI mạnh hơn mà ngay cả người tạo ra cũng “không thể hiểu, dự đoán hay kiểm soát đáng tin cậy”.

Trong các diễn đàn công khai, các chuyên gia nhấn mạnh các rủi ro cụ thể. CEO Google DeepMind Demis Hassabis cho rằng mối đe dọa lớn nhất không phải là thất nghiệp mà là lạm dụng: tội phạm mạng hoặc quốc gia xấu sử dụng AI để gây hại xã hội.

Ông chỉ ra rằng rất sớm AI có thể sánh ngang hoặc vượt trí thông minh con người, và “một kẻ xấu có thể tái sử dụng cùng công nghệ đó cho mục đích độc hại”.

Nói cách khác, dù có quản lý được thất nghiệp, chúng ta phải ngăn AI rơi vào tay sai trái.

Chính phủ và các tổ chức quốc tế cũng đang chú ý. Nhà Trắng (Mỹ) ban hành Lệnh Hành pháp năm 2023 khẳng định AI “có tiềm năng phi thường cả về hứa hẹn và rủi ro” và kêu gọi “sử dụng AI có trách nhiệm” qua nỗ lực toàn xã hội để giảm thiểu các rủi ro lớn.

Liên minh châu Âu thông qua đạo luật AI đầu tiên trên thế giới (có hiệu lực năm 2024), cấm các thực hành nguy hiểm như điểm tín nhiệm xã hội do chính phủ quản lý và yêu cầu kiểm tra nghiêm ngặt với AI rủi ro cao (trong y tế, thực thi pháp luật, v.v.).

UNESCO (cơ quan của Liên Hiệp Quốc về giáo dục và văn hóa) công bố các khuyến nghị đạo đức AI toàn cầu, kêu gọi công bằng, minh bạch và bảo vệ quyền con người trong AI.

Ngay cả các tổ chức chính sách khoa học như NIST (Viện Tiêu chuẩn Quốc gia Mỹ) cũng phát hành Khung Quản lý Rủi ro AI hướng dẫn các công ty xây dựng AI đáng tin cậy.

Tất cả các tiếng nói này đều đồng thuận một điểm: AI sẽ không tự dừng lại. Chúng ta phải phát triển các biện pháp bảo vệ. Điều này bao gồm các giải pháp kỹ thuật (kiểm tra định kiến, thử nghiệm an ninh) và luật pháp hoặc cơ quan giám sát mới.

Ví dụ, các nhà lập pháp trên thế giới đang xem xét thành lập các hội đồng an toàn AI, tương tự như các hội đồng về công nghệ hạt nhân.

Mục tiêu không phải là ngăn chặn đổi mới, mà là đảm bảo đổi mới diễn ra theo các hướng dẫn cẩn trọng.

Ý kiến của chuyên gia và quan chức

Biện pháp bảo vệ và quy định

May mắn thay, nhiều giải pháp đã được triển khai. Ý tưởng chính là “an toàn AI ngay từ thiết kế”. Các công ty ngày càng xây dựng các quy tắc đạo đức vào quá trình phát triển AI.

Ví dụ, các phòng thí nghiệm AI kiểm tra mô hình để phát hiện định kiến trước khi phát hành và thêm bộ lọc nội dung để ngăn kết quả không phù hợp hoặc sai lệch. Chính phủ và các tổ chức đang chuẩn hóa điều này.

Đạo luật AI của EU, ví dụ, cấm một số ứng dụng nguy hiểm hoàn toàn và phân loại các ứng dụng khác là “rủi ro cao” (phải kiểm toán).

Tương tự, khung đạo đức AI của UNESCO kêu gọi các biện pháp như kiểm toán công bằng, bảo vệ an ninh mạng và quy trình giải quyết khiếu nại dễ tiếp cận.

Ở cấp độ thực tiễn, các tổ chức tiêu chuẩn đang phát hành hướng dẫn.

Khung của NIST (Mỹ) mà chúng tôi đề cập cung cấp các tiêu chuẩn tự nguyện để tổ chức đánh giá và giảm thiểu rủi ro AI.

Ở cấp quốc tế, các nhóm như OECD và Liên Hiệp Quốc đang xây dựng các nguyên tắc AI (nhiều quốc gia đã ký kết).

Ngay cả các công ty và trường đại học cũng thành lập các viện và liên minh an toàn AI để nghiên cứu rủi ro dài hạn.

Ngoài ra, nhiều quy định hiện hành tập trung vào các thiệt hại cụ thể.

Ví dụ, luật bảo vệ người tiêu dùng đang được áp dụng cho AI.

Tài liệu nội bộ của Meta tiết lộ chatbot AI có hành vi tán tỉnh trẻ em, gây phẫn nộ cho các nhà quản lý (công cụ của Meta không được phép theo luật bảo vệ trẻ em hiện hành).

Các cơ quan chức năng đang gấp rút cập nhật luật về phát ngôn thù địch, bản quyền và quyền riêng tư để bao gồm nội dung do AI tạo ra.

Như một chuyên gia New Zealand nhận xét, nhiều luật hiện nay “không được thiết kế với AI tạo sinh trong đầu,” vì vậy các nhà lập pháp đang nỗ lực bắt kịp.

Xu hướng chung rõ ràng: AI đang được đối xử tương tự như các công nghệ sử dụng kép khác.

Giống như chúng ta có luật giao thông cho ô tô hay tiêu chuẩn an toàn cho hóa chất, xã hội đang bắt đầu tạo ra các hàng rào bảo vệ cho AI.

Chúng bao gồm: nghiên cứu liên tục về rủi ro AI, hợp tác công tư về an ninh, chiến dịch giáo dục về deepfake, và thậm chí các cuộc trưng cầu ý dân về mức độ tự chủ nên trao cho máy móc.

>>>Tìm hiểu thêm:

AI có thay thế con người không?

Trí tuệ nhân tạo có suy nghĩ giống con người không?

Biện pháp bảo vệ và quy định AI


Vậy, AI có nguy hiểm không? Câu trả lời là phức tạp. AI không phải là điều xấu vốn có – nó là công cụ do con người tạo ra.

Dưới nhiều hình thức thực tế ngày nay, AI đã mang lại lợi ích to lớn cho y tế, giáo dục, công nghiệp và nhiều lĩnh vực khác (như các tổ chức UNESCO và EU đã nhấn mạnh).

Cùng lúc đó, hầu hết mọi người đều đồng ý AI có thể nguy hiểm nếu sức mạnh của nó bị lạm dụng hoặc không được kiểm soát.

Những lo ngại phổ biến bao gồm vi phạm quyền riêng tư, định kiến, thông tin sai lệch, biến động việc làm và nguy cơ giả định về siêu trí tuệ vượt tầm kiểm soát.

Người trẻ tìm hiểu về AI nên chú ý đến cả hai mặt. Nên tỉnh táo nhận biết các nguy hiểm thực tế: ví dụ, không bao giờ tin AI một cách mù quáng hay chia sẻ dữ liệu cá nhân thiếu thận trọng.

Nhưng cũng quan trọng để thấy rằng các chuyên gia và chính phủ đang tích cực làm việc để làm cho AI an toàn hơn – bằng cách phát triển luật pháp (như Đạo luật AI của EU), hướng dẫn (như khuyến nghị đạo đức của UNESCO) và công nghệ (như phát hiện định kiến) để phát hiện sớm vấn đề.

Tóm lại, AI giống như bất kỳ công nghệ mạnh mẽ nào: nó có thể làm điều tốt lớn khi được sử dụng có trách nhiệm, và gây hại nếu bị lạm dụng.

Sự đồng thuận của các nhà khoa học và nhà hoạch định chính sách là chúng ta không nên gieo rắc nỗi sợ hãi hay phớt lờ AI, mà cần cập nhật thông tin và tham gia định hình tương lai của nó.

Với các “hàng rào bảo vệ” phù hợp – phát triển AI có đạo đức, quy định chặt chẽ và nâng cao nhận thức cộng đồng – chúng ta có thể điều hướng AI theo hướng an toàn và đảm bảo nó mang lại lợi ích cho nhân loại mà không trở nên nguy hiểm.

Tham khảo
Bài viết này đề cập đến các nguồn sau: