Trí tuệ nhân tạo (AI) hiện nay đã thấm sâu vào mọi lĩnh vực, từ trợ lý trên điện thoại thông minh và các trang mạng xã hội đến y tế và giao thông vận tải. Những công nghệ này mang lại lợi ích chưa từng có, nhưng cũng đi kèm với những rủi ro và thách thức đáng kể.

Các chuyên gia và tổ chức toàn cầu cảnh báo rằng nếu không có các quy tắc đạo đức phù hợp, AI có thể tái tạo các định kiến và phân biệt đối xử trong thế giới thực, góp phần gây tổn hại môi trường, đe dọa quyền con người và làm gia tăng bất bình đẳng hiện hữu.

Trong bài viết này, hãy cùng INVIAI khám phá các rủi ro khi sử dụng AI trên mọi lĩnh vực và loại hình AI – từ chatbot và thuật toán đến robot – dựa trên những hiểu biết từ các nguồn chính thức và quốc tế.

Định Kiến và Phân Biệt Đối Xử Trong Hệ Thống AI

Một trong những rủi ro lớn của AI là việc củng cố các định kiến và phân biệt đối xử không công bằng. Các mô hình AI học từ dữ liệu có thể phản ánh các thành kiến hoặc bất bình đẳng lịch sử; do đó, hệ thống AI có thể đối xử khác biệt với con người dựa trên chủng tộc, giới tính hoặc các đặc điểm khác theo cách duy trì sự bất công.

Ví dụ, “AI đa năng hoạt động sai có thể gây hại thông qua các quyết định thiên lệch liên quan đến các đặc điểm được bảo vệ như chủng tộc, giới tính, văn hóa, tuổi tác và khuyết tật,” theo một báo cáo quốc tế về an toàn AI.

Các thuật toán thiên lệch được sử dụng trong tuyển dụng, cho vay hoặc thực thi pháp luật đã dẫn đến kết quả không công bằng gây thiệt thòi cho một số nhóm nhất định. Các tổ chức toàn cầu như UNESCO cảnh báo rằng nếu không có các biện pháp công bằng, AI có nguy cơ “tái tạo các định kiến và phân biệt đối xử trong thế giới thực, làm gia tăng chia rẽ và đe dọa các quyền và tự do cơ bản của con người”. Đảm bảo hệ thống AI được đào tạo trên dữ liệu đa dạng, đại diện và được kiểm toán để phát hiện định kiến là điều thiết yếu nhằm ngăn chặn phân biệt đối xử tự động.

Định Kiến và Phân Biệt Đối Xử Trong Hệ Thống AI

Nguy Cơ Thông Tin Sai Lệch và Deepfake

Khả năng tạo ra văn bản, hình ảnh và video siêu thực của AI đã làm dấy lên nỗi lo về một làn sóng thông tin sai lệch. AI tạo sinh có thể sản xuất các bài báo tin tức giả mạo thuyết phục, hình ảnh giả hoặc video deepfake khó phân biệt với thực tế.

Báo cáo Rủi ro Toàn cầu 2024 của Diễn đàn Kinh tế Thế giới xác định “thông tin bị thao túng và giả mạo” là rủi ro toàn cầu nghiêm trọng nhất trong ngắn hạn, lưu ý rằng AI đang “khuếch đại thông tin bị thao túng và bóp méo có thể làm mất ổn định xã hội.”

Thực tế, thông tin sai lệch và tin giả do AI thúc đẩy là một trong “thách thức lớn nhất từ trước đến nay đối với tiến trình dân chủ” – đặc biệt khi hàng tỷ người chuẩn bị đi bầu cử trong các kỳ bầu cử sắp tới. Các phương tiện truyền thông tổng hợp như video deepfake và giọng nói nhân tạo có thể bị lợi dụng để phát tán tuyên truyền, giả mạo nhân vật công chúng hoặc thực hiện các hành vi gian lận.

Các quan chức cảnh báo rằng những kẻ xấu có thể lợi dụng AI cho các chiến dịch tin giả quy mô lớn, khiến mạng xã hội tràn ngập nội dung giả mạo và gây hỗn loạn. Rủi ro là một môi trường thông tin hoài nghi, nơi người dân không thể tin vào những gì họ thấy hoặc nghe, làm suy yếu diễn đàn công cộng và nền dân chủ.

Nguy Cơ Thông Tin Sai Lệch và Deepfake Trong AI

Đe Dọa Quyền Riêng Tư và Giám Sát Hàng Loạt

Việc sử dụng AI rộng rãi đặt ra những lo ngại nghiêm trọng về quyền riêng tư. Hệ thống AI thường cần lượng lớn dữ liệu cá nhân – từ khuôn mặt, giọng nói đến thói quen mua sắm và vị trí của chúng ta – để hoạt động hiệu quả. Nếu không có các biện pháp bảo vệ chặt chẽ, dữ liệu này có thể bị lạm dụng hoặc khai thác.

Chẳng hạn, công nghệ nhận diện khuôn mặt và thuật toán dự đoán có thể cho phép giám sát toàn diện, theo dõi mọi chuyển động của cá nhân hoặc đánh giá hành vi mà không có sự đồng ý. Khuyến nghị đạo đức AI toàn cầu của UNESCO cảnh báo rõ ràng rằng “hệ thống AI không nên được sử dụng cho mục đích chấm điểm xã hội hay giám sát hàng loạt.” Những việc sử dụng này được xem là rủi ro không thể chấp nhận.

Hơn nữa, phân tích dữ liệu cá nhân do AI điều khiển có thể tiết lộ những chi tiết riêng tư về cuộc sống của chúng ta, từ tình trạng sức khỏe đến quan điểm chính trị, đe dọa quyền riêng tư cá nhân. Các cơ quan bảo vệ dữ liệu nhấn mạnh rằng quyền riêng tư là “một quyền thiết yếu để bảo vệ phẩm giá, quyền tự chủ và khả năng hành động của con người” và phải được tôn trọng trong suốt vòng đời của hệ thống AI.

Nếu sự phát triển AI vượt quá các quy định về quyền riêng tư, cá nhân có thể mất kiểm soát đối với thông tin của chính mình. Xã hội cần đảm bảo có các cơ chế quản trị dữ liệu chặt chẽ, cơ chế đồng thuận và kỹ thuật bảo vệ quyền riêng tư để công nghệ AI không trở thành công cụ giám sát không kiểm soát.

Đe Dọa Quyền Riêng Tư và Giám Sát Hàng Loạt

Thất Bại An Toàn và Tác Hại Không Mong Muốn

Mặc dù AI có thể tự động hóa các quyết định và nhiệm vụ vật lý với hiệu suất vượt trội, nó cũng có thể gặp sự cố theo những cách không thể đoán trước, dẫn đến hậu quả nghiêm trọng trong thực tế. Chúng ta giao phó cho AI nhiều trách nhiệm quan trọng về an toàn – như lái xe, chẩn đoán bệnh nhân hay quản lý lưới điện – nhưng các hệ thống này không phải lúc nào cũng hoàn hảo.

Lỗi kỹ thuật, dữ liệu huấn luyện sai lệch hoặc các tình huống bất ngờ có thể khiến AI đưa ra những quyết định nguy hiểm. AI trong xe tự lái có thể nhận diện sai người đi bộ, hoặc AI y tế có thể đề xuất phương pháp điều trị sai, gây hậu quả nghiêm trọng đến tính mạng.

Nhận thức được điều này, các hướng dẫn quốc tế nhấn mạnh rằng các tác hại không mong muốn và rủi ro an toàn từ AI cần được dự đoán và ngăn chặn: “Các tác hại không mong muốn (rủi ro an toàn), cũng như các điểm yếu dễ bị tấn công (rủi ro bảo mật) cần được tránh và xử lý trong suốt vòng đời của hệ thống AI để đảm bảo an toàn và bảo mật cho con người, môi trường và hệ sinh thái.”

Nói cách khác, hệ thống AI phải được kiểm tra kỹ lưỡng, giám sát và xây dựng các cơ chế dự phòng để giảm thiểu nguy cơ trục trặc. Việc quá phụ thuộc vào AI cũng tiềm ẩn rủi ro – nếu con người tin tưởng mù quáng vào các quyết định tự động, họ có thể không can thiệp kịp thời khi có sự cố xảy ra.

Do đó, đảm bảo sự giám sát của con người là rất quan trọng. Trong các lĩnh vực có rủi ro cao (như y tế hoặc giao thông), quyết định cuối cùng nên do con người phán xét, và như UNESCO lưu ý, “các quyết định liên quan đến sự sống và cái chết không nên giao cho hệ thống AI.” Duy trì an toàn và độ tin cậy của AI là thách thức liên tục, đòi hỏi thiết kế cẩn trọng và văn hóa trách nhiệm từ các nhà phát triển AI.

Thất Bại An Toàn và Tác Hại Không Mong Muốn Trong AI

Thay Thế Việc Làm và Rối Loạn Kinh Tế

Tác động biến đổi của AI đối với nền kinh tế là con dao hai lưỡi. Một mặt, AI có thể tăng năng suất và tạo ra các ngành nghề hoàn toàn mới; mặt khác, nó đặt ra nguy cơ thay thế hàng triệu lao động thông qua tự động hóa.

Nhiều công việc – đặc biệt là những công việc lặp đi lặp lại hoặc xử lý dữ liệu dễ dàng – có nguy cơ bị các thuật toán và robot AI chiếm lĩnh. Các dự báo toàn cầu rất đáng lo ngại: ví dụ, Diễn đàn Kinh tế Thế giới dự báo “92 triệu việc làm có thể bị thay thế vào năm 2030” do AI và các công nghệ liên quan.

Mặc dù nền kinh tế cũng có thể tạo ra các vai trò mới (có thể nhiều hơn số việc làm bị mất về lâu dài), quá trình chuyển đổi sẽ rất khó khăn với nhiều người. Các công việc mới thường đòi hỏi kỹ năng khác biệt, cao cấp hơn hoặc tập trung ở các trung tâm công nghệ, khiến nhiều lao động bị thay thế khó tìm được chỗ đứng mới.

Sự không tương thích giữa kỹ năng hiện có của người lao động và yêu cầu kỹ năng của các vị trí mới do AI tạo ra có thể dẫn đến tỷ lệ thất nghiệp và bất bình đẳng cao hơn nếu không được giải quyết. Thực tế, các nhà hoạch định chính sách và nhà nghiên cứu cảnh báo rằng sự phát triển nhanh chóng của AI có thể gây ra “rối loạn thị trường lao động và bất bình đẳng quyền lực kinh tế” trên quy mô hệ thống.

Một số nhóm có thể chịu ảnh hưởng nặng nề hơn – ví dụ, một số nghiên cứu chỉ ra tỷ lệ việc làm do phụ nữ hoặc người lao động ở các nước đang phát triển nắm giữ có nguy cơ tự động hóa cao. Nếu không có các biện pháp chủ động (như chương trình đào tạo lại, giáo dục kỹ năng AI và mạng lưới an sinh xã hội), AI có thể làm gia tăng khoảng cách kinh tế - xã hội, tạo ra nền kinh tế AI nơi những người sở hữu công nghệ hưởng lợi nhiều nhất.

Chuẩn bị lực lượng lao động đối phó với tác động của AI là điều then chốt để đảm bảo lợi ích của tự động hóa được chia sẻ rộng rãi và ngăn ngừa các biến động xã hội do mất việc làm hàng loạt.

Thay Thế Việc Làm và Rối Loạn Kinh Tế Trong AI

Lạm Dụng Hình Sự, Gian Lận và Mối Đe Dọa An Ninh

AI là công cụ mạnh mẽ có thể được sử dụng cho cả mục đích tốt và xấu. Tội phạm mạng và các đối tượng xấu đã và đang lợi dụng AI để nâng cao hiệu quả các cuộc tấn công của họ.

Chẳng hạn, AI có thể tạo ra các email hoặc tin nhắn thoại lừa đảo cá nhân hóa cao (bằng cách giả giọng ai đó) để đánh lừa người dùng tiết lộ thông tin nhạy cảm hoặc chuyển tiền. AI cũng có thể tự động hóa việc tấn công mạng bằng cách tìm kiếm lỗ hổng phần mềm quy mô lớn hoặc phát triển phần mềm độc hại có khả năng thích ứng để tránh bị phát hiện.

Trung tâm An toàn AI xác định việc sử dụng AI với mục đích xấu là mối quan tâm chính, nêu ra các kịch bản như hệ thống AI bị tội phạm sử dụng để thực hiện gian lận và tấn công mạng quy mô lớn. Thực tế, một báo cáo do chính phủ Anh ủy quyền đã cảnh báo rõ ràng rằng “các đối tượng xấu có thể dùng AI cho các chiến dịch tin giả, thao túng, gian lận và lừa đảo quy mô lớn”.

Tốc độ, quy mô và độ tinh vi mà AI mang lại có thể làm cho các biện pháp phòng thủ truyền thống bị quá tải – tưởng tượng hàng nghìn cuộc gọi lừa đảo do AI tạo ra hoặc video deepfake nhắm vào an ninh của một công ty chỉ trong một ngày.

Ngoài các tội phạm tài chính, còn có nguy cơ AI bị sử dụng để hỗ trợ đánh cắp danh tính, quấy rối hoặc tạo nội dung độc hại (như phim khiêu dâm deepfake không đồng thuận hoặc tuyên truyền cho các nhóm cực đoan). Khi các công cụ AI ngày càng dễ tiếp cận, rào cản để thực hiện các hành vi xấu này giảm xuống, có thể dẫn đến sự gia tăng tội phạm được hỗ trợ bởi AI.

Điều này đòi hỏi các phương pháp mới trong an ninh mạng và thực thi pháp luật, như hệ thống AI có thể phát hiện deepfake hoặc hành vi bất thường và các khung pháp lý được cập nhật để xử lý trách nhiệm của người vi phạm. Về cơ bản, chúng ta phải dự đoán rằng bất kỳ khả năng nào AI mang lại cho người có lợi cũng có thể được kẻ xấu sử dụng – và chuẩn bị ứng phó tương ứng.

Lạm Dụng Hình Sự, Gian Lận và Mối Đe Dọa An Ninh Trong AI

Quân Sự Hóa và Vũ Khí Tự Động

Có lẽ rủi ro đáng sợ nhất của AI xuất hiện trong bối cảnh chiến tranh và an ninh quốc gia. AI đang nhanh chóng được tích hợp vào các hệ thống quân sự, làm dấy lên viễn cảnh về vũ khí tự động (“robot sát thủ”) và việc ra quyết định trong chiến đấu do AI điều khiển.

Những công nghệ này có thể phản ứng nhanh hơn bất kỳ con người nào, nhưng việc loại bỏ sự kiểm soát của con người trong việc sử dụng lực lượng sát thương tiềm ẩn nhiều nguy hiểm. Có nguy cơ vũ khí do AI kiểm soát có thể chọn sai mục tiêu hoặc làm leo thang xung đột theo những cách không lường trước được. Các quan sát viên quốc tế cảnh báo rằng “việc quân sự hóa AI” đang là mối đe dọa ngày càng tăng.

Nếu các quốc gia chạy đua trang bị vũ khí thông minh, điều này có thể kích hoạt một cuộc chạy đua vũ trang gây mất ổn định. Hơn nữa, AI có thể được sử dụng trong chiến tranh mạng để tự động tấn công cơ sở hạ tầng quan trọng hoặc phát tán tuyên truyền, làm mờ ranh giới giữa hòa bình và xung đột.

Liên Hợp Quốc đã bày tỏ lo ngại rằng sự phát triển AI trong chiến tranh, nếu tập trung trong tay một số ít, “có thể bị áp đặt lên người dân mà họ không có tiếng nói về cách sử dụng,” làm suy yếu an ninh và đạo đức toàn cầu.

Hệ thống vũ khí tự động cũng đặt ra các vấn đề pháp lý và đạo đức – ai sẽ chịu trách nhiệm nếu một drone AI vô tình giết nhầm dân thường? Các hệ thống này tuân thủ luật nhân đạo quốc tế như thế nào?

Những câu hỏi chưa có lời giải này đã dẫn đến các kêu gọi cấm hoặc quy định nghiêm ngặt một số loại vũ khí được trang bị AI. Đảm bảo sự giám sát của con người đối với bất kỳ AI nào có thể đưa ra quyết định sống còn được xem là ưu tiên hàng đầu. Nếu không có điều này, rủi ro không chỉ là những sai lầm bi thảm trên chiến trường mà còn là sự mai một trách nhiệm con người trong chiến tranh.

Quân Sự Hóa và Vũ Khí Tự Động Trong AI

Thiếu Minh Bạch và Trách Nhiệm

Hầu hết các hệ thống AI tiên tiến ngày nay hoạt động như “hộp đen” – logic bên trong của chúng thường không rõ ràng ngay cả với những người tạo ra chúng. Sự thiếu minh bạch này tạo ra rủi ro rằng các quyết định của AI không thể giải thích hoặc bị thách thức, điều này là vấn đề nghiêm trọng trong các lĩnh vực như tư pháp, tài chính hoặc y tế, nơi việc giải thích là yêu cầu pháp lý hoặc đạo đức.

Nếu AI từ chối cho ai đó vay tiền, chẩn đoán bệnh hoặc quyết định ai được ân xá, chúng ta đương nhiên muốn biết lý do tại sao. Với một số mô hình AI (đặc biệt là mạng nơ-ron phức tạp), việc cung cấp lý do rõ ràng là rất khó khăn.

Sự “thiếu minh bạch” có thể làm suy giảm niềm tin và “cũng có thể làm giảm khả năng thách thức hiệu quả các quyết định dựa trên kết quả do hệ thống AI tạo ra,” theo UNESCO, “và do đó có thể vi phạm quyền được xét xử công bằng và được khắc phục hiệu quả.”

Nói cách khác, nếu người dùng và cơ quan quản lý không thể hiểu cách AI đưa ra quyết định, gần như không thể buộc ai đó chịu trách nhiệm về các sai sót hoặc định kiến phát sinh.

Khoảng trống trách nhiệm này là rủi ro lớn: các công ty có thể trốn tránh trách nhiệm bằng cách đổ lỗi cho “thuật toán,” và những người bị ảnh hưởng có thể không có cách nào kháng cáo. Để khắc phục, các chuyên gia đề xuất các kỹ thuật AI có thể giải thích được, kiểm toán nghiêm ngặt và yêu cầu pháp lý để các quyết định AI có thể truy nguyên đến quyền hạn con người.

Thực tế, các hướng dẫn đạo đức toàn cầu nhấn mạnh rằng phải “luôn có thể quy trách nhiệm đạo đức và pháp lý” cho hành vi của hệ thống AI đối với một cá nhân hoặc tổ chức. Con người phải luôn chịu trách nhiệm cuối cùng, và AI nên hỗ trợ chứ không thay thế phán đoán của con người trong các vấn đề nhạy cảm. Nếu không, chúng ta sẽ tạo ra một thế giới nơi các quyết định quan trọng được đưa ra bởi những cỗ máy khó hiểu, điều này là công thức cho sự bất công.

Thiếu Minh Bạch và Trách Nhiệm Trong Việc Sử Dụng AI Tại Nơi Làm Việc

Tập Trung Quyền Lực và Bất Bình Đẳng

Cuộc cách mạng AI không diễn ra đồng đều trên toàn thế giới – một số ít tập đoàn và quốc gia chi phối việc phát triển AI tiên tiến, điều này mang theo những rủi ro riêng.

Các mô hình AI tiên tiến đòi hỏi lượng lớn dữ liệu, nhân lực và tài nguyên tính toán mà chỉ các tập đoàn công nghệ lớn (và các chính phủ có nguồn lực mạnh) mới sở hữu. Điều này dẫn đến một “chuỗi cung ứng toàn cầu tập trung cao, duy nhất, tích hợp toàn cầu ưu tiên một vài công ty và quốc gia,” theo Diễn đàn Kinh tế Thế giới.

Sự tập trung quyền lực AI như vậy có thể dẫn đến kiểm soát độc quyền đối với công nghệ AI, hạn chế cạnh tranh và lựa chọn của người tiêu dùng. Nó cũng làm tăng nguy cơ ưu tiên của một số ít công ty hoặc quốc gia sẽ định hình AI theo cách không tính đến lợi ích chung rộng lớn hơn.

Liên Hợp Quốc đã lưu ý về “nguy cơ công nghệ [AI] bị áp đặt lên người dân mà họ không có tiếng nói về cách sử dụng,” khi việc phát triển bị giới hạn trong tay một nhóm quyền lực.

Sự mất cân bằng này có thể làm trầm trọng thêm bất bình đẳng toàn cầu: các quốc gia và doanh nghiệp giàu có tiến xa hơn nhờ tận dụng AI, trong khi các cộng đồng nghèo hơn thiếu tiếp cận các công cụ mới nhất và chịu thiệt hại về việc làm mà không hưởng lợi từ AI. Thêm vào đó, ngành công nghiệp AI tập trung có thể kìm hãm đổi mới sáng tạo (nếu người mới không thể cạnh tranh với nguồn lực của các ông lớn) và gây rủi ro an ninh (nếu hạ tầng AI quan trọng chỉ do vài thực thể kiểm soát, trở thành điểm yếu dễ bị tấn công hoặc thao túng).

Giải quyết rủi ro này đòi hỏi hợp tác quốc tế và có thể là các quy định mới để dân chủ hóa phát triển AI – ví dụ, hỗ trợ nghiên cứu mở, đảm bảo tiếp cận công bằng dữ liệu và tài nguyên tính toán, cũng như xây dựng chính sách (như Đạo luật AI của Liên minh châu Âu) để ngăn chặn các hành vi lạm dụng của “người gác cổng AI.” Một bối cảnh AI bao trùm hơn sẽ giúp đảm bảo lợi ích của AI được chia sẻ toàn cầu, thay vì làm rộng thêm khoảng cách giữa những người có và không có công nghệ.

Tập Trung Quyền Lực và Bất Bình Đẳng

Tác Động Môi Trường Của AI

Một khía cạnh thường bị bỏ qua trong các cuộc thảo luận về rủi ro của AI là dấu chân môi trường của nó. Việc phát triển AI, đặc biệt là huấn luyện các mô hình học máy lớn, tiêu thụ lượng điện năng và tài nguyên tính toán rất lớn.

Các trung tâm dữ liệu chứa hàng nghìn máy chủ tiêu thụ nhiều điện năng được sử dụng để xử lý lượng dữ liệu khổng lồ mà hệ thống AI học hỏi. Điều này có nghĩa AI gián tiếp góp phần vào phát thải carbon và biến đổi khí hậu.

Một báo cáo gần đây của một cơ quan Liên Hợp Quốc cho thấy lượng phát thải carbon gián tiếp của bốn công ty công nghệ hàng đầu tập trung vào AI tăng trung bình 150% từ năm 2020 đến 2023, chủ yếu do nhu cầu năng lượng của các trung tâm dữ liệu AI.

Khi đầu tư vào AI tăng lên, lượng phát thải từ việc vận hành các mô hình AI dự kiến sẽ tăng mạnh – báo cáo dự đoán các hệ thống AI hàng đầu có thể phát thải hơn 100 triệu tấn CO₂ mỗi năm, gây áp lực lớn lên hạ tầng năng lượng.

Để dễ hình dung, các trung tâm dữ liệu phục vụ AI đang làm tăng nhu cầu điện năng “bốn lần nhanh hơn mức tăng tổng thể của tiêu thụ điện năng.”

Ngoài phát thải carbon, AI còn tiêu thụ nhiều nước để làm mát và tạo ra rác thải điện tử khi phần cứng được nâng cấp nhanh chóng. Nếu không được kiểm soát, tác động môi trường của AI có thể làm suy yếu các nỗ lực bền vững toàn cầu.

Rủi ro này đòi hỏi phải làm cho AI tiết kiệm năng lượng hơn và sử dụng các nguồn năng lượng sạch hơn. Các nhà nghiên cứu đang phát triển các kỹ thuật AI xanh để giảm tiêu thụ điện năng, và một số công ty đã cam kết bù đắp chi phí carbon của AI. Tuy nhiên, đây vẫn là mối quan tâm cấp bách khi cuộc đua AI có thể mang lại cái giá môi trường rất lớn. Cân bằng tiến bộ công nghệ với trách nhiệm sinh thái là thách thức mà xã hội phải đối mặt khi tích hợp AI vào mọi lĩnh vực.

Tác Động Môi Trường Của AI

Rủi Ro Tồn Tại và Dài Hạn

Ngoài các rủi ro trước mắt, một số chuyên gia cảnh báo về các rủi ro dài hạn và mang tính giả thuyết từ AI – bao gồm khả năng xuất hiện một AI tiên tiến vượt ngoài tầm kiểm soát của con người. Trong khi các hệ thống AI hiện nay còn hạn chế về khả năng, các nhà nghiên cứu đang tích cực phát triển AI tổng quát có thể vượt trội con người trong nhiều lĩnh vực.

Điều này đặt ra những câu hỏi phức tạp: nếu một AI trở nên thông minh hoặc tự chủ vượt trội, liệu nó có thể hành động theo cách đe dọa sự tồn tại của nhân loại? Dù nghe có vẻ như khoa học viễn tưởng, nhiều nhân vật nổi bật trong cộng đồng công nghệ đã bày tỏ lo ngại về các kịch bản “AI nổi loạn”, và các chính phủ đang xem xét nghiêm túc vấn đề này.

Năm 2023, Anh đã tổ chức Hội nghị Thượng đỉnh An toàn AI toàn cầu nhằm giải quyết các rủi ro AI tiên phong. Đồng thuận khoa học chưa đồng nhất – một số cho rằng AI siêu thông minh còn cách xa hàng thập kỷ hoặc có thể được giữ phù hợp với giá trị con người, trong khi những người khác nhìn nhận có một khả năng nhỏ nhưng không bằng không về các kết quả thảm khốc.

Báo cáo an toàn AI quốc tế gần đây nhấn mạnh rằng “các chuyên gia có quan điểm khác nhau về rủi ro nhân loại mất kiểm soát AI theo cách có thể dẫn đến hậu quả thảm khốc.”

Tóm lại, có sự thừa nhận rằng rủi ro tồn tại từ AI, dù rất nhỏ, không thể hoàn toàn loại trừ. Kết quả này có thể là một AI theo đuổi mục tiêu của mình gây tổn hại đến phúc lợi con người (ví dụ kinh điển là AI nếu bị lập trình sai có thể làm điều gì đó có hại trên quy mô lớn vì thiếu sự hiểu biết thông thường hoặc giới hạn đạo đức).

Mặc dù hiện nay chưa có AI nào có khả năng như vậy, tốc độ phát triển AI rất nhanh và khó đoán, điều này tự nó là một yếu tố rủi ro. Chuẩn bị cho các rủi ro dài hạn có nghĩa là đầu tư vào nghiên cứu điều chỉnh AI (đảm bảo mục tiêu AI phù hợp với giá trị con người), thiết lập các thỏa thuận quốc tế về nghiên cứu AI có rủi ro cao (giống như các hiệp ước về vũ khí hạt nhân hoặc sinh học), và duy trì sự giám sát của con người khi các hệ thống AI ngày càng mạnh mẽ.

Tương lai của AI đầy hứa hẹn, nhưng cũng đầy bất định – và sự thận trọng đòi hỏi chúng ta phải xem xét cả những rủi ro có xác suất thấp nhưng tác động lớn trong kế hoạch dài hạn.

>>> Nhấn để tìm hiểu thêm: Lợi ích của AI đối với Cá nhân và Doanh nghiệp

Rủi Ro Tồn Tại và Dài Hạn Trong AI


AI thường được ví như một động cơ mạnh mẽ có thể thúc đẩy nhân loại tiến lên – nhưng nếu không có phanh và tay lái, động cơ đó có thể đi lệch hướng. Như chúng ta đã thấy, các rủi ro khi sử dụng AI rất đa diện: từ các vấn đề trước mắt như thuật toán thiên lệch, tin giả, xâm phạm quyền riêng tư và biến động việc làm, đến các thách thức xã hội rộng lớn hơn như mối đe dọa an ninh, quyết định “hộp đen,” độc quyền công nghệ lớn, áp lực môi trường, và thậm chí là viễn cảnh xa xôi về việc mất kiểm soát trước AI siêu thông minh.

Những rủi ro này không có nghĩa là chúng ta nên ngừng phát triển AI; thay vào đó, chúng nhấn mạnh nhu cầu cấp thiết về quản trị AI có trách nhiệm và thực hành đạo đức.

Chính phủ, tổ chức quốc tế, các nhà lãnh đạo ngành và nhà nghiên cứu ngày càng hợp tác để giải quyết những mối quan ngại này – ví dụ, thông qua các khuôn khổ như Khuôn khổ Quản lý Rủi ro AI của NIST Hoa Kỳ (nhằm nâng cao độ tin cậy AI), Khuyến nghị Đạo đức AI toàn cầu của UNESCO, và Đạo luật AI của Liên minh châu Âu.

Những nỗ lực này nhằm tối đa hóa lợi ích của AI đồng thời giảm thiểu các tác động tiêu cực, đảm bảo AI phục vụ nhân loại chứ không phải ngược lại. Cuối cùng, hiểu biết về các rủi ro của AI là bước đầu tiên để quản lý chúng. Bằng cách cập nhật thông tin và tham gia vào quá trình phát triển và sử dụng AI, chúng ta có thể giúp định hướng công nghệ chuyển đổi này theo hướng an toàn, công bằng và có lợi cho tất cả mọi người.