Bạn có thắc mắc về định kiến thuật toán trong AI? Hãy tham gia INVIAI để tìm hiểu thêm về AI và Định kiến Thuật toán trong bài viết này!
Trí tuệ nhân tạo (AI) ngày càng được tích hợp sâu vào cuộc sống hàng ngày của chúng ta – từ các quyết định tuyển dụng đến chăm sóc sức khỏe và an ninh – nhưng việc sử dụng AI cũng đặt ra những lo ngại về định kiến thuật toán. Định kiến thuật toán đề cập đến những thành kiến hệ thống và không công bằng trong kết quả của các hệ thống AI, thường phản ánh các định kiến và bất bình đẳng xã hội.
Về cơ bản, một thuật toán AI có thể vô tình tái tạo những định kiến con người có trong dữ liệu huấn luyện hoặc thiết kế, dẫn đến các kết quả phân biệt đối xử.
Vấn đề này đã trở thành một trong những thách thức được tranh luận sôi nổi nhất trong đạo đức công nghệ, thu hút sự quan tâm toàn cầu từ các nhà nghiên cứu, nhà hoạch định chính sách và lãnh đạo ngành. Việc AI được áp dụng nhanh chóng khiến việc giải quyết định kiến trở nên cấp thiết: nếu không có các nguyên tắc đạo đức, AI có nguy cơ tái tạo các định kiến và phân biệt đối xử trong thế giới thực, làm gia tăng sự chia rẽ xã hội và thậm chí đe dọa các quyền cơ bản của con người.
Dưới đây, chúng ta sẽ khám phá nguyên nhân gây ra định kiến thuật toán, các ví dụ thực tế về tác động của nó, và cách thế giới đang nỗ lực để làm cho AI trở nên công bằng hơn.
Hiểu về Định kiến Thuật toán và Nguyên nhân của nó
Định kiến thuật toán thường phát sinh không phải vì AI “muốn” phân biệt đối xử, mà do các yếu tố con người. Các hệ thống AI học từ dữ liệu và tuân theo các quy tắc do con người tạo ra – mà con người thì có định kiến (thường là vô thức).
Nếu dữ liệu huấn luyện bị lệch hoặc phản ánh các thành kiến lịch sử, AI rất có thể sẽ học theo những mô hình đó.
Ví dụ, một AI sàng lọc hồ sơ xin việc được huấn luyện trên dữ liệu tuyển dụng ngành công nghệ trong một thập kỷ (nơi đa số ứng viên được tuyển là nam giới) có thể suy luận rằng ứng viên nam là ưu tiên, từ đó gây bất lợi cho nữ giới. Các nguyên nhân phổ biến khác bao gồm dữ liệu không đầy đủ hoặc không đại diện, việc gán nhãn dữ liệu có định kiến, hoặc thuật toán được tối ưu hóa cho độ chính xác tổng thể nhưng không đảm bảo công bằng cho các nhóm thiểu số.
Tóm lại, thuật toán AI thừa hưởng định kiến từ người tạo và dữ liệu của nó trừ khi có các bước chủ động để nhận diện và điều chỉnh những định kiến đó.
Cần lưu ý rằng định kiến thuật toán thường là vô ý. Các tổ chức thường áp dụng AI để đưa ra quyết định khách quan hơn, nhưng nếu họ “cung cấp” cho hệ thống thông tin có định kiến hoặc không xem xét công bằng trong thiết kế, kết quả vẫn có thể không công bằng. Định kiến AI có thể phân bổ cơ hội một cách bất công và tạo ra kết quả sai lệch, ảnh hưởng tiêu cực đến phúc lợi của con người và làm suy giảm niềm tin vào AI.
Hiểu được lý do tại sao định kiến xảy ra là bước đầu tiên để tìm ra giải pháp – và đây là bước mà giới học thuật, ngành công nghiệp và chính phủ trên toàn thế giới đang nghiêm túc thực hiện.
Ví dụ Thực tế về Định kiến AI
Định kiến trong AI không chỉ là mối lo ngại giả định; nhiều trường hợp thực tế đã cho thấy cách định kiến thuật toán có thể dẫn đến phân biệt đối xử. Một số ví dụ nổi bật về định kiến AI trong các lĩnh vực khác nhau bao gồm:
-
Công lý Hình sự: Ở Hoa Kỳ, một thuật toán phổ biến dùng để dự đoán khả năng tái phạm tội phạm bị phát hiện có định kiến đối với bị cáo người da đen. Thuật toán này thường đánh giá sai bị cáo da đen là có nguy cơ cao và bị cáo da trắng là nguy cơ thấp, làm trầm trọng thêm sự chênh lệch chủng tộc trong việc xét xử.
Trường hợp này cho thấy AI có thể khuếch đại các định kiến lịch sử trong công tác cảnh sát và tòa án. -
Tuyển dụng và Tuyển chọn: Amazon từng loại bỏ một công cụ tuyển dụng AI sau khi phát hiện nó phân biệt đối xử với phụ nữ. Mô hình học máy này đã tự học rằng ứng viên nam là ưu tiên, vì nó được huấn luyện trên các hồ sơ xin việc trước đây chủ yếu là nam giới.
Kết quả là, các hồ sơ có từ “phụ nữ” (ví dụ “đội trưởng câu lạc bộ cờ vua nữ”) hoặc các trường đại học chỉ dành cho nữ bị hệ thống đánh giá thấp. Thuật toán tuyển dụng có định kiến này sẽ loại bỏ bất công các ứng viên nữ đủ năng lực cho các vị trí kỹ thuật. -
Chăm sóc Sức khỏe: Một thuật toán được sử dụng tại các bệnh viện ở Mỹ để xác định bệnh nhân cần chăm sóc đặc biệt bị phát hiện đánh giá thấp nhu cầu sức khỏe của bệnh nhân da đen so với bệnh nhân da trắng. Hệ thống dự đoán mức độ ưu tiên quản lý chăm sóc dựa trên chi tiêu y tế: vì lịch sử chi tiêu ít hơn cho bệnh nhân da đen cùng mức độ bệnh, thuật toán đã sai lầm kết luận bệnh nhân da đen “khỏe hơn” và gán điểm rủi ro thấp hơn.
Thực tế, định kiến này khiến nhiều bệnh nhân da đen cần chăm sóc hơn bị bỏ sót – nghiên cứu cho thấy bệnh nhân da đen chi tiêu y tế ít hơn khoảng 1.800 USD mỗi năm so với bệnh nhân da trắng cùng mức độ bệnh, dẫn đến việc AI điều trị không đầy đủ cho họ. -
Nhận diện Khuôn mặt: Công nghệ nhận diện khuôn mặt thể hiện định kiến rõ rệt về độ chính xác theo các nhóm dân tộc. Một nghiên cứu toàn diện năm 2019 của Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ (NIST) cho thấy đa số thuật toán nhận diện khuôn mặt có tỷ lệ lỗi cao hơn nhiều đối với người da màu và phụ nữ so với nam giới da trắng.
Trong các tình huống so khớp một-một (xác minh hai ảnh có cùng một người hay không), tỷ lệ nhận dạng sai dương tính giả đối với khuôn mặt người châu Á và người Mỹ gốc Phi cao hơn từ 10 đến 100 lần so với khuôn mặt người da trắng trong một số thuật toán. Trong các tìm kiếm một-nhiều (xác định một người trong cơ sở dữ liệu, thường dùng bởi lực lượng thực thi pháp luật), tỷ lệ nhận dạng sai cao nhất là đối với phụ nữ da đen – một định kiến nguy hiểm đã dẫn đến việc bắt giữ oan người vô tội.
Những sự chênh lệch này cho thấy AI có định kiến có thể gây tổn hại không cân xứng cho các nhóm bị thiệt thòi. -
AI Tạo Sinh và Nội dung Trực tuyến: Ngay cả các hệ thống AI tiên tiến nhất cũng không tránh khỏi. Một nghiên cứu của UNESCO năm 2024 cho thấy các mô hình ngôn ngữ lớn (AI đứng sau các chatbot và công cụ tạo nội dung) thường tạo ra các định kiến giới tính và chủng tộc lạc hậu.
Ví dụ, phụ nữ được mô tả trong các vai trò nội trợ nhiều gấp bốn lần so với nam giới trong một mô hình phổ biến, với tên nữ thường liên kết với các từ như “gia đình” và “trẻ em”, trong khi tên nam liên quan đến “giám đốc”, “lương” và “sự nghiệp”. Tương tự, nghiên cứu cũng phát hiện các mô hình AI này thể hiện định kiến kỳ thị đồng tính và các định kiến văn hóa trong kết quả đầu ra.
Với hàng triệu người hiện nay sử dụng AI tạo sinh trong cuộc sống hàng ngày, ngay cả những định kiến nhỏ trong nội dung cũng có thể khuếch đại bất bình đẳng trong thế giới thực, củng cố các định kiến trên quy mô lớn.
Những ví dụ này nhấn mạnh rằng định kiến thuật toán không phải là vấn đề xa vời hay hiếm gặp – nó đang xảy ra trên nhiều lĩnh vực ngay hôm nay. Từ cơ hội việc làm đến công lý, chăm sóc sức khỏe đến thông tin trực tuyến, các hệ thống AI có định kiến có thể tái tạo và thậm chí làm trầm trọng thêm sự phân biệt đối xử hiện hữu.
Tác hại thường thuộc về các nhóm bị thiệt thòi lịch sử, đặt ra những lo ngại nghiêm trọng về đạo đức và quyền con người. Như UNESCO cảnh báo, rủi ro của AI là “khuếch đại các bất bình đẳng hiện có, gây tổn hại thêm cho các nhóm đã bị thiệt thòi”.
Tại sao Định kiến AI lại Quan trọng?
Việc giải quyết định kiến AI có ý nghĩa rất lớn. Nếu không kiểm soát, các thuật toán có định kiến có thể củng cố sự phân biệt hệ thống dưới lớp vỏ trung lập công nghệ. Các quyết định do AI đưa ra (hoặc hỗ trợ) – ai được tuyển dụng, ai được vay vốn hay ân xá, cách cảnh sát giám sát – đều ảnh hưởng thực sự đến cuộc sống con người.
Nếu những quyết định đó bị lệch lạc bất công đối với một số giới tính, chủng tộc hoặc cộng đồng, sự bất bình đẳng xã hội sẽ gia tăng. Điều này có thể dẫn đến việc bị từ chối cơ hội, chênh lệch kinh tế, hoặc thậm chí đe dọa tự do và an toàn cá nhân của các nhóm bị ảnh hưởng.
Ở tầm nhìn rộng hơn, định kiến thuật toán làm suy yếu quyền con người và công bằng xã hội, mâu thuẫn với các nguyên tắc bình đẳng và không phân biệt đối xử mà các xã hội dân chủ đề cao.
Định kiến trong AI cũng làm giảm niềm tin công chúng vào công nghệ. Mọi người ít có xu hướng tin tưởng hoặc sử dụng các hệ thống AI được cho là không công bằng hoặc thiếu minh bạch.
Đối với doanh nghiệp và chính phủ, sự thiếu hụt niềm tin này là vấn đề nghiêm trọng – đổi mới thành công đòi hỏi sự tin tưởng của công chúng. Như một chuyên gia nhận định, các quyết định AI công bằng và không định kiến không chỉ đúng về mặt đạo đức, mà còn tốt cho kinh doanh và xã hội vì đổi mới bền vững phụ thuộc vào niềm tin.
Ngược lại, những thất bại AI do định kiến gây ra (như các trường hợp trên) có thể làm tổn hại danh tiếng và uy tín của tổ chức.
Hơn nữa, định kiến thuật toán có thể làm giảm lợi ích tiềm năng của AI. AI có khả năng nâng cao hiệu quả và chất lượng quyết định, nhưng nếu kết quả của nó phân biệt đối xử hoặc không chính xác với một số nhóm dân cư, nó sẽ không phát huy được tác động tích cực tối đa.
Ví dụ, một công cụ AI trong y tế hoạt động tốt với một nhóm dân cư nhưng kém hiệu quả với nhóm khác thì không thực sự hiệu quả hay được chấp nhận. Như OECD đã nhận định, định kiến trong AI giới hạn cơ hội một cách bất công và có thể khiến doanh nghiệp mất danh tiếng cùng niềm tin của người dùng.
Tóm lại, giải quyết định kiến không chỉ là nghĩa vụ đạo đức mà còn là yếu tố then chốt để tận dụng lợi ích AI cho mọi cá nhân một cách công bằng.
Chiến lược Giảm thiểu Định kiến AI
Vì định kiến thuật toán đã được công nhận rộng rãi, nhiều chiến lược và thực tiễn tốt nhất đã được phát triển để giảm thiểu nó. Đảm bảo các hệ thống AI công bằng và bao trùm đòi hỏi hành động ở nhiều giai đoạn phát triển và triển khai:
-
Thực hành Dữ liệu Tốt hơn: Vì dữ liệu có định kiến là nguyên nhân gốc rễ, cải thiện chất lượng dữ liệu là then chốt. Điều này có nghĩa là sử dụng bộ dữ liệu huấn luyện đa dạng, đại diện bao gồm các nhóm thiểu số, và kiểm tra kỹ lưỡng sự lệch lạc hoặc thiếu sót.
Nó cũng bao gồm việc kiểm toán dữ liệu để phát hiện các định kiến lịch sử (ví dụ kết quả khác biệt theo chủng tộc/giới tính) và điều chỉnh hoặc cân bằng trước khi huấn luyện mô hình. Trong trường hợp một số nhóm bị thiếu đại diện, các kỹ thuật như tăng cường dữ liệu hoặc dữ liệu tổng hợp có thể hỗ trợ.
Nghiên cứu của NIST cho thấy dữ liệu huấn luyện đa dạng hơn có thể mang lại kết quả công bằng hơn trong nhận diện khuôn mặt, ví dụ. Việc giám sát liên tục kết quả đầu ra của AI cũng giúp phát hiện sớm các vấn đề định kiến – cái gì được đo lường sẽ được quản lý. Nếu tổ chức thu thập dữ liệu cụ thể về cách các quyết định của thuật toán thay đổi theo nhóm dân cư, họ có thể nhận diện các mô hình không công bằng và xử lý chúng. -
Thiết kế Thuật toán Công bằng: Các nhà phát triển nên tích hợp có ý thức các ràng buộc công bằng và kỹ thuật giảm thiểu định kiến vào quá trình huấn luyện mô hình. Điều này có thể bao gồm việc sử dụng các thuật toán có thể điều chỉnh để đảm bảo công bằng (không chỉ chính xác), hoặc áp dụng các kỹ thuật để cân bằng tỷ lệ lỗi giữa các nhóm.
Hiện nay có nhiều công cụ và khung làm việc (nhiều công khai nguồn mở) để kiểm tra định kiến và điều chỉnh mô hình – ví dụ, tái trọng số dữ liệu, thay đổi ngưỡng quyết định, hoặc loại bỏ các đặc trưng nhạy cảm một cách thận trọng.
Quan trọng là có nhiều định nghĩa toán học về công bằng (ví dụ, bình đẳng dự đoán, bình đẳng tỷ lệ dương tính giả, v.v.), và đôi khi chúng mâu thuẫn nhau. Việc chọn phương pháp công bằng phù hợp đòi hỏi sự đánh giá đạo đức và bối cảnh, không chỉ là điều chỉnh dữ liệu.
Do đó, các nhóm AI được khuyến khích làm việc với chuyên gia lĩnh vực và cộng đồng bị ảnh hưởng khi xác định tiêu chí công bằng cho từng ứng dụng cụ thể. -
Giám sát và Trách nhiệm của Con người: Không hệ thống AI nào nên hoạt động mà không có trách nhiệm của con người. Giám sát của con người là yếu tố quan trọng để phát hiện và sửa chữa các định kiến mà máy có thể học.
Điều này có nghĩa là có con người tham gia vào các quyết định quan trọng – ví dụ, nhà tuyển dụng xem xét lại các ứng viên được AI sàng lọc, hoặc thẩm phán cân nhắc điểm rủi ro AI một cách thận trọng.
Nó cũng đòi hỏi phân công trách nhiệm rõ ràng: các tổ chức phải nhớ rằng họ chịu trách nhiệm về các quyết định do thuật toán của họ đưa ra như thể do nhân viên thực hiện. Việc kiểm toán định kỳ các quyết định AI, đánh giá tác động định kiến, và khả năng giải thích lý do AI (tính minh bạch) đều giúp duy trì trách nhiệm.
Minh bạch là trụ cột khác: công khai cách hệ thống AI hoạt động và những giới hạn đã biết có thể xây dựng niềm tin và cho phép giám sát độc lập.
Thực tế, một số khu vực pháp lý đang hướng tới yêu cầu minh bạch cho các quyết định thuật toán có tác động lớn (ví dụ, yêu cầu các cơ quan công khai cách thuật toán được sử dụng trong các quyết định ảnh hưởng đến công dân). Mục tiêu là đảm bảo AI hỗ trợ quyết định của con người mà không thay thế phán đoán đạo đức hoặc trách nhiệm pháp lý. -
Đội ngũ Đa dạng và Phát triển Bao trùm: Ngày càng nhiều chuyên gia nhấn mạnh giá trị của sự đa dạng trong nhóm phát triển AI và các bên liên quan. Sản phẩm AI phản ánh quan điểm và điểm mù của những người tạo ra nó.
Do đó, nếu chỉ có một nhóm đồng nhất (ví dụ cùng giới tính, chủng tộc hoặc văn hóa) thiết kế hệ thống AI, họ có thể bỏ qua cách nó ảnh hưởng không công bằng đến người khác.
Việc đưa vào các tiếng nói đa dạng – bao gồm phụ nữ, các nhóm thiểu số chủng tộc, và chuyên gia từ khoa học xã hội hoặc đạo đức – trong quá trình thiết kế và thử nghiệm sẽ tạo ra AI có nhận thức văn hóa hơn.
UNESCO chỉ ra rằng theo dữ liệu gần đây, phụ nữ chiếm tỷ lệ rất thấp trong các vai trò AI (chỉ khoảng 20% nhân viên kỹ thuật AI và 12% nhà nghiên cứu AI là nữ). Tăng cường đại diện không chỉ là vấn đề bình đẳng nơi làm việc, mà còn là cải thiện kết quả AI: nếu hệ thống AI không được phát triển bởi các nhóm đa dạng, chúng khó đáp ứng nhu cầu của người dùng đa dạng hoặc bảo vệ quyền lợi của tất cả mọi người.
Các sáng kiến như nền tảng Women4Ethical AI của UNESCO nhằm thúc đẩy sự đa dạng và chia sẻ các thực hành tốt nhất để thiết kế AI không phân biệt đối xử. -
Quy định và Hướng dẫn Đạo đức: Chính phủ và các tổ chức quốc tế hiện đang tích cực can thiệp để đảm bảo định kiến AI được giải quyết. Năm 2021, các quốc gia thành viên UNESCO đã nhất trí thông qua Khuyến nghị về Đạo đức của Trí tuệ Nhân tạo – khuôn khổ toàn cầu đầu tiên về đạo đức AI.
Khuyến nghị này ghi nhận các nguyên tắc minh bạch, công bằng và không phân biệt đối xử, đồng thời nhấn mạnh tầm quan trọng của giám sát con người đối với các hệ thống AI. Những nguyên tắc này là hướng dẫn cho các quốc gia xây dựng chính sách và luật pháp liên quan đến AI.
Tương tự, Luật AI mới của Liên minh Châu Âu (dự kiến có hiệu lực đầy đủ vào năm 2024) rõ ràng đặt ưu tiên phòng ngừa định kiến. Một trong những mục tiêu chính của Luật AI là giảm thiểu phân biệt đối xử và định kiến trong các hệ thống AI có rủi ro cao.
Luật sẽ yêu cầu các hệ thống được sử dụng trong các lĩnh vực nhạy cảm (như tuyển dụng, tín dụng, thực thi pháp luật, v.v.) phải trải qua đánh giá nghiêm ngặt về công bằng và không gây tổn hại không cân xứng cho các nhóm được bảo vệ.
Vi phạm có thể dẫn đến phạt tiền nặng, tạo động lực mạnh mẽ cho các công ty xây dựng các biện pháp kiểm soát định kiến.
Bên cạnh các quy định chung, một số chính quyền địa phương đã có hành động cụ thể – ví dụ, hơn một chục thành phố lớn (bao gồm San Francisco, Boston và Minneapolis) đã cấm hoàn toàn việc cảnh sát sử dụng công nghệ nhận diện khuôn mặt do định kiến chủng tộc và rủi ro vi phạm quyền dân sự.
Trong ngành công nghiệp, các tổ chức tiêu chuẩn và công ty công nghệ đang công bố hướng dẫn và phát triển công cụ (như bộ công cụ công bằng và khung kiểm toán) để giúp các nhà thực hành tích hợp đạo đức vào phát triển AI.
Phong trào hướng tới “AI Đáng tin cậy” bao gồm sự kết hợp của các nỗ lực này, đảm bảo các hệ thống AI tuân thủ pháp luật, đạo đức và bền vững trong thực tiễn.
>>> Bạn muốn biết thêm:
Tác Động của Trí Tuệ Nhân Tạo đối với Việc Làm
AI và định kiến thuật toán là thách thức toàn cầu mà chúng ta mới chỉ bắt đầu giải quyết hiệu quả. Các ví dụ và nỗ lực trên cho thấy định kiến AI không phải là vấn đề nhỏ lẻ – nó ảnh hưởng đến cơ hội kinh tế, công lý, sức khỏe và sự gắn kết xã hội trên toàn thế giới.
Tin vui là nhận thức đã tăng mạnh, và một sự đồng thuận đang hình thành rằng AI phải lấy con người làm trung tâm và công bằng.
Để đạt được điều này cần sự cảnh giác liên tục: kiểm tra định kỳ các hệ thống AI về định kiến, cải thiện dữ liệu và thuật toán, tham gia các bên liên quan đa dạng, và cập nhật quy định khi công nghệ phát triển.
Về cốt lõi, chống lại định kiến thuật toán là điều chỉnh AI phù hợp với các giá trị bình đẳng và công bằng của chúng ta. Như Tổng Giám đốc UNESCO Audrey Azoulay đã nhấn mạnh, ngay cả “những định kiến nhỏ trong nội dung [AI] cũng có thể khuếch đại đáng kể bất bình đẳng trong thế giới thực”.
Do đó, việc theo đuổi AI không định kiến là điều thiết yếu để đảm bảo công nghệ nâng cao mọi tầng lớp xã hội thay vì củng cố những thành kiến cũ.
Bằng cách ưu tiên các nguyên tắc đạo đức trong thiết kế AI – và hỗ trợ chúng bằng các hành động và chính sách cụ thể – chúng ta có thể khai thác sức mạnh đổi mới của AI đồng thời bảo vệ phẩm giá con người.
Con đường phía trước cho AI là nơi các máy thông minh học hỏi từ những giá trị tốt đẹp nhất của nhân loại, không phải những định kiến tồi tệ nhất của chúng ta, giúp công nghệ thực sự mang lại lợi ích cho tất cả mọi người.