Zastanawiają się Państwo nad uprzedzeniami algorytmicznymi w AI? Dołącz do INVIAI, aby dowiedzieć się więcej o AI i uprzedzeniach algorytmicznych w tym artykule!

Sztuczna inteligencja (AI) jest coraz bardziej obecna w naszym codziennym życiu – od decyzji rekrutacyjnych, przez opiekę zdrowotną, aż po działania policji – jednak jej stosowanie budzi obawy dotyczące uprzedzeń algorytmicznych. Uprzedzenia algorytmiczne oznaczają systematyczne i niesprawiedliwe uprzedzenia w wynikach systemów AI, często odzwierciedlające społeczne stereotypy i nierówności.

W istocie, algorytm AI może nieświadomie powielać ludzkie uprzedzenia obecne w danych treningowych lub w projekcie, prowadząc do dyskryminujących rezultatów.

Problem ten stał się jednym z najbardziej dyskutowanych wyzwań w etyce technologii, przyciągając globalną uwagę badaczy, decydentów i liderów branży. Szybkie wdrażanie AI sprawia, że konieczne jest natychmiastowe zajęcie się uprzedzeniami: bez etycznych zabezpieczeń AI ryzykuje powielanie rzeczywistych uprzedzeń i dyskryminacji, pogłębiając podziały społeczne, a nawet zagrażając podstawowym prawom człowieka.

Poniżej przyjrzymy się przyczynom uprzedzeń algorytmicznych, przykładom ich wpływu w praktyce oraz działaniom podejmowanym na rzecz uczynienia AI bardziej sprawiedliwą.

Zrozumienie uprzedzeń algorytmicznych i ich przyczyn

Uprzedzenia algorytmiczne pojawiają się zazwyczaj nie dlatego, że AI „chce” dyskryminować, lecz z powodu czynników ludzkich. Systemy AI uczą się na podstawie danych i stosują reguły stworzone przez ludzi – a ludzie mają uprzedzenia (często nieuświadomione).
Jeśli dane treningowe są zniekształcone lub odzwierciedlają historyczne uprzedzenia, AI prawdopodobnie nauczy się tych wzorców.

Na przykład AI do selekcji CV, trenowana na danych z dekady branży technologicznej (gdzie większość zatrudnionych to mężczyźni), może wywnioskować, że kandydaci płci męskiej są preferowani, co skutkuje dyskryminacją kobiet. Inne częste przyczyny to niekompletne lub niereprezentatywne zbiory danych, stronnicze oznaczanie danych lub algorytmy optymalizowane pod kątem ogólnej dokładności, a nie sprawiedliwości wobec mniejszości.

Krótko mówiąc, algorytmy AI dziedziczą uprzedzenia swoich twórców i danych, chyba że podejmie się świadome kroki, by je rozpoznać i skorygować.

Ważne jest, aby zauważyć, że uprzedzenia algorytmiczne są zwykle niezamierzone. Organizacje często wdrażają AI, aby podejmować decyzje bardziej obiektywne, ale jeśli „karmią” system stronniczymi informacjami lub nie uwzględniają równości w projekcie, wynik może być nadal niesprawiedliwy. Uprzedzenia AI mogą niesprawiedliwie rozdzielać szanse i generować błędne wyniki, negatywnie wpływając na dobrostan ludzi i podważając zaufanie do AI.

Zrozumienie, dlaczego uprzedzenia się pojawiają, to pierwszy krok do znalezienia rozwiązań – krok, który środowiska akademickie, przemysłowe i rządy na całym świecie traktują obecnie bardzo poważnie.

Zrozumienie uprzedzeń algorytmicznych i ich przyczyn

Przykłady uprzedzeń AI w praktyce

Uprzedzenia w AI to nie tylko hipotetyczny problem; liczne przykłady z rzeczywistości ujawniły, jak uprzedzenia algorytmiczne mogą prowadzić do dyskryminacji. Znane przypadki uprzedzeń AI w różnych sektorach to:

  • Wymiar sprawiedliwości: W Stanach Zjednoczonych popularny algorytm służący do przewidywania recydywy (prawdopodobieństwa ponownego popełnienia przestępstwa) okazał się stronniczy wobec czarnoskórych oskarżonych. Często oceniał ich jako wysokie ryzyko, a białych jako niskie, pogłębiając nierówności rasowe w wymiarze sprawiedliwości.
    Ten przypadek pokazuje, jak AI może wzmacniać historyczne uprzedzenia w policji i sądach.

  • Rekrutacja i zatrudnienie: Amazon słynnie porzucił narzędzie rekrutacyjne oparte na AI po odkryciu, że dyskryminowało kobiety. Model uczenia maszynowego nauczył się, że preferowani są kandydaci płci męskiej, ponieważ trenowano go na CV głównie mężczyzn.

    W efekcie CV zawierające słowo „kobiety” (np. „kapitan klubu szachowego kobiet”) lub pochodzące z uczelni żeńskich były obniżane w rankingu przez system. Ten stronniczy algorytm rekrutacyjny niesprawiedliwie odrzucał wykwalifikowane kobiety na stanowiska techniczne.

  • Opieka zdrowotna: Algorytm stosowany w szpitalach w USA do identyfikacji pacjentów wymagających dodatkowej opieki niedoszacowywał potrzeb zdrowotnych czarnoskórych pacjentów w porównaniu z białymi. System przewidywał priorytet opieki na podstawie wydatków na leczenie: ponieważ historycznie mniej wydawano na czarnoskórych pacjentów o tym samym stopniu choroby, algorytm błędnie uznał ich za „zdrowszych” i przydzielił niższe oceny ryzyka.

    W praktyce oznaczało to, że wielu czarnoskórych pacjentów potrzebujących większej opieki zostało pominiętych – badanie wykazało, że czarnoskórzy pacjenci generowali rocznie około 1800 dolarów mniej kosztów medycznych niż równie chorzy biali, co prowadziło do niedostatecznego leczenia.

  • Rozpoznawanie twarzy: Technologia rozpoznawania twarzy wykazała znaczące uprzedzenia w dokładności w zależności od demografii. Kompleksowe badanie z 2019 roku przeprowadzone przez amerykański Narodowy Instytut Standardów i Technologii (NIST) wykazało, że większość algorytmów rozpoznawania twarzy miała znacznie wyższe wskaźniki błędów dla osób kolorowych i kobiet niż dla białych mężczyzn.

    W scenariuszach porównania jeden do jednego (weryfikacja, czy dwa zdjęcia przedstawiają tę samą osobę), fałszywe pozytywne identyfikacje twarzy Azjatów i Afroamerykanów były 10 do 100 razy bardziej prawdopodobne niż dla twarzy białych w niektórych algorytmach. W wyszukiwaniach jeden do wielu (identyfikacja osoby w bazie danych, stosowana przez organy ścigania), najwyższe wskaźniki błędów dotyczyły czarnoskórych kobiet – niebezpieczne uprzedzenie, które już doprowadziło do fałszywych aresztowań niewinnych osób.

    Te różnice pokazują, jak stronnicza AI może nieproporcjonalnie szkodzić grupom marginalizowanym.

  • Generatywna AI i treści online: Nawet najnowsze systemy AI nie są wolne od uprzedzeń. Badanie UNESCO z 2024 roku ujawniło, że duże modele językowe (AI stojące za chatbotami i generatorami treści) często generują regresywne stereotypy płciowe i rasowe.

    Na przykład kobiety były opisywane w rolach domowych cztery razy częściej niż mężczyźni przez jeden popularny model, a żeńskie imiona często łączono ze słowami takimi jak „dom” i „dzieci”, podczas gdy męskie imiona kojarzono z „kierownictwem”, „wynagrodzeniem” i „karierą”. Podobnie badanie wykazało, że modele te wykazują homofobiczne uprzedzenia i kulturowe stereotypy w swoich wynikach.

    Biorąc pod uwagę, że miliony osób korzystają z generatywnej AI na co dzień, nawet subtelne uprzedzenia w treściach mogą wzmacniać nierówności w rzeczywistym świecie, utrwalając stereotypy na dużą skalę.

Te przykłady podkreślają, że uprzedzenia algorytmiczne to nie odległy czy rzadki problem – dzieje się to już dziś w wielu dziedzinach. Od szans zawodowych, przez wymiar sprawiedliwości i opiekę zdrowotną, po informacje online – stronnicze systemy AI mogą powielać, a nawet nasilać istniejącą dyskryminację.

Szkody ponoszą często historycznie dyskryminowane grupy, co rodzi poważne kwestie etyczne i dotyczące praw człowieka. Jak ostrzega UNESCO, ryzyka AI „nakładają się na istniejące nierówności, powodując dalsze szkody dla już zmarginalizowanych grup”.

Przykłady uprzedzeń AI w praktyce

Dlaczego uprzedzenia AI mają znaczenie?

Stawka w walce z uprzedzeniami AI jest wysoka. Jeśli pozostaną one bez kontroli, stronnicze algorytmy mogą utrwalać systemową dyskryminację pod pozorem neutralności technologicznej. Decyzje podejmowane (lub wspierane) przez AI – kto zostanie zatrudniony, kto otrzyma kredyt lub zwolnienie warunkowe, jak policja prowadzi nadzór – mają realne konsekwencje dla życia ludzi.

Jeśli te decyzje są niesprawiedliwie ukierunkowane przeciwko określonym płciom, rasom lub społecznościom, nierówności społeczne się pogłębiają. Może to prowadzić do odmowy szans, nierówności ekonomicznych, a nawet zagrożeń dla wolności i bezpieczeństwa osobistego dotkniętych grup.

W szerszym kontekście uprzedzenia algorytmiczne podważają prawa człowieka i sprawiedliwość społeczną, stojąc w sprzeczności z zasadami równości i niedyskryminacji, które są fundamentem społeczeństw demokratycznych.

Uprzedzenia w AI osłabiają także zaufanie publiczne do technologii. Ludzie są mniej skłonni ufać lub korzystać z systemów AI, które postrzegają jako niesprawiedliwe lub nieprzejrzyste.

Dla firm i rządów deficyt zaufania to poważny problem – skuteczna innowacja wymaga zaufania społeczeństwa. Jak zauważył jeden z ekspertów, sprawiedliwe i wolne od uprzedzeń decyzje AI nie są tylko etycznie słuszne, są też korzystne dla biznesu i społeczeństwa, ponieważ zrównoważona innowacja opiera się na zaufaniu.

Z kolei głośne porażki AI spowodowane uprzedzeniami (jak powyższe przypadki) mogą zaszkodzić reputacji i wiarygodności organizacji.

Co więcej, uprzedzenia algorytmiczne mogą ograniczać potencjalne korzyści AI. AI ma obietnicę poprawy efektywności i podejmowania decyzji, ale jeśli jej wyniki są dyskryminujące lub niedokładne dla części populacji, nie może osiągnąć pełnego pozytywnego wpływu.

Na przykład narzędzie AI w opiece zdrowotnej, które działa dobrze dla jednej grupy demograficznej, ale słabo dla innych, nie jest naprawdę skuteczne ani akceptowalne. Jak zauważyła OECD, uprzedzenia w AI niesprawiedliwie ograniczają szanse i mogą kosztować firmy reputację oraz zaufanie użytkowników.

Podsumowując, przeciwdziałanie uprzedzeniom to nie tylko moralny obowiązek, ale także klucz do wykorzystania korzyści AI dla wszystkich w sposób sprawiedliwy.

Dlaczego uprzedzenia AI mają znaczenie

Strategie łagodzenia uprzedzeń AI

Ponieważ uprzedzenia algorytmiczne są obecnie powszechnie rozpoznawane, wypracowano szereg strategii i najlepszych praktyk mających na celu ich ograniczenie. Zapewnienie, że systemy AI są sprawiedliwe i inkluzywne, wymaga działań na wielu etapach rozwoju i wdrażania:

  • Lepsze praktyki dotyczące danych: Ponieważ stronnicze dane są podstawową przyczyną, kluczowa jest poprawa jakości danych. Oznacza to stosowanie różnorodnych, reprezentatywnych zbiorów treningowych obejmujących grupy mniejszościowe oraz rygorystyczne sprawdzanie pod kątem zniekształceń lub luk.

    Obejmuje to także audyt danych pod kątem historycznych uprzedzeń (np. różnice w wynikach według rasy/płci) oraz ich korektę lub wyrównanie przed trenowaniem modelu. W przypadkach niedoreprezentowania niektórych grup pomocne mogą być techniki augmentacji danych lub dane syntetyczne.

    Badania NIST sugerują, że bardziej zróżnicowane dane treningowe mogą przynieść bardziej sprawiedliwe wyniki w rozpoznawaniu twarzy, na przykład. Ciągłe monitorowanie wyników AI może także szybko wykrywać problemy z uprzedzeniami – co jest mierzone, tym można zarządzać. Jeśli organizacja zbiera twarde dane o tym, jak decyzje algorytmu różnią się w zależności od demografii, może zidentyfikować niesprawiedliwe wzorce i je naprawić.

  • Sprawiedliwy projekt algorytmów: Deweloperzy powinni świadomie integrować ograniczenia sprawiedliwości i techniki łagodzenia uprzedzeń w procesie trenowania modeli. Może to obejmować stosowanie algorytmów, które można dostosować pod kątem sprawiedliwości (nie tylko dokładności) lub technik wyrównujących wskaźniki błędów między grupami.

    Obecnie dostępne są narzędzia i ramy (wiele open-source) do testowania modeli pod kątem uprzedzeń i ich korekty – na przykład przez zmianę wag danych, modyfikację progów decyzyjnych lub usuwanie cech wrażliwych w przemyślany sposób.

    Istnieje wiele matematycznych definicji sprawiedliwości (np. równość predykcji, równość fałszywych alarmów itd.), które czasem są ze sobą sprzeczne. Wybór odpowiedniego podejścia do sprawiedliwości wymaga oceny etycznej i kontekstowej, a nie tylko korekty danych.

    Dlatego zespoły AI są zachęcane do współpracy z ekspertami dziedzinowymi i społecznościami dotkniętymi, aby definiować kryteria sprawiedliwości dla konkretnego zastosowania.

  • Nadzór ludzki i odpowiedzialność: Żaden system AI nie powinien działać bez nadzoru i odpowiedzialności człowieka. Nadzór ludzki jest niezbędny do wykrywania i korygowania uprzedzeń, które maszyna może przejąć.

    Oznacza to obecność ludzi w procesie podejmowania ważnych decyzji – np. rekrutera przeglądającego kandydatów wybranych przez AI lub sędziego rozważającego ocenę ryzyka AI z ostrożnością.

    Oznacza to także jasne przypisanie odpowiedzialności: organizacje muszą pamiętać, że odpowiadają za decyzje podejmowane przez ich algorytmy tak samo jak za decyzje pracowników. Regularne audyty decyzji AI, oceny wpływu uprzedzeń oraz możliwość wyjaśnienia działania AI (tzw. explainability) pomagają utrzymać odpowiedzialność.

    Przejrzystość to kolejny filar: otwartość na temat działania systemu AI i jego znanych ograniczeń buduje zaufanie i umożliwia niezależną kontrolę.

    W rzeczywistości niektóre jurysdykcje zmierzają do wymogu przejrzystości w przypadku decyzji algorytmicznych o dużym znaczeniu (np. nakazując agencjom publicznym ujawnianie, jak algorytmy są wykorzystywane w decyzjach wpływających na obywateli). Celem jest zapewnienie, że AI wspiera ludzkie decyzje bez zastępowania etycznego osądu czy odpowiedzialności prawnej.

  • Zróżnicowane zespoły i inkluzywny rozwój: Coraz więcej ekspertów podkreśla wartość różnorodności wśród twórców i interesariuszy AI. Produkty AI odzwierciedlają perspektywy i ograniczenia tych, którzy je tworzą.

    Jeśli system AI projektuje jednorodna grupa ludzi (np. jednej płci, jednej etniczności lub kultury), mogą oni nie dostrzec, jak system może niesprawiedliwie wpływać na innych.

    Włączenie różnorodnych głosów – w tym kobiet, mniejszości rasowych oraz ekspertów z nauk społecznych czy etyki – w proces projektowania i testowania prowadzi do bardziej świadomej kulturowo AI.

    UNESCO wskazuje, że według najnowszych danych kobiety są znacznie niedoreprezentowane w rolach związanych z AI (tylko około 20% pracowników technicznych AI i 12% badaczy AI to kobiety). Zwiększenie reprezentacji to nie tylko kwestia równości w miejscu pracy, ale także poprawy wyników AI: jeśli systemy AI nie są tworzone przez zróżnicowane zespoły, rzadziej spełniają potrzeby różnorodnych użytkowników i chronią prawa wszystkich.

    Inicjatywy takie jak platforma UNESCO Women4Ethical AI mają na celu zwiększenie różnorodności i dzielenie się najlepszymi praktykami w zakresie niedyskryminującego projektowania AI.

  • Regulacje i wytyczne etyczne: Rządy i organizacje międzynarodowe aktywnie podejmują działania, aby zapewnić przeciwdziałanie uprzedzeniom AI. W 2021 roku państwa członkowskie UNESCO jednogłośnie przyjęły Zalecenie dotyczące etyki sztucznej inteligencji – pierwszy globalny ramowy dokument dotyczący etyki AI.

    Dokument ten ustanawia zasady przejrzystości, sprawiedliwości i niedyskryminacji oraz podkreśla znaczenie nadzoru ludzkiego nad systemami AI. Zasady te służą jako wskazówki dla państw przy tworzeniu polityk i przepisów dotyczących AI.

    Podobnie nowa ustawa AI Unii Europejskiej (która ma wejść w pełni w życie w 2024 roku) wyraźnie stawia zapobieganie uprzedzeniom jako priorytet. Jednym z głównych celów ustawy AI jest ograniczenie dyskryminacji i uprzedzeń w systemach AI o wysokim ryzyku.

    Ustawa wymaga, aby systemy stosowane w obszarach wrażliwych (takich jak rekrutacja, kredyty, organy ścigania itp.) przechodziły rygorystyczne oceny pod kątem sprawiedliwości i nie szkodziły nieproporcjonalnie chronionym grupom.

    Łamanie przepisów może skutkować wysokimi karami finansowymi, co stanowi silną motywację dla firm do wdrażania mechanizmów kontroli uprzedzeń.

    Oprócz szerokich regulacji, niektóre samorządy lokalne podjęły konkretne działania – na przykład ponad tuzin dużych miast (w tym San Francisco, Boston i Minneapolis) całkowicie zakazało stosowania technologii rozpoznawania twarzy przez policję ze względu na wykazane uprzedzenia rasowe i zagrożenia dla praw obywatelskich.

    Po stronie branży organizacje standaryzacyjne i firmy technologiczne publikują wytyczne oraz opracowują narzędzia (takie jak zestawy narzędzi do sprawiedliwości i ramy audytowe), które pomagają praktykom włączanie etyki do rozwoju AI.

    Ruch na rzecz „godnej zaufania AI” łączy te wysiłki, zapewniając, że systemy AI są zgodne z prawem, etyczne i odporne w praktyce.

>>> Chcą Państwo dowiedzieć się:

Wpływ sztucznej inteligencji na miejsca pracy

Strategie łagodzenia uprzedzeń AI


AI i uprzedzenia algorytmiczne to globalne wyzwanie, z którym dopiero zaczynamy skutecznie sobie radzić. Przedstawione przykłady i działania jasno pokazują, że uprzedzenia AI to nie problem niszowy – dotyczą one szans ekonomicznych, wymiaru sprawiedliwości, zdrowia i spójności społecznej na całym świecie.

Dobrą wiadomością jest to, że świadomość tego problemu gwałtownie wzrosła, a wyłania się konsensus, że AI musi być skoncentrowana na człowieku i sprawiedliwa.

Osiągnięcie tego wymaga stałej czujności: ciągłego testowania systemów AI pod kątem uprzedzeń, poprawy danych i algorytmów, angażowania różnorodnych interesariuszy oraz aktualizacji regulacji wraz z rozwojem technologii.

W istocie walka z uprzedzeniami algorytmicznymi polega na dopasowaniu AI do naszych wartości równości i sprawiedliwości. Jak zauważyła dyrektor generalna UNESCO Audrey Azoulay, nawet „niewielkie uprzedzenia w treściach [AI] mogą znacząco wzmacniać nierówności w rzeczywistym świecie”.

Dlatego dążenie do AI wolnej od uprzedzeń jest kluczowe, aby technologia podnosiła wszystkie segmenty społeczeństwa, zamiast utrwalać stare uprzedzenia.

Priorytetowe traktowanie zasad etycznych w projektowaniu AI – poparte konkretnymi działaniami i politykami – pozwoli nam wykorzystać innowacyjną moc AI, jednocześnie chroniąc godność ludzką.

Droga dla AI to taka, na której inteligentne maszyny uczą się najlepszych wartości ludzkości, a nie naszych najgorszych uprzedzeń, umożliwiając technologii prawdziwe korzyści dla wszystkich.