Uprzedzenia w algorytmach. Dlaczego etyka sztucznej inteligencji to sprawa dla każdego, kto używa AI.
2026-01-15 12:14:00Kilka lat temu jeden z największych banków Stanów Zjednoczonych wdrożył nowy system do oceny zdolności kredytowej. Algorytm działał sprawnie, szybko, wydawał się obiektywny. Wkrótce okazało się jednak, że konsekwentnie przyznawał niższe limity kredytowe osobom o imionach charakterystycznych dla mniejszości etnicznych. Nikt tego nie zaprogramował. Nikt nie wpisał w kod takich instrukcji. Problem leżał gdzie indziej — w danych, na których nauczono algorytm.
To nie pojedynczy incydent. System diagnostyki medycznej działał gorzej dla pacjentów o ciemniejszej skórze. Algorytm rekrutacyjny pewnej korporacji odrzucał kobiety. System oceny ryzyka recydywy w sądach dyskryminował Afroamerykanów.
Te historie są ważne, ale nie chodzi tu o pojedynczą sensację. Chodzi o to, żeby zrozumieć: uprzedzenia w sztucznej inteligencji to nie złośliwość programistów, to systemowe zaniedbanie.
Co to właściwie jest uprzedzenie w algorytmie?
Zanim odpowiemy, trzeba się porozumieć słownie. Angielskie słowo bias tłumaczymy jako "uprzedzenie", ale to nie całkowita prawda. Bias w naukach o danych to systematyczne odchylenie od rzeczywistości - błąd, który systematycznie działa w jedną stronę. Uprzedzenie jest zbyt mocnym słowem i sugeruje złą wolę. Ale bez złej woli możliwe jest również wyrządzenie szkody.
Uprzedzenie w algorytmie pochodzi z dwóch głównych źródeł:
1. Uprzedzenie w danych historycznych
Gdy trenujemy algorytm, karmmy go faktami z przeszłości. Problem: przeszłość jest niesprawiedliwa. Jeśli w historycznych danych kredytowych są osoby z mniejszości etniczych, którym rzadziej udzielano kredytów, algorytm nauczy się tego wzorca. Będzie powtarzać historyczną dyskryminację, bo w jego rozumieniu uzyskanym w procesie uczenia jest to "wzorcowe" zachowanie.
Przykład jest konkretny: system do diagnozowania choroby płuc działał dla pewnej grupy pacjentów, a dla innych — gorzej. Przyczyna? W danych treningowych było mniej pacjentów o ciemnej skórze, a urządzenie medyczne, które dostarczało dane, było kalibrowane dla jasnej skóry. Algorytm nauczył się błędu, jaki tkwił w źródle.
2. Uprzedzenie w wyborze zmiennych
Budując algorytm, decydujemy, które cechy są ważne. Czasem, bez świadomości, wybieramy zmienne powiązane z pochodzeniem czy płcią.
Jeśli system kredytowy używa imienia czy adresu — wprowadzasz korelację z pochodzeniem. Jeśli używasz historii pracy — mogą się tam ukrywać uprzedzenia płci (kobiety częściej przerywały karierę, co miało związek m.in. z urlopami macierzyńskimi). To nie są błędy w kodzie. To błędy w wyborze, który zawsze ma wymiar etyczny.
Dlaczego to nas powinno obchodzić?
Są co najmniej trzy powody, dla których ta kwestia nie jest abstrakcyjna:
Po pierwsze: prawo.
Unia Europejska uchwaliła przepisy o sztucznej inteligencji (AI Act), które wchodzą w życie. Polska przyłącza się do tego procesu. Przepisy nakazują ocenę ryzyka dla systemów o wysokim wpływie na ludzi — wybór pracowników, udzielanie pożyczek, decyzje sądowe. Jeśli Twój algorytm będzie dyskryminujący, odpowiadasz za to prawnie i finansowo. Rozwój sztucznej inteligencji jest coraz szybszy, i prawo musi się do niego dostosowywać.
Po drugie: zaufanie.
Ludzie wierzą maszynie więcej niż sobie nawzajem. Gdy człowiek mówi "nie mogę Cię zatrudnić", możesz go zapytać dlaczego, możesz się sprzeciwić, możesz się odwołać. Gdy decyzję wydaje algorytm, ludzie przyjmują ją jak wyrok — "to tylko liczby, zbiory danych, nic się nie da zrobić". To daje systemom sztucznej inteligencji potęgę, które są nieproporcjonalne do ich faktycznej niezawodności.
Po trzecie: rzeczywisty wpływ.
Stronniczość algorytmów nie jest abstrakcją. To żywy człowiek, który nie dostaje pracy, pożyczki, możliwości leczenia. To rzeczywiste życie.
Jak zmierzyć uczciwość algorytmu?
Pierwsza zasada: nie wystarczy jedna liczba. Nie wystarczy wiedzieć, że system ma 95% dokładności. Musisz wiedzieć, czy ma tę samą dokładność dla wszystkich grup.
Konkretnie: jeśli budujesz system rozpoznawania twarzy, sprawdź:
- Dokładność dla mężczyzn vs. kobiet
- Dokładność dla osób z jasną skórą vs. ciemną skórą
- Dokładność dla starszych ludzi vs. młodych
Jeśli któraś grupa ma znacząco gorszą dokładność — masz problem. To się mierzy i można to naprawić.
Narzędzia do tego istnieją i są darmowe:
- Fairness Indicators (Google) — sprawdza sprawiedliwość modelu
- AI Fairness 360 (IBM) — biblioteka do testowania uprzedzeń
To nie są zaawansowane narzędzia. To są narzędzia standardowe, które każdy powinien znać.
Co powinieneś z tym zrobić?
Jeśli zaczynasz pracę z danymi i algorytmami, kilka konkretnych kroków:
1. Poznaj swoje dane
Zanim nakarmisz algorytm danymi, przeanalizuj je:
- Skąd pochodzą?
- Kto je zbierał?
- Co te dane reprezentują a czego nie reprezentują?
- Czy potrafisz wskazać grupy, których obecność w danych jest niedostateczne?
Jeśli szkolisz system na osobach ze Stanów, a chcesz go używać w Polsce — masz problem. Jeśli szkolisz go głównie na mężczyznach, a stosować będziesz do wszystkich — dane nie będą prawidłowe.
2. Zdefiniuj "uczciwość", zanim zaczniesz budować i wdrażać system
Co dla Ciebie oznacza sprawiedliwość? Dla systemu kredytowego może to znaczyć: każda grupa ma taką samą szansę uzyskania kredytu. Dla systemu diagnostyki medycznej: każda grupa jest diagnozowana w ten sam sposób.
Napisz to wyraźnie. To będzie Twój plan działań.
3. Mierz wyniki dla każdej grupy osobno
Nie wystarczy średnia. Ważna jest różnorodność. Musisz widzieć wyniki dla każdej grupy demograficznej, którą uważasz za istotną. To wymaga pracy, ale to ważne.
4. Dokumentuj swoje decyzje
Dlaczego wybrałeś właśnie te zmienne? Dlaczego odrzuciłeś tamte? Dlaczego zdefiniowałeś uczciwość w taki, a nie inny sposób? To będzie ważne, gdy trzeba będzie odpowiedzieć komuś — pracownikowi, sądowi, mediom — dlaczego algorytm działa tak, a nie inaczej.
5. Pracuj zespołowo
Nie buduj algorytmu w samotności. Pokaż go komuś, kto myśli inaczej, kto pochodzi z innego środowiska, kto mógłby być poszkodowany Twoją pracą. Różne perspektywy to ochrona przed przeoczeniem ważnych kwestii.
Język jako lustro
Pozwól mi na moment zwrócić uwagę na coś, co często pomijamy. Kiedy mówimy o algorytmach i uprzedzeniach, używamy słowa "bias" — anglicyzmu. W polszczyźnie to brzmi obco. I właśnie dlatego wiele osób traktuje to jako problem Stanów Zjednoczonych, nie Polski.
Jednak uprzedzenia w algorytmach dotyczą także nas. Naszych algorytmów, naszych danych, naszych decyzji.
Polska ma prawo do polskich słów na polskie problemy. Możemy mówić o uprzedzeniach systemowych, o błędach systematycznych w algorytmach, o dyskryminacji przez kod. Te słowa są silne i są nasze.
Podsumowanie: co zmienia się teraz
Jeśli pracujesz z danymi lub piszesz algorytmy, czasy się zmieniają. Nie jest już (jeśli kiedykolwiek było) akceptowalne budowanie bez myślenia o konsekwencjach.
Przepisy tego wymagają. Firmy tego wymagają. A przede wszystkim — ludzie, którzy będą doświadczać rezultatów Twojej pracy — tego wymagają.
Jest w tym też pozytywna strona: jeśli zadbasz o uczciwość od samego początku, jeśli będziesz mierzyć i dokumentować, jeśli będziesz pracować z większą grupą ludzi — Twój algorytm będzie lepszy. Bardziej niezawodny. Bardziej godny zaufania.
I w świecie sztucznej inteligencji, gdzie każdy chce być pierwszy i najszybszy, właśnie to — niezawodność i godność zaufania — będzie Twoją przewagą konkurencyjną.