Badacze społeczni: Sprawdziliśmy generatory obrazów oparte na AI. Wynik? Kobiety są niewidzialne

Bazy danych mogą tworzyć nierówności płciowe w AI - wykazało badanie naukowców z Akademii Leona Koźmińskiego. Powszechne przekonanie, że algorytmy  i sztuczna inteligencja są z natury obiektywne, jest błędne. Technologia zawsze odzwierciedlała uprzedzenia i stereotypy, bo bazy danych optymalizują i wdrażają ludzie - uważa dr Anna Górska, specjalizująca się w zagadnieniach płci i różnorodności w organizacjach i uczelniach.

Na łamach “Feminist Media Studies” dr Anna Górska we współpracy z prof. Dariuszem Jemielniakiem, opisali zaskakujące wyniki swoich badań. Odkrycie ujawnia znaczne uprzedzenia związane z płcią w obrazach profesjonalistów - mężczyzn i kobiet, w dziedzinie prawa, medycyny, inżynierii i badań naukowych - generowanych przez sztuczną inteligencję. 

- Wiele ze stereotypów utrwalonych przez AI bierze się z danych wejściowych: jeżeli wykorzystuje się głównie zachodnie bazy, w tym także np. magazyny, seriale i książki, w których stereotypy płciowe mają się mocno, a główne postacie to przede wszystkim biali, trudno się dziwić, że modele traktują te dane jako odzwierciedlenie rzeczywistości. Problem pokazuje zatem, że trzeba być bardzo ostrożnym w doborze danych - zauważa prof. Dariusz Jemielniak. 

W generatorach AI występuje nadreprezentacja mężczyzn 

To duży problem, ponieważ prowadzi do nierówności i segregacji płciowej w edukacji  i zawodach, np takich jak prawniczka, lekarka, inżynierka, czy naukowczyni. Świat danych nie został stworzony z myślą o kobietach. Twórcy algorytmów importują różnorodne wartości do AI,  z których wiele nieświadomie wspiera seksizm, rasizm i niepotwierdzone przekonania merytokratyczne. 

- Kto jest programistą w branży IT? Zazwyczaj są to mężczyźni. Mówimy o całej kulturze  “brogrammer” wśród programistów, która jest mało włączająca. Prawdopodobnie ich własne uprzedzenia, które tworzą w sposób świadomy czy nieświadomy, są później odzwierciedlone w algorytmach - mówi dr Anna Górska, współautorka badań o kobietach niewidzialnych przez sztuczną inteligencję. 

Generator AI - czego jeszcze nie wiemy?

- Sporo, jak dotąd w żadnym badaniu, nie analizowano uprzedzeń ze względu na płeć  w generatorach obrazów AI w kontekście miejsca pracy - mówi naukowczyni. 

Dlatego badacze z Akademii Leona Koźmińskiego porównali dziewięć popularnych generatorów obrazów AI i sprawdził, jak przedstawiają one wizerunki osób w czterech prestiżowych zawodach według Global Teacher Status Index (2018), takich jak: prawnik, lekarz, inżynier i naukowiec. W sumie AI wygenerowała 99 grafik. 

- Wpisaliśmy prompty w języku angielskim. Nie zadawaliśmy ich po polsku, ponieważ chcieliśmy zachować neutralność płciową. Wyniki, nie były jednak płciowo neutralne - zauważa dr Górska.   Obrazom przyglądało się 120 respondentów, w wieku od 18 do 24 lat, którzy mieli za zadanie ocenić postrzeganą płeć przedstawioną na każdym obrazie. Badanie składało się ze 101 pytań. Uczestnicy mieli do wyboru cztery opcje opisu obrazu: mężczyzna, kobieta, niejednoznaczne, i nieludzkie. Mogli wybrać tylko jedną z nich. Zawód generowanego przez AI obrazu nie był podany. 

Analiza wykazała istotne uprzedzenia płciowe w kreowanych przez sztuczną inteligencję zdjęciach. Mężczyźni byli reprezentowani na 76 proc. obrazach, a kobiety jedynie na 8 proc. Najmniejszą reprezentację kobiet zaobserwowano wśród lekarzy - 7 proc. - Co jest zaskakujące, bo według danych OECD (2021), kobiety w niewirtualnym świecie, stanowią niemal połowę osób pracujących w tym zawodzie - podkreśla dr Górska. 

Czego potrzebuje sztuczna inteligencja do zmiany myślenia?

Myślenie i jego jakość odróżniają nas od innych stworzeń. Badaczka argumentuje, że generowane przez sztuczną inteligencję obrazy wpływają na postrzeganie opinii publicznej i rzeczywistość społeczną. Zmiana sztucznej inteligencji, powinna więc dotyczyć nie tylko reprezentacji i inkluzywności ale także podziału zadań między mężczyzn a kobiety w procesach projektowania i podejmowania decyzji na wyższych szczeblach. 

- Dlaczego tak ważna jest reprezentacja kobiet na różnych szczeblach w organizacji, również wśród programistów. Sheryl Sandberg - była prezeska Facebooka, kiedy była w zaawansowanej ciąży, miała problemy, żeby dostać się z parkingu do biura. Poszła więc do swojej rady nadzorczej i powiedziała: “Słuchajcie, musimy zrobić parkingi dla kobiet w ciąży”. Na co oni odpowiedzieli: “Jasne, nie ma problemu. My o tym wcześniej nie pomyśleliśmy”. Dlatego właśnie tak ważne jest, żeby mieć kobiety na różnych szczeblach w instytucjach, bo dopóki kogoś nie dotyczy dany problem, to po prostu się o tym nie pomyśli. Gdyby w IT było więcej programistek, to reprezentacja byłaby bardziej równościowa - zauważa dr Anna Górska. 

Jej zdaniem uprzedzenia płciowe, są powszechnym problemem w generowanych przez AI obrazach profesjonalistów, gdzie mężczyźni są nadreprezentowani, a pewne zawody i generatory obrazów AI, są szczególnie podatne na uprzedzenie. - Co niestety wpływa na to,  w jaki sposób kobiety i mężczyźni są przedstawiani w różnych zawodach. Prowadzi to, do normalizacji stereotypowych poglądów i wzmacniania istniejących nierówności płciowych - podkreśla autorka badań. 

Dodaje, że istotne jest podnoszenie świadomości społecznej na temat bieżących problemów związanych z tekstem AI dla generatorów obrazów i zachęcanie twórców sztucznej inteligencji do rozwoju i projektowania bardziej włączających i sprawiedliwych technologii. 

*** Kontakt dla mediów: mateusz lipka | pro science m.lipka@proscience.pl +48 575 515 633

See also