Jak utrzymać sztuczną inteligencję po naszej stronie?

Sztuczna inteligencja przestała być futurystycznym motywem z filmów – dziś współdecyduje o kredytach, diagnozach medycznych, rekrutacji, moderacji treści, a nawet o tym, co widzimy w mediach społecznościowych. Wraz z tym przyspieszeniem narasta jednak proste pytanie: jak upewnić się, że AI pozostanie „po naszej stronie”?

Na to pytanie odpowiada artykuł „3 Ways to Keep AI on Our Side: AI Researchers can Draw Lessons from Cybersecurity, Robotics, and Astrobiology”, opublikowany przez IEEE Spectrum. Współautorami tekstu są m.in. Bruce Schneier, jeden z najbardziej znanych ekspertów od bezpieczeństwa cyfrowego, Nathan E. Sanders, a także prof. Dariusz Jemielniak z Katedry Zarządzania w Społeczeństwie Sieciowym Akademii Leona Koźmińskiego. Autorzy łączą trzy perspektywy – cyberbezpieczeństwa, etyki robotów i… astrobiologii – żeby opowiedzieć, jak inaczej myśleć o bezpieczeństwie sztucznej inteligencji.

AI popełnia inne błędy niż ludzie

Pierwszy wątek artykułu wychodzi z obserwacji, którą wielu użytkowników generatywnej AI zna już z własnego doświadczenia: systemy oparte na uczeniu maszynowym mylą się inaczej niż ludzie. Potrafią tworzyć odpowiedzi niezwykle przekonujące, ale faktycznie błędne, „zmyślać” źródła, nie rozumiejąc w klasycznym sensie tego, co produkują. Dla bezpieczeństwa oznacza to przynajmniej jedno – nie da się po prostu przenieść starych metod z obszaru bezpieczeństwa informatycznego czy zarządzania ryzykiem opartym na ludzkich błędach.

Schneier i Sanders sugerują, że AI trzeba traktować jak nową klasę aktora w ekosystemie bezpieczeństwa. Z jednej strony może wzmacniać już istniejące zagrożenia (np. automatyzując ataki), z drugiej – generuje zupełnie nowe rodzaje „dziwnych” pomyłek, których nie przewidują standardowe scenariusze. W efekcie bezpieczeństwo AI nie może polegać tylko na tym, że uczynimy ją bardziej „podobną do człowieka”. Potrzebne są mechanizmy, które zakładają obcość jej sposobu działania i projektują zabezpieczenia z myślą o tej obcości – tak, aby systemy potrafiły wykrywać i neutralizować skutki własnych nietypowych błędów.

Nowe „prawo robotyki” na czasy deepfake’ów

W swojej części tekstu prof. Dariusz Jemielniak odwołuje się do klasycznego punktu odniesienia: słynnych trzech praw robotyki Isaaca Asimova. W popkulturze pełniły one rolę intuicyjnego kompasu etycznego – robot nie może skrzywdzić człowieka, musi słuchać poleceń, o ile nie są sprzeczne z pierwszym prawem, i dbać o własne bezpieczeństwo, jeśli nie koliduje to z pozostałymi zasadami. Problem w tym, że współczesna sztuczna inteligencja nie przypomina już mechanicznych robotów z opowiadań Asimova. Największe ryzyko nie polega dziś na tym, że maszyna fizycznie zaatakuje człowieka, lecz na tym, że systemy AI będą nas wprowadzać w błąd – subtelnie, masowo i wiarygodnie.

Generatywne modele tekstowe, obrazowe i wideo pozwalają tworzyć deepfake’i, podrobione wypowiedzi, fałszywe zdjęcia, „autentycznie” brzmiące wiadomości. Prof. Jemielniak wskazuje, że w takim świecie etyka robotów potrzebuje aktualizacji. Zamiast koncentrować się wyłącznie na zakazie fizycznej krzywdy, musimy wprost wpisać do naszych norm zakaz oszukiwania, obowiązek rozpoznawalności maszyn i przejrzystość co do źródła treści. Chodzi nie tylko o to, by AI „nie kłamała”, ale też o to, żeby użytkownik miał realną szansę zorientować się, że rozmawia z systemem, a nie z człowiekiem, oraz żeby istniały mechanizmy weryfikacji autentyczności treści w obiegu publicznym.

W praktyce oznacza to konieczność projektowania nie tylko modeli, ale całych ekosystemów – z zasadami oznaczania generowanych treści, kontrolą nad ich dalszym wykorzystaniem i odpowiedzialnością platform za to, jak AI jest w nich wbudowana. Klasyczne „prawa robotyki” Asimova stają się tu inspiracją, ale nie wystarczają jako realny kodeks na czasy deepfake’ów.

Lekcje z poszukiwania inteligentnego życia w kosmosie

Najbardziej zaskakującą perspektywę przynosi trzecia część artykułu, w której autorzy proponują, by twórcy AI inspirowali się… astrobiologią, a konkretnie metodami poszukiwania inteligentnego życia we wszechświecie. Tam, gdzie naukowcy próbują znaleźć sygnały z obcych cywilizacji, kluczowe jest zdefiniowanie bardzo rygorystycznych kryteriów: co właściwie uznamy za „inteligentny sygnał”, jak odróżnimy go od szumu, jak unikniemy fałszywych alarmów.

Podobne pytania warto zadać w kontekście tzw. silnej AI czy systemów osiągających poziom człowieka. Zamiast emocjonalnych deklaracji, że „to już jest prawdziwa inteligencja”, autorzy sugerują przyjęcie standardów podobnych do tych, które obowiązują w badaniach kosmosu: jasnych protokołów testowania, powtarzalnych kryteriów, niezależnej weryfikacji. Chodzi o to, by mieć nie tylko intuicje i narracje, ale też naukowo spójne metody oceny tego, z czym właściwie mamy do czynienia.

Ta analogia z astrobiologią działa na dwóch poziomach. Po pierwsze, studzi wyobraźnię i przypomina, że deklaracje o „przełomowym momencie” trzeba traktować ostrożnie. Po drugie, pokazuje, że budowa bezpiecznej przyszłości z AI wymaga procedur i instytucji – nie tylko obietnic składanych na konferencjach przez firmy technologiczne.

 

Czytaj także