W ostatnich dniach świat żyje zamachem terrorystycznym w centrum handlowym pod Moskwą. Niezależnie od tego z kim byli powiązani zamachowcy, w rosyjskich mediach pojawiły się nagrania, na których jeden z wyżej postawionych urzędników ukraińskich niejako przyznaje się do związku z tą tragedię. Dość prędko okazało się, że mamy do czynienia z materiałem wykreowanym przez sztuczną inteligencje.
Bez wątpienia AI niesie za sobą coraz więcej zagrożeń, ale i nieporównywalną ilość korzyści. Dlatego prosta odpowiedź na pytanie o jej etyczny wymiar nie jest możliwa. Jednak warto zastanowić się nad tym, skąd AI pobiera informacje? Jeśli bowiem jej jedynym źródłem wiedzy jest baza internetowa, a zdaje się, że tak właśnie jest, wówczas chociaż może się wydawać, że wszystko da się w nim znaleźć, to jednak jest to wciąż zaledwie wycinek prawdy. Ja jednak bardziej zwróciłbym uwagę na fakt, że AI jest w ostateczności narzędziem socjologicznym, ponieważ odwzorowuje to, co czynią ludzie, wsłuchuje się w głos ludzi i przypatruje się reakcji. Czyli właściwie rzecz biorąc jest ona odbiciem tendencji ludzkich. Mowa tu oczywiście o w jakiejś mierze neutralnym wykorzystaniu tego narzędzia. Należy mieć jeszcze na względzie zjawisko „halucynacji”, które jest o tyle niebezpieczne, że AI kreuje informacje wynikające z jakiegoś pomieszania wątków, w konsekwencji czego różne fakty składają się na nowy wątek, daleko odbiegający od rzeczywistości, a mimo wszystko wyglądający wiarygodnie, właśnie ze względu na składowe, z których się zrodził.
Istnieje niestety druga strona medalu, czyli utylitarne podejście do możliwości technologicznych. Jeszcze do niedawna można było zaledwie wykreować prostą grafikę, dziś do użytku publicznego powoli wchodzi możliwość tworzenia filmów krótkometrażowych w jakości 4K, które z podanych próbek rzeczywiście wyglądają na wiarygodne. O ile jakiś czas temu świat obiegały zdjęcia papieża Franciszka w białej puchowej kurtce, co raczej wywoływało śmiech niż oburzenie, tak teraz informacja z Moskwy jednoznacznie pokazuje, że jest się czego obawiać. Tę jednostronną narrację stosunkowo łatwo było zdementować, wyobraźmy sobie jednak film, na którym premier wprowadza stan wojenny, umieszczony na kanale głównej stacji telewizyjnej, po włamaniu na niego. Cóż, to kwestia chwili zanim mass media zaczną powielać fałszywą informację, a w kraju wybuchnie panika, bo zdecydowanie prościej jest się przebić takiemu newsowi niż późniejszym sprostowaniom.
AI może być masowym narzędziem zagłady zaufania. Bez wątpienia już dziś ludzie nie maja zaufania do mediów, nie tylko głównego nurtu, ale jednocześnie bardzo szybko „łykają” treści zawarte w artykułach i powielają je. W momencie kiedy raz po raz kolejne to artykuły okażą się fake newsami, ponieważ zawarte w nich treści są kreacją sztucznej inteligencji, poziom ufności będzie spadał, do tego stopnia, że każda informacja będzie podejrzana, podana w wątpliwość, a to rodzi chaos, a co może być lepszego dla gruntu pod konflikt?
Może znane nam obrazy z filmów sci-fi, na których świat ginie w walce przeciw robotom nie okaże się rzeczywistością, lecz bez wątpienia właśnie wykorzystanie technologii sztucznej inteligencji może pociągnąć ludzkość do konfliktu. Wykorzystanie narzędzia do produkcji fake newsów jest już obecne, furtka się otwarła i nikt jej nie zamknie. Czy przyczyną jakiegoś konfliktu będzie AI? Już jest! Możemy mieć jedynie nadzieję, że nie okaże się ona pobudką do czegoś znacznie większego. Warto też w konkluzji dodać, że nie możemy demonizować sztucznej inteligencji, bo jest to narzędzie podobne do noża, którym można pokroić chleb, a można też i walczyć, dlatego wciąż moralna odpowiedzialność leży za tym, który perfidnie kłamie, przy użyciu bardzo dobrych środków maskujących – AI.
Więcej o sztucznej inteligencji, jej potencjale i zagrożeniach w debacie o potrzebie krytycznego myślenia:
/mdk