Praca przyszłości. Wywiad z prof. Jerzym Surmą

2024/11/5
AdobeStock 787528920
Fot. Adobe Stock

O tym, jak rozwój sztucznej inteligencji wpłynie na rynek pracy, jak ją „oswoić” i uczynić dla siebie pożyteczną, na co uważać oraz jak edukować młodych, by poradzili sobie w rzeczywistości, której nie znamy – z prof. Jerzym Surmą rozmawia Aleksandra Bilicka.

Jak przewiduje Pan dalszy przebieg rozwoju sztucznej inteligencji?

Sztuczna inteligencja rozwija się od lat pięćdziesiątych ubiegłego wieku. Jej klasyczny nurt rozwoju i zastosowań w ostatnich 20-30 latach jest niewidoczny dla przeciętnego człowieka, natomiast bardzo użyteczny. Wszystkim znane chociażby systemy rekomendacyjne, kiedy robimy zakupy online, szukamy filmów na Netflixie albo korzystamy ze Spotify. Literalnie w ostatnich 12 latach nastąpiła drastyczna zmiana w kontekście rozwoju sztucznej inteligencji. Wydarzyło się coś absolutnie niebywałego, dlatego że historycznie przetwarzanie danych dotyczyło takich o charakterystykach ilościowych (liczby), natomiast teraz przetwarzamy dane nieustrukturyzowane – teksty, pliki dźwiękowe, zdjęcia czy sekwencje wideo.

Nagle się okazało, że jesteśmy w stanie dialogować z maszyną tak jak z człowiekiem. To nie jest dotychczasowa forma komunikacji za pomocą klawiatury, myszki czy dotykowo. Jesteśmy w stanie rozmawiać w języku naturalnym, czyli zadawać pytania i uzyskiwać w miarę wiarygodne, poprawne odpowiedzi. Wchodzimy w bardzo subtelny, intymny kontakt, który był do tej pory zastrzeżony tylko do relacji człowiek-człowiek. Kiedy rozmawiamy w języku naturalnym, automatycznie zakładamy, że nasz rozmówca ma pełnię świadomości, inteligencji, uczuć. A tu mamy do czynienia z algorytmem, który nie ma świadomości czy uczuć, a jednak potrafi sensownie odpowiadać. Warto mieć świadomość z „kim” rozmawiamy. GPT (nie Chat GPT, tylko General Purpose Technology) to technologia powszechnego użytku. Wydarzyło się to, co Alan Turing przewidział w latach pięćdziesiątych – człowiek nie jest w stanie rozpoznać, że rozmawia z maszyną. To implikuje fundamentalne zmiany, jeśli chodzi o zastosowania w biznesie, rozrywce, komunikacji, doradztwie, medycynie, edukacji, bezpieczeństwie narodowym. I ma oczywiście olbrzymi wpływ na rynek pracy. Z AI jest dokładnie tak, jak z energią elektryczną, której możemy używać, żeby mieć oświetlenie, ogrzewanie czy komunikację internetową, ale i w upiornych zastosowaniach, jak np. krzesło elektryczne. Możliwości zastosowania AI są kosmiczne, my je dopiero odkrywamy.

Co robić w obliczu tej zmiany?

Kapitalną książkę w temacie koegzystencji ze sztuczną inteligencją napisał profesor zarządzania z Wharton School Uniwersytetu Pensylwanii, Ethan Mollick – Co-intelligence. Dał kilka sugestii, z których dwie uważam za bardzo istotne. Po pierwsze: zapoznaj się z technologiami, z chatem GPT czy innym modelem językowym, żeby z niego korzystać i pomóc sobie z zadaniami, które wykonujesz w swoim życiu. Druga rekomendacja autora mówi, że decyzyjny zawsze musi pozostać człowiek. Trzeba pamiętać, że system też popełnia błędy.

Obserwując ostatnie 30 lat rozwoju internetu, jestem pewny, że następne 30 przyniesie jeszcze większe zmiany i rozwój będzie przyspieszał. Pani będzie trudniej się skomunikować ze swoimi dziećmi czy wnukami niż teraz pani rodzicom czy dziadkom z Panią.

Jak ta sytuacja i zmiany, o których Pan mówi, będą wpływać na rynek pracy?

Mamy trzy scenariusze. Pierwszy jest taki, że nastąpi substytucja (zastąpienie) człowieka – pracownika przez system. To na przykład chat bot w call center – rozwiązanie, z którego już korzystają różne firmy. Drugi scenariusz, o czym pisze Mollick, to zwiększenie naszego potencjału jako pracowników dzięki narzędziom AI poprzez ko-egzystencję. Trzeci zakłada rewolucję, czyli powstanie nowych zawodów i nowych miejsc pracy. Zwykle patrzymy na pierwszy scenariusz – zastąpienie, prognozując, że ludzie zostaną bez pracy. Natomiast nie dostrzegamy, że pojawiają się nowe zawody, jak chociażby specjalista od zadawania pytań do modelu językowego. To jest sztuka, tak sformułować zapytanie, żeby zrozumiał on kontekst sytuacyjny, swoją rolę, zadanie i w jakiej formie ma przygotować odpowiedź. To są zupełnie nowe kompetencje, o których 2-3 lata temu nikt nie myślał.

Przytoczę mocny przykład ze sfery substytucji. Istnieją algorytmy uczenia wielowarstwowych sieci neuronowych i są one wyśmienite w rozpoznawaniu obiektów na zdjęciu. Doszło do bardzo spektakularnego ich zastosowania w medycynie, gdzie na podstawie fotografii zmian na skórze system dokonuje rozpoznania, czy mamy do czynienia ze zmianą nowotworową, czy nie. Okazało się, że jest w tym lepszy niż lekarz radiolog. Czyli jeszcze kilka lat i zastąpimy nim radiologów? Prognozowano, że zawód zniknie 5 lat temu, a tu przeciwnie, liczba radiologów wzrosła. To obrazuje skróty myślowe, bo każda praca składa się z szeregu zadań. Wśród tych należących do radiologa jest rozpoznanie zmiany na zdjęciu, ale też wstępna konsultacja, wywiad, opis zdjęcia, rekomendacje zależnie od sytuacji itp. Okazuje się, że człowiek wykonuje kilkadziesiąt zadań, które są niezastępowalne przez maszynę, chociaż to jedno faktycznie może wykonać system. Może za jakiś czas każdy radiolog będzie miał takiego asystenta, ale ostateczną decyzję i tak on będzie podejmował i ponosił odpowiedzialność za diagnozę.

W nowych realiach nie będą tracić pracy ci, którzy zobaczyli, że dzieje się coś ważnego, i próbowali zrozumieć, jak to może im pomóc. Pracę stracą ci, którzy to kompletnie zignorują.

Jak kształcić młodych, aby odnaleźli się na rynku pracy? Jak ich edukować do życia w rzeczywistości, której nie znamy?

Dla 95% z nich to będzie kwestia funkcjonowania w świecie z rozwiązaniami wykorzystującymi AI. Pozostałe 5% to ci, którzy potencjalnie mogliby takie rozwiązania tworzyć. Zdecydowana większość powinna przynajmniej na ogólnym poziomie rozumieć, jak działa technologia, żeby znać jej ograniczenia, czyli że nie zawsze mówi prawdę, nie zawsze jest precyzyjna, jest z definicja stronnicza oraz że może być wykorzystana przez „ciemną stronę mocy” do dezinformacji i operacji wpływu. Niesamowicie istotna jest tu umiejętność krytycznego myślenia.

Okres covidowy pokazał, że praca zdalna, wsparta nowoczesnymi technologiami, jest możliwa. Czy myśli Pan, że rozgości się ona na dobre?

Nastąpiło przełamanie pewnej bariery mentalnej. Ten czas zburzył w biznesie tabu, że nie ma możliwości, żeby pewne zadania wykonywać z domu. Gospodarka kompletnie by wówczas ugrzęzła, gdyby nie technologie związane z komunikacją zdalną. Natomiast okazuje się, że dobrze jest spotkać się fizycznie, pracując 1-2 dni w biurze, bo wspólna kawa bywa czasami bardziej istotna niż formalne spotkanie. Konsekwencją tego podejścia są modele hybrydowe. Gdzie mamy tu sztuczną inteligencję? Teraz rozmawiamy online, Pani ma przekonanie, że faktycznie rozmawia ze mną. Natomiast technologicznie można stworzyć moją wizualizację, takiego awatara, który będzie wyglądał dokładnie jak ja i mówił moim głosem, ale to nie będę ja. Kiedy za 10-15 lat dostanę propozycję wywiadu zdalnego i Pani wyśle mi wcześniej zagadnienia, to nie jest wykluczone, że będę mógł mojego asystenta tak przygotować, żeby odbył całą rozmowę w moim imieniu. Będziemy mogli delegować szereg aktywności na cyfrowych asystentów. To jedna strona medalu, moim zdaniem rewolucyjna, jeśli chodzi o kontakt w świecie cyfrowym. Jest jeszcze „ciemna strony mocy”. Te systemy nie mają żadnych przekonań, poglądów, natomiast odzwierciedlają poglądy swoich twórców. Mogą kogoś przekonywać do bardzo drastycznych działań. Mogą „być” pro-life albo pro-choice, co wynika z doboru zbiorów treningowych i procedur tzw. dopasowania (alignment). System będzie inaczej pracował, jeśli będzie uczony na książkach i artykułach z lewej strony naszej rzeczywistości, a zupełnie inaczej, kiedy będzie trenowany na tekstach prawicowych. To implikuje, co będzie mówił i jak doradzał.

Teraz wiele systemów podlega globalnym korporacjom cyfrowym, więc dostosowuje się je do polityki firmy. System jest nauczony, że na pewne tematy nie powinien rozmawiać, na inne odpowiadać w sposób bardzo zrównoważony, ale proszę zwrócić uwagę, że to, które tematy uważa za wrażliwe, to wynik polityki firmy, a twórcy systemów działają z poziomu pewnej ideologii.

Niedługo będziemy mieli do czynienia z systemem rozmawiającym w sposób adekwatny do wrażliwości danej osoby – chat bot będzie używał odpowiedniego głosu, który robi na niej wrażenie, będzie odwoływał się do jej przekonań, wiedzy, stylu mówienia. W większości przypadków będzie dawał dobre rekomendacje, pomagał w życiu. Już zaobserwowano zjawisko tzw. „zasypiania za kierownicą”, gdy tracimy umiejętność kontroli tego, co mówi. System, dysponując mechanizmem patrzenia na nasze reakcje i oceny, może lokować różnego rodzaju produkty, usługi, mówić, gdzie powinniśmy wyjechać na wakacje, jak wychowywać dziecko, jaki wybrać zawód. Podejrzewam, że to może pójść w silną manipulację, bo wielu z nas nie będzie w stanie oprzeć się byciu z „kimś”, kto jest zawsze dla nas, dostępny 24/7, pomocny, rozumiejący nas, „empatyczny”. Siła tych technologii jest ogromna.

Jaki wpływ na psychikę ludzką może mieć zastąpienie ludzi sztuczną inteligencją w niektórych zadaniach?

Sam Altman, twórca OpenAI – w mojej perspektywie dość kontrowersyjna postać – powtarza, że jeśli dojdzie do bardzo silnej substytucji ludzi przez świat generatywnej sztucznej inteligencji, to zastąpienie pracownika maszyną powinno być opodatkowane. W efekcie bezrobotni otrzymywaliby tzw. universal basic income, czyli zasiłek, utrzymanie bazowe dla społeczeństwa wykluczonego. Nie wiem, czy tak się wydarzy, ale to jest pewien styl myślenia o przyszłości ludzi z Doliny Krzemowej. W tym kontekście większość ludzkości wejdzie na jakiś poziom wegetacji, będą silnie sterowani, by przy zapewnionym podstawowym poziomie dochodów stanowili idealnych konsumentów.

W moim przekonaniu nie powinniśmy się bać technologii. Nie sądzę, żeby ona weszła na poziom czegoś, co nazywamy świadomością, i przejmowała kontrolę nad ludzkością. Bardziej obawiam się ludzi, którzy te systemy tworzą.

Tak na marginesie to umiejętności zawiązane z budowaniem systemów sztucznej inteligencji są bardzo bliskie polskiej kulturze, polskiej szkole matematycznej. Uważam, że jeśli ktoś ma zdolności matematyczne, to jest to teraz błogosławieństwo. Warto się w tym kierunku rozwijać i być po stronie tych, którzy systemy tworzą i tworzyć je dla dobra ludzi, a nie dla zbudowania autorytarnego metaversum. Bo jest niesamowicie istotne, kto te systemy buduje i jakie ma intencje.

W tym kontekście niezwykle ważne wydaje się kształcenie młodych ludzi w kierunku etyki.

To jest fundamentalne. W tym nowym świecie trzeba mieć odpowiedni kręgosłup moralny. Trzeba podkreślić też wagę krytycznego myślenia, czyli wykorzystania rozumu do podejmowania racjonalnych decyzji w oparciu o fakty. A jak to zrobić w sytuacji, gdy ktoś się już w tym świecie rodzi? Niezwykle istotne jest, kim są rodzice, jak wychowują dzieci, do jakiej szkoły one idą. Bardzo ważne jest dbanie o podstawowe rzeczy – rodzinę, bycie razem, bycie w świecie fizycznym, spacer, zabawę z piłką, dyskusję z drugim człowiekiem, spieranie się na argumenty, empatię i co najważniejsze miłość.

Bardzo dziękuję Panu za rozmowę.

Tekst pochodzi z kwartalnika "Civitas Christiana" nr 4/2024

 

Dr hab. inż. Jerzy Surma, profesor w Instytucie Informatyki i Gospodarki Cyfrowej Szkoły Głównej Handlowej. Specjalizuje się w zastosowaniach i bezpieczeństwie systemów sztucznej inteligencji.

 

 

 

 

Zapytaliśmy też Chat GPT o najważniejsze punkty tego wywiadu:

Oto kluczowe punkty z tekstu:

1. Rozwój sztucznej inteligencji: Sztuczna inteligencja przeszła ogromną ewolucję, zwłaszcza w ciągu ostatnich 12 lat, umożliwiając przetwarzanie nieustrukturyzowanych danych (jak tekst, dźwięk i obraz), co pozwala na interakcje z maszynami w języku naturalnym.

2. Zmiana sposobu komunikacji: AI umożliwia dialog z maszyną, który przypomina rozmowę z człowiekiem. Warto jednak pamiętać, że mimo „ludzkiego” kontaktu, AI to algorytm bez świadomości i emocji.

3. Zastosowanie AI w różnych branżach: AI wpływa na biznes, edukację, medycynę, bezpieczeństwo, a także rozrywkę i komunikację. Podobnie jak energia elektryczna, może być używana zarówno w celach konstruktywnych, jak i destrukcyjnych.

4. Scenariusze wpływu AI na rynek pracy:

- Substytucja: Zastąpienie niektórych zawodów przez systemy AI.
- Koegzystencja: Współpraca człowieka z AI, zwiększająca jego możliwości.
- Nowe zawody: Powstanie nowych profesji, np. specjalistów od formułowania zapytań do modeli językowych.

5. Złożoność ludzkich zadań: AI może przejąć niektóre zadania (np. rozpoznawanie obrazu), ale pełna automatyzacja zawodów jak radiologia jest mało prawdopodobna, ponieważ składają się one z wielu złożonych czynności, które nadal wymagają człowieka.

6. Kształcenie młodych: Kluczowe jest wykształcenie krytycznego myślenia oraz świadomości technologii i jej ograniczeń. Większość ludzi powinna znać podstawy działania AI, aby potrafić oceniać jej rekomendacje.

7. Manipulacja i ideologia: AI, uczona na danych odzwierciedlających poglądy twórców, może wzmacniać określone ideologie. Systemy korporacyjne, np. chatboty, dostosowują treści do polityki firmy, co może wpływać na sposób doradzania użytkownikom.

8. Wpływ na psychikę i społeczność: AI może stworzyć silnie „empatyczne” wrażenie i łatwo manipulować opiniami ludzi, oferując pozornie bliską relację. To zjawisko może prowadzić do manipulacji decyzjami użytkowników.

9. Znaczenie etyki: W edukacji i rozwoju AI kluczowa jest etyka oraz moralna odpowiedzialność twórców technologii, by rozwijać AI na korzyść społeczeństwa, a nie w celach manipulacji lub kontroli.

 

/ab

CCH 6750 kwadrat

Aleksandra Bilicka

Dziennikarz i kulturoznawca. Redaktor portalu e-civitas.pl, sekretarz redakcji kwartalnika Civitas Christiana.

© Civitas Christiana 2024. Wszelkie prawa zastrzeżone.
Projekt i wykonanie: Symbioza.net
Strona może wykorzysywać pliki cookies w celach statystycznych, analitycznych i marketingowych.
Warunki przechowywania i dostępu do cookies opisaliśmy w Polityce prywatności. Więcej