górne tło

Czy powinniśmy się bać sztucznej inteligencji?

Ostatnio pojawiło się dużo kontrowersji związanych z działaniami Off Radia Kraków, które obsadziło sztuczną inteligencję w roli „dziennikarzy” prowadzących audycje. – Zbyt często zaczynamy pozostawiać decyzje algorytmom, których do końca nie rozumiemy i chyba tak naprawdę nie chcemy zrozumieć. Jednak konsekwencje będziemy musieli ponieść my – przekonuje Magdalena Król, która prowadzi zajęcia „Przetwarzanie języka naturalnego” i „Etyka w sztucznej inteligencji” na Akademii Górniczo-Hutniczej w Krakowie. Rozmawia z nią Paweł Waluś.

Czy sztuczna inteligencja przejmie władzę nad światem, a my będziemy tworzyć komórki ruchu oporu w ruinach kiosków?

Magdalena Król: Może nie do końca „przejmie władzę” w ten sposób, w jaki widzimy to w „Terminatorze” lub innych dziełach popkultury. Właściwie to SI nie tyle przejmie władzę nad nami, co może odebrać nam rolę tych, którzy myślą, planują, wyciągają wnioski, a więc także postrzegają świat. A właściwie to sami jej to wszystko oddamy w imię tego, żeby zrobić coś szybciej albo lepiej.

Co SI może już za nas zrobić?

Cóż, bardzo wiele rzeczy. Jedno z najpopularniejszych narzędzi opartych na sztucznej inteligencji to obecnie ChatGPT. Jest to chatbot, który generuje odpowiedzi na pytania wprowadzone przez użytkownika. Duże zbiory danych wykorzystane do opracowania go sprawiają, że jego „wiedza” jest naprawdę szeroka. Może nam więc coś wytłumaczyć, przytoczyć jakąś historię, ocenić, czy nasze wypracowanie zostało napisane w poprawny sposób, albo po prostu z nami porozmawiać. To tylko jeden z przykładów. SI jest już obecna w kulturze, medycynie i wielu innych dziedzinach. Naukowcy m.in. w USA wykorzystują sztuczną inteligencję do wykrywania guzów nowotworowych, które w tym stadium nie są jeszcze widoczne dla ludzkiego oka. Do domów spokojnej starości w Japonii i USA trafiły małe maskotki, które są wyposażone w czujniki oddechu oraz rytmu serca. Seniorzy mogą też z nimi rozmawiać, co daje im poczucie, że nie są sami. Mam też przykład anegdotyczny: znam pewną seniorkę, która korzysta z ChatGPT. Przekleja tam konkretne rzeczy, które znajduje w internecie, i dodaje do tego formułkę: „wytłumacz mi to, jakbym miała 12 lat”. Niestety, jest też zalew chatbotów towarzyszących, w tym również erotycznych, których jedynym zadaniem jest odpisywanie na nasze wiadomości z odpowiednim podtekstem.

Jak więc mądrze korzystać z tych możliwości?

Tutaj pojawia się pytanie, czy potrafimy przezwyciężyć swój konsumpcjonizm? Lubię się w tym wypadku powoływać na George’a Ritzera, amerykańskiego profesora socjologii, który zwraca uwagę, że strasznie się właśnie w tym konsumpcjonizmie pogubiliśmy i korzystamy z różnych rzeczy tylko dlatego, że możemy. W tym wypadku często używamy narzędzi SI nie dlatego, że faktycznie ułatwi nam to pracę albo przyniesie lepsze wyniki, ale… no właśnie dlatego, że możemy. Kolejny problem to zakładanie z góry, że narzędzie, którego używamy, jest mądrzejsze od nas. Po pierwsze, może to być coś, co mądrzej brzmi, ale w samej treści wcale tak mądre nie jest. Po drugie, prowadzi to do potencjalnej sytuacji, w której my, jako ludzie, przestajemy się rozwijać, przestajemy myśleć, bo zakładamy, że maszyna zrobi coś za nas i zrobi to lepiej. Wydaje mi się też, że powinniśmy być bardziej transparentni. Jeśli wykorzystujemy narzędzie SI do zrobienia czegoś, poinformujmy o tym.

A jak wygląda tworzenie SI w Polsce albo bardziej konkretnie – w Krakowie?

Powstało kilka inicjatyw, które tworzą polską wersję konwersacyjnych SI. Najbardziej zaawansowanym projektem jest SpeakLeash oraz ich Bielik.AI, współtworzony przez AGH oraz trenowany na polskich tekstach, dzięki czemu ma odpowiadać specyfice naszej kultury. Twórcy wychodzą bowiem z bardzo słusznego założenia, że wiele elementów naszego pojmowania świata ukrytych jest w języku, którego używamy na co dzień. Rozumienie pewnych subtelności kulturowych jest więc łatwiejsze, kiedy tworzymy model w oparciu o teksty i treści zawierające takie niuanse. Podsumowując, w rozmowie z Bielikiem przyjemne jest to, że posługuje się on bardzo ładną polszczyzną i odpowiedzi nie są tak płytkie, jak chociażby te generowane przez ChatGPT.

Magdalena Król lingwistka teoretyczna, pracowała w Instytucie Podstaw Informatyki i Instytucie Języka Polskiego PAN; na AGH uczy i przewodzi zespołowi tworzącemu rozwiązania do przetwarzania języka naturalnego; pasjonuje się sztuczną inteligencją w wymiarze faktycznego wpływu na życie ludzi

Tekst ukazał się w dwutygodniku Kraków.pl