
Wprowadzenie
Analitycy Goldman Sachs, jednego z największych banków inwestycyjnych na świecie, w marcu 2023 roku przewidywali, że sztuczna inteligencja doprowadzi do kryzysu na rynku pracy: zagrożonych miało być nawet 300 mln osób. Niecały rok po tej zapowiedzi okazało się, że te nowe rozwiązania nie zmieniły światowej gospodarki w jakiś istotny sposób. Widowiskowe porażki konkretnych wdrożeń sztucznej inteligencji, takie jak nieudana automatyzacja zamówień w McDonald’s, są - zdaniem dziennikarzy “The Conversation” - przejawem wypalającej się powoli ekscytacji wokół AI.
Pierwsza wersja ChatGPT została udostępniona w kwietniu 2022 roku. Minęło już odpowiednio wiele czasu, żeby spokojnie zastanowić się nad tym, czy kierunek rozwoju technologii, przedstawiany nam jako rewolucja, jest nią rzeczywiście. I czy naprawdę w głęboki sposób zmieni to, jak na co dzień korzystamy z kultury i jak prowadzimy badania w humanistyce.
Metodą takiego namysłu może być spojrzenie na to, jak rozmawiamy o sztucznej inteligencji. Czy przez to, co na jej temat mówimy, nie ujawniamy błędnych wyobrażeń i stereotypów? A może czujemy respekt przed zaawansowanymi rozwiązaniami technologicznymi, które trudno nam zrozumieć, i to onieśmiela nas przed stawianiem krytycznych pytań?
Inspirując się opracowaniem z “MIT Technology Review” How to talk about AI (even if you don’t know much about AI) (2023) spróbujmy przygotować listę ogólnych reguł dyskutowania o sztucznej inteligencji w interesujących nas dziedzinach: kulturze, dziedzictwie i szeroko pojętej humanistyce.
Część merytoryczna
Branża technologiczna nie jest zbyt dobra w jasnym objaśnianiu siebie, chociaż upiera się, że duże modele językowe zmienią świat. Jeśli masz z tym jakiś kłopot, nie jesteś sam” – mówi Nitasha Tiku, reporterka “Washington Post”, zajmująca się kulturą technologiczną.
To oczywiste, że z wiedzy i kompetencji technicznych może brać się pewien autorytet, ale nikt nie powiedział, że jest on niepodważalny. Możemy kwestionować niektóre interpretacje wpływu technologii na kulturę, dziedzictwo czy humanistykę, nie mając szczegółowej wiedzy na temat zasad działania określonych rozwiązań. Tym bardziej, że przedstawiciele branży technologicznej i reklamowej sami mają braki w wiedzy. Kiedy słyszymy, że ChatGPT będzie tworzył literaturę, to nie musimy znać szczegółów działania sieci neuronowej w modelach GPT, żeby wiedzieć, że literatura to zdecydowanie więcej niż sam akt logicznego zestawiania ze sobą słów, a więc proponowana nam interpretacja nie ma żadnej wartości.
Inspirując się takim podejściem, wypracujmy - nieco rozszerzając i dopracowując propozycje z MIT, zestaw zasad podmiotowego, racjonalnego i odpowiedzialnego wypowiadania się na temat sztucznej inteligencji.
Nie bój się zabierać głosu i proponować własnego języka
Czy tekstowa instrukcja, wyrażona w języku naturalnym i wysłana do modelu językowego czy modelu text-to-image, to wyłącznie prompt? Dlaczego nie mielibyśmy stosować pojęć takich jak zachęta czy polecenie? Praca z ChatGPT to konwersacja, rozmowa czy dialog? Każde z tych słów w trochę inny sposób opisuje nasze podejście do pracy z takim narzędziem. Prompt to wyrażenie techniczne i pozbawione emocji, zachęta nawiązuje do polskiego języka komputerowego i sugeruje pewną podmiotowość narzędzia, a polecenie wyraża hierarchiczność relacji między modelem a użytkownikiem.
Język, jakiego używamy, może być sposobem na pokazywanie w rozmowie naszego podejścia do określonego zagadnienia związanego ze sztuczną inteligencją. Nie musimy bezkrytycznie przyjmować języka technicznego, który nie jest też zresztą wcale jednorodny i jednoznaczny. Przykładowo, pojęcie model jest używane zarówno w kontekście matematycznym (opis statystyczny określonych danych, reprezentujący rzeczywisty obiekt czy zjawisko), jak i w bardziej antropomorfizowany sposób, kiedy mówi się o modelu rozumiejącym pytania użytkownika. Podobnie trenowanie sugeruje aktywny proces edukacji, chociaż w rzeczywistości opisuje dostosowywanie właściwości modelu w oparciu o dane. Podobnie z algorytmami, które mogą być łatwo wytłumaczalne, jeśli omówimy je na poziomie kodu źródłowego (zestawu instrukcji). Niestety jednak
Marketerzy z Doliny Krzemowej uwielbiają termin algorytm, ponieważ jego użycie sprawia, że sprzedawane przez nich rozwiązania wydają się nieco bardziej tajemnicze, a przez to być może stają się trochę bardziej kuszące. Faktem jest, że większość z nas nie ma jasnego pojęcia o tym, jak działają nasze komputery (lub telefony czy zegarki), ale zazwyczaj mamy przynajmniej ogólne pojęcie o tym, czym jest kod. Ponieważ algorytm jest mniej oswojonym pojęciem, tylko wzmacnia naszą niepewność.
Jeśli możesz, unikaj pojęcia “sztuczna inteligencja”
Nie ma żadnego AI. Są różne sposoby opanowania tej nowej technologii - ale najpierw musimy przestać ją mitologizować
pisał w zeszłym roku w “New Yorkerze” Jaron Lanier (Microsoft). Lanier w żadnym razie nie jest ludystą. Duże modele językowe czy modele text-to-image interpretuje jako innowacyjny wyraz społecznej współpracy - modele te trenowane są przecież na wytwarzanych przez ludzi zasobach. Jego zdaniem powinniśmy
Patrzeć na AI jak na formę współpracy, a nie technologię, której celem jest powstanie niezależych, inteligentnych bytów […]
Oczywiście pozytywna opowieść o AI ma szansę się ziścić, jeśli zostaną zachowane fundamentalne wartości i podmiotowość użytkowników, m.in. wyjaśnialność modeli i coś, co określa on jako godność danych (data dignity).
Sztuczna inteligencja to szerokie i nieprecyzyjne pojęcie, które ma opisywać wiele różnych metod, narzędzi i wdrożeń rozwiązań technologicznych, tak różnych jak generowanie tekstu, wykrywanie zmian nowotworowych na zdjęciach RTG, rekomendowanie wpisów w mediach społecznościowych, wyodrębnianie ze skanów gazet codziennych map, nagłówków i reklam czy przewidywanie kolejnych wartości w ciągach liczb.
Jeśli dyskutujemy o tym, czy sztuczna inteligencja to nowy hype na rynku finansowym albo czy polskie instytucje są gotowe na rozwiązania AI, stosowanie tak ogólnego pojęcia nie jest problemem - opisujemy przecież nurt i kierunek i nie odnosimy się do konkretnych rozwiązań. Ale już stwierdzenie, że sztuczna inteligencja nie jest użyteczna, bo ChatGPT halucynuje odpowiedzi na pytania wymagające specjalistycznej wiedzy, albo że nie potrafi wykonać zaawansowanych zadań, jest niepotrzebną generalizacją. Owszem, ChatGPT raczej nie rozczyta nam poprawnie XIII-wiecznego rękopisu, ale już Transkribus może go rozczytać, szczególnie, jeśli użyjemy odpowiedniego modelu, dostosowanego do realiów epoki. W tym przypadku to nie AI (ogólna idea), ale właśnie ChatGPT (narzędzie) nie zdaje egzaminu.
Trzymaj się konkretów i bądź sceptyczny
Dwa najważniejsze pytania dotyczące nowych produktów i narzędzi AI to po prostu: Co one robią i jak to robią?
mówi James Vincent, redaktor w “The Verge”. Pamiętajmy, że nie ma obowiązku korzystać z narzędzi sztucznej inteligencji. Korzystajmy z nich, jeśli przydają się w naszej pracy. A skoro tak, to mamy prawo pytać, czy rzeczywiście się przydają, jakie zadania mogą realizować i w jaki sposób? Nie chodzi tu oczywiście o głębokie szczegóły techniczne, ale racjonalne wyjaśnienie zasad działania:
Czy to narzędzie jest w stanie lepiej przeszukiwać nasze zbiory? A jeśli tak, to na jakiej podstawie?
Czy to narzędzie będzie efektywnie zliczać zwiedzających w naszym muzeum? A co w przypadku dużych grup? Czy będzie w stanie oszacować ich liczebność? Jak efektywnie rozpoznaje pojedynczą osobę?
Dlaczego miałbym pisać wiersz z wykorzystaniem ChatGPT? Gdzie leży wartość takiej pracy?
Pohamuj entuzjazm i urealnij oczekiwania
Halucynowanie to jedno z podstawowych ograniczeń dużych modeli językowych czy modeli do generowania grafiki. Przeinaczenia faktów, błędne interpretacje, niepasujące ze sobą elementy to codzienność pracy z narzędziami takimi jak ChatGPT czy DALL-E. Już choćby to powinno zmusić nas do ograniczenia oczekiwań wobec tego typu oprogramowania.
Pełna automatyzacja, którą obiecują firmy AI, nie zawsze jest możliwa, szczególnie w specjalistycznych zastosowaniach. Rozpoznawanie obiektów na obrazach z XII-XVIII w.? Można próbować, chociaż najskuteczniej wykrywane będą zebry 😎. Duża część rozwiązań AI nie da nam pewności, a jedynie przybliżenia.
Unikajmy też solucjonizmu - przekonania, że samo zastosowanie odpowiednich technologii cyfrowych jest w stanie rozwiązać wielkie społeczne problemy. Czy powszechny dostęp do internetu rozwiązał problem dezinformacji i teorii spiskowych, które miały brać się z ograniczonego dostępu do wiedzy?
Nie traktuj AI jak osoby
Zautomatyzowane systemy dialogowe lub konwersacyjne są antropomorfizowane przez twórców i personifikowane przez użytkowników. Choć pewien stopień antropomorfizacji może być nieunikniony ze względu na wybór medium, świadome i nieświadome decyzje projektowe mogą skłaniać użytkowników do różnego stopnia personifikacji takich systemów. Zachęcanie użytkowników do traktowania zautomatyzowanych systemów tak, jakby były ludźmi, może wywoływać ryzyka powodowane nadmiernym zaufaniem dla ich odpowiedzi.
czytamy w opracowaniu Mirages. On Anthropomorphism in Dialogue Systems (2023). Efekty prezentowane przez systemy dialogowe, takie jak przyjmowanie wybranej płci, odwoływanie się do nieistniejącego doświadczenia, podporządkowanie w wypełnianiu poleceń czy symulowanie świadomości i empatii, mogą mieć bardzo negatywny wpływ na decyzje i zachowania użytkownika.
Narzędzia AI to nie osoby. Nie mają woli, inteligencji ani świadomości, nie mogą czuć empatii, gniewu ani żalu. Nie napędza ich wiedza, ale przeliczenia statystyczne. Antropomorfizowanie ich to nic innego jak rozpoznawanie w nich właściwości, których nie mają i niebezpieczeństwo traktowania ich w bezkrytyczny, nieracjonalny sposób. Nawet jeśli imponują nam możliwości ChatGPT, traktujmy to narzędzie tak samo, jak Worda.
Pamiętaj o władzy, zasobach i kosztach
Trenowanie [modeli AI] jest niezwykle energochłonne i zużywa znacznie więcej energii elektrycznej niż standardowe funkcjonowanie centrów danych. Przykładowo, szacuje się, że do wytrenowania dużego modelu językowego, takiego jak GPT-3, potrzeba 1300 megawatogodzin (MWh) energii elektrycznej - mniej więcej tyle, ile rocznie zużywa sto trzydzieści amerykańskich gospodarstw domowych. Dla porównania, godzina oglądania Netflixa to konsumpcja około 0.8 kWh (0,0008 MWh) energii elektrycznej. Oznacza to, że aby zużyć tyle samo energii, ile potrzeba na wytrenowanie GPT-3, należałoby oglądać Netflixa przez 1625 tys. godzin.
Takie porównanie, zaproponowane przez dziennikarzy “The Verge”, bardzo dobrze obrazuje nie tylko ekologiczny koszt rewolucji AI, ale też skalę zasobów, jaka jest konieczna do przygotowania i utrzymania jej infrastruktury i pozyskania niezbędnej mocy obliczeniowej. AI staje się narzędziem w rozgrywce międzynarodowej - w raporcie Parlamentu Europejskiego z 2021 roku mówi się o tym wprost, przywołując pojęcie nacjonalizmu AI.
Rozmawiając o AI, warto mieć w głowie ten kontekst. Z drugiej strony warto też pamiętać, że ważną częścią potencjału sztucznej inteligencji są nieduże modele, trenowane na lokalnych, specyficznych danych i przeznaczone do specyficznych zadań. Pracując nad własnymi modelami mamy pełną kontrolę nad tym, na jakich zasobach bazują, możemy też starać się ograniczać ich stronniczość i generyczność.
Rozwiązania techniczne mają czasem nieoczywiste konsekwencje społeczne, ekologiczne czy kulturowe. Nie wiemy, jakie będą konsekwencje sztucznej inteligencji, szczególnie w zakresie praw pracowniczych w sektorze kultury i w komunikacji naukowej.
Unikaj nietrafionych metafor
Ilustracją wielu tekstów poświęconych sztucznej inteligencji jest …robot. To bardzo zła metafora tego, czym dziś jest sztuczna inteligencja. Przywołując taką metaforę, nakładamy na to pojęcie zupełnie niepotrzebne znaczenia - przecież AI to nie osoba! Co więcej, nie jest nawet obiektem materialnym, chociaż konsumuje wiele fizycznych zasobów.
W opracowaniu AI Metaphors We Live By: The Language of Artificial Intelligence Leon Furze podaje przykłady innych zbędnych i nietrafionych metafor AI. Odwołując się do klasycznej rozprawy Lakoffa i Johnsona, podkreśla, że metafory nie tylko odzwierciedlają, ale też kształtują nasze rozumienie. Uważajmy na nie.
Podsumowanie
Oto krótkie podsumowanie zaproponowanych zasad rozmowy o sztucznej inteligencji:
Nie bój się zabierać głosu i proponować własnego języka: język używany w dyskusjach o sztucznej inteligencji ma duży wpływ na to, jak ją postrzegamy. Brak szczegółowej wiedzy na temat AI nie powoduje, że nie możemy zabierać głosu i pytać o sens i efektywność proponowanych nam rozwiązań.
Jeśli możesz, unikaj pojęcia “sztuczna inteligencja”: bo to zbyt ogólne pojęcie, które może utrudniać dyskusję. O czym myślimy, mówiąc o sztucznej inteligencji? Lepiej rozmawiać o konkretnych rozwiązaniach i unikać generalizacji.
Trzymaj się konkretów i bądź sceptyczny: zamiast pytać o to, czy AI zdominuje ludzkość albo czy ma uczucia, pytaj o skuteczność konkretnych metod i narzędzi. Czy rzeczywiście nadają się do specjalistycznych zadań, które już teraz wykonujesz?
Pohamuj entuzjazm i urealnij oczekiwania: halucynacje, stronniczość i generyczność modeli językowych wskazują na potrzebę realistycznego podejścia do możliwości tych technologii.
Nie traktuj AI jak osoby: nadawanie narzędziom sztucznej inteligencji cech ludzkich, takich jak świadomość czy emocje, jest nieuzasadnione i prowadzi do błędnych wyobrażeń na temat ich działania.
Pamiętaj o władzy, zasobach i kosztach: rozwój AI to nie tylko widoczny postęp w przetwarzaniu danych czy generowaniu języka naturalnego, ale też wysokie koszty ekologiczne i społeczne. Sztuczna inteligencja konsumuje zasoby, może wpływać na rynek pracy i staje się narzędziem w międzynarodowej polityce.
Unikaj nietrafionych metafor: już teraz przestań wyobrażać sobie AI jako robota 😊. Od pierwszej zapowiedzi rewolty myślących maszyn dzieli nas już ponad 100 lat!