
Wzbogać swój język o pojęcia, które możesz wykorzystać przy pisaniu wniosków grantowych i w działalności edukacyjnej swojej instytucji. Słownik będzie rozwijany na bieżąco, jest otwarty i dostępny na zasadach domeny publicznej. Możesz wysłać pull request ze swoimi zmianami. Po zaakceptowaniu pojawią się na tej stronie.
git clone git@github.com:mw0000/humanistyka-dev-glossary.git
(algorithmic radicalization) teoria, według której metody działania algorytmów rekomendujących treści w mediach społecznościowych wspierają polaryzację opinii i radykalizację użytkowników, proponując coraz bardziej skrajne materiały.
(APIcalypse) zjawisko coraz bardziej ograniczonej dostępności danych z interfejsów programistycznych (API) dużych platform internetowych (serwisów społecznościowych). Blokowanie dostępu do danych, radykalne podnoszenie kosztów takiego dostępu oraz zmiany w jego metodach wpływają negatywnie na możliwość prowadzenia badań w tych przestrzeniach.
stan poznawczej izolacji użytkowników mediów społecznościowych czy Google od treści i przekonań niezgodnych z ich własnymi przekonaniami i preferencjami, wynikający z metod działania algorytmów i systemów rekomendacyjnych. Efektem baniek filtrujących jest ograniczenie perspektywy użytkowników i niekiedy głębokie spersonalizowanie wizji rzeczywistości.
wytwarzane za pomocą narzędzi sztucznej inteligencji realistyczne, ale fałszywe lub zmanipulowane wizerunki osób czy materiały audio i wideo przedstawiające osoby, generowane na podstawie dostępnych, prawdziwych materiałów. Celem publikacji deepfake może być dezinformacja czy dokonywanie wyłudzeń online, chociaż wykorzystuje się je także w twórczości artystycznej czy edukacji.
kojarzona z latami pandemii COVID-19 praktyka ciągłego komentowania wiadomości publikowanych online z jednoczesnym wyolbrzymianiem negatywnych ocen i pesymistycznych scenariuszy.
impulsywna konsumpcja negatywnych wiadomości i informacji w mediów internetowych i serwisach społecznościowych. Zjawisko to opisano pierwszy raz w kontekście pandemi COVID-19. Doomscrolling powiązać można z wieloma negatywnymi mechanizmami poznawczymi, np. syndromem wrednego świata. Konsumpcja negatywnych informacji wywołuje wrażenie, że świat jest o wiele bardziej niebezpieczny niż w rzeczywistości.
(walled garden) metafora środowiska lub ekosystemu cyfrowego, w którym dostawca usług czy właściciel platformy kontroluje zasady dostępu do własnych treści i narzędzi i ogranicza interakcję użytkowników z zewnętrznymi usługiami i treściami. Model zamkniętego ogrodu przyjęły media społecznościowe - ujawnia się on m.in. w ograniczaniu dostępu do treści poprzez API czy algorytmicznym osłabianiu widoczności linków publikowanych z zewnętrznych źródeł.
(enshittification) - neologizm zaproponowany przez pisarza Cory Doctorowa w 2023 roku, opisujące proces obumierania dużych platform internetowych (mediów społecznościowych): Oto jak umierają platformy: najpierw są dobre dla swoich użytkowników; potem ich wykorzystują, by być dobrymi dla swoich klientów biznesowych; na koniec wykorzystują tych klientów, by odzyskać całą wartość dla siebie. A potem umierają..
Pojęcie gównowacenia platform opisuje skrajny model monetyzacji komunikacji internetowej, którego ceną jest obniżenie standardów i wiarygodności platform, spadek zadowolenia użytkowników i eliminacja konkurencji rynkowej. W warunkach gry rynkowej tak drastyczny spadek jakości platform internetowych jest możliwy dzięki temu, że zdobyły one przez lata dominującą pozycję, a rezygnacja z nich jest dla użytkowników i klientów wciąż trudna i kosztowna.
powtarzalne, utrzymujące się błędy w wynikach działania dużych modeli językowych, powstające w wyniku braków w materiałach źródłowych, na których trenowano te modele, lub/i w wyniku ograniczeń samych modeli. Halucynowane treści prezentowane są w generowanych wynikach jako fakty lub - jeśli generowane są materiały wizualne - jako rzeczywiście istniejące obiekty. Część badaczy kwestionuje sens używania pojęcia halucynowania w kontekście AI, argumentując, że modele jako takie są obojętne wobec tego, czy podawane przez nich odpowiedzi są prawdziwe czy nie.
(prompt engineering) zestaw koncepcji i metod, których celem jest zwiększenie wydajności pracy z dużymi modelami językowymi. Prompt to wyrażona w języku naturalnym instrukcja dla modelu.
(conversational AI) technologie i narzędzia sztucznej inteligencji, z których korzystać można za pomocą poleceń wydawanych w języku naturalnym. Przykładem konwersacyjnej AI są chatboty i wirtualni agenci, a popularnym wdrożeniem - ChatGPT.
zjawisko dezaktualizacji adresów URL z powodu zmiany lub usunięcia treści, na które oryginalnie wskazywały. Przyczyną link rot może być zmiana systemu adresów w wybranej witrynie lub celowe czy przypadkowe usunięcie linkowanej treści. Dezaktualizacja linków to wyzwanie dla komunikacji naukowej (aktualność linków w przypisach), systemu prawnego czy pracy dziennikarskiej.
publikowane w mediach społecznościowych, na witrynach internetowych, w ebookach i w wynikach wyszukiwania niechciane i złej jakości treści generowane przez narzędzia AI.
popularna metafora opisująca zasadę działania dużych modeli językowych (large language model, LLM). Modele te nie rozumieją generowanych przez siebie słów i zdań, polegając przede wszystkim na pewnych miarach statystycznych ich współwystępowania. Przymiotnik stochastyczny oznacza losowy, przypadkowy.
zdolność maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie i kreatywność. Istnieje także koncepcja, określana jako silna sztuczna inteligencja (artificial general intelligence, AGI), w której zakłada się, że możliwe jest wytworzenie takiej postaci sztucznej inteligencji, która będzie odpowiadać wszystkim możliwościom ludzkiego mózgu lub nawet je przewyższać. Niekiedy podkreśla się, że pojęcie sztucznej inteligencji może być mylące, ponieważ utożsamia komputery i programy (przedmioty i konstrukcje logiczne) z osobami oraz wyolbrzymia ich rzeczywiste możliwości, niekiedy w celach marketingowych i sprzedażowych.
(dead internet theory) teoria spiskowa, według której większość treści i interakcji w internecie jest efektem aktywności botów. Zwolennicy teorii martwego internetu utrzymują, że od 2016 roku internet został zdominowany przez automatycznie generowane treści i algorytmy manipulujące dyskusjami online. Argumentem za prawdziwością tej teorii ma być także obserwowana w ostatnich latach masowa obecność treści generowanych przez AI w mediach społecznościowych i w wynikach wyszukiwania.
(explainable artificial intelligence, XAI) - specyficzne modele lub zestawy procesów i metod, które pozwalają użytkownikom systemów sztucznej inteligencji zrozumieć i krytycznie zanalizować efekty pracy tych systemów. Wytłumaczalność umożliwia ustalenie poziomu pewności, sformatowania (bias), transparentności i odpowiedniości wyników działań narzędzi sztucznej inteligencji i redukuje efekt tzw. czarnej skrzynki (black box). Koncepcja XAI zakłada, że każdą decyzję podjętą podczas procesu budowania modelu i generowania wyników można prześledzić i wyjaśnić.