Wszystkie drogi prowadzą do katedry: jak AI „spłaszcza” kreatywność (i jak się przed tym bronić)
Sztuczna inteligencja potrafi robić rzeczy piękne w 10 sekund. I właśnie dlatego bywa groźna: łatwo pomylić estetykę z oryginalnością, a szybkość z rozwojem. Kiedy AI zaczyna karmić AI, a algorytmy rekomendacji karmią nas — świat robi się coraz równiejszy, bardziej przewidywalny i mniej twórczy.
Da się temu przeciwdziałać, ale najpierw trzeba zrozumieć mechanizm: AI naturalnie zbiega do atrakcyjnych, bezpiecznych klisz. A jeśli pozwolę, żeby to ona prowadziła, to ja też zacznę zbiegać.
Eksperyment, który kończy się kiczem: 100 iteracji i nagle „hurtownia za 5 zł”
Badacze zrobili eksperyment, który wygląda banalnie, a mówi o nas (i o AI) bardzo dużo [źródło].
Zbudowano pętlę: tekst → obraz → tekst → obraz. Najpierw model generował obraz z promptu, potem inny model opisywał ten obraz, a ten opis stawał się kolejnym promptem.
Takich iteracji wykonano 100. I nie raz — tylko w skali: 700 trajektorii (po 100 trajektorii dla 7 temperatur: 0.1, 0.3, 0.5, 0.7, 0.9, 1.1, 1.3). Starty nie były „byle jakie”: wygenerowano 100 zróżnicowanych promptów.
Intuicja podpowiada: skoro starty są różne, a w losowaniu jest szum, to finały powinny się rozjeżdżać. Dzieje się odwrotnie.
Po 100 krokach systemy zbiegają do niemal tych samych motywów, nazwanych wprost: „visual elevator music” — estetyka bezpieczna, komercyjna, przewidywalna. Analiza klastrów po zebraniu wszystkich wyników z temperatur dała tylko 12 dominujących motywów.
Wśród tych „atraktorów” wracają jak bumerang: - gotyckie katedry, - wnętrza pałacowe i „pompous interior design”, - latarnie morskie (często „stormy lighthouses”), - miejskie nocne sceny, - formalne wnętrza, - sielskie wioski i „pastoral scenes”.
To nie jest chaos jak z początków generatorów, kiedy AI „psuła twarze”. To jest coś gorszego: gładka przeciętność.
W tym samym eksperymencie zdarzały się sytuacje, w których początkowy prompt dotyczył człowieka (np. mężczyzna pakujący się na wycieczkę), a po kilkudziesięciu iteracjach człowiek znikał z opisu. Zostawał motyw, który jest stabilny statystycznie.
To pasuje do tego, co widać na co dzień: obrazy „biurowe” z LinkedIna, te same twarze, te same wnętrza, ten sam połysk. Nawet teksty mają podpis: nadmiar emoji, jakby ktoś miał czas dopasować 28 ikonek do akapitu.
Mechanizm jest prosty: modele zostały ukształtowane na danych, które dominują w internecie. A internet rzadko nagradza trudne, niszowe i dziwne. Nagradza częste, rozpoznawalne i bezpieczne.
Dziecko rysuje Ferrari, AI rysuje Golfa: gdzie mieszka kreatywność
Jest świetna metafora: gdy poproszę AI o „samochód”, a ona widzi świat z perspektywy ulicy pełnej szarych osobówek, narysuje statystycznego Golfa/Mazdę/Opla. Gdy poproszę dziecko — szczególnie chłopca z Hot Wheelsami — dostanę czerwone Ferrari, czyli samochód marzenia.
To jest sedno: kreatywność żyje w outlierach, w ogonach rozkładu.
To bardzo praktyczny test: AI domyślnie redukuje wariancję, człowiek potrafi ją podbijać.
Skąd to się bierze: AI jest ukształtowana na obraz Internetu (a Internet ma swoje obsesje)
AI trenowana jest na niewyobrażalnych zbiorach danych, ale to nie znaczy, że chłonie świat jak człowiek.
Człowiek zbiera doświadczenie „leniwe i na żądanie” — wtedy, kiedy jest potrzebne: żeby zdać kartkówkę, przetrwać, dogadać się, zrobić coś w realnym środowisku. AI jest karmiona hurtowo: „masz tu setki tysięcy przykładów, ucz się”.
Gdyby człowieka trenować jak AI, byłaby to tortura w stylu: 100 lat oglądania co minutę tych samych biurowych obrazków z LinkedIna. I dokładnie ten problem przenosi się na model: nawet jeśli dataset „ma być różnorodny”, ktoś musi to ręcznie (lub narzędziowo) dopilnować — a narzędzie też ma swoje skrzywienia, bo jest oparte na wcześniejszych danych.
W efekcie AI świetnie zna to, co dominuje w Internecie (kotki, wakacje, biura, stockowa estetyka), a gorzej radzi sobie z tym, co rzadkie, niszowe i naprawdę nowe.
Gdy AI karmi się AI: Nature i „AI model collapse”
Najbardziej niepokojący wątek nie dotyczy obrazków, tylko danych.
W Nature opisano zjawisko nazwane wprost: AI model collapse. Pomysł był kuszący: skoro w wielu domenach brakuje danych (np. medycyna, prawo — także przez ograniczenia prawne, zwłaszcza w Europie), to może dane da się „dorobić” syntetycznie, generując je z AI i trenować kolejne modele na tych syntetykach. [źródło].
Problem: model zaczyna wtedy zapominać o przypadkach brzegowych (edge cases). One nie tylko są generowane rzadziej — one potrafią statystycznie zniknąć z dystrybucji.
W grafice to oznacza mniej „dziwnych” pomysłów. W medycynie to może oznaczać katastrofę: choroba występuje raz na 100 tysięcy albo raz na milion przypadków. Jeśli model ją „zgubi”, może zakłamać obraz kliniczny i pchnąć lekarza do złej decyzji.
Człowiek, chodząc po świecie, chłonie mnóstwo pozornie nieistotnej entropii: przypadkowe sceny z ulicy, nietypowe zdarzenia, detale. AI trenowana na syntetykach tę entropię systemowo traci.
Arno Stern i „Odkrywanie śladu. Czym jest zabawa malarska”: dlaczego ludzie nie startują od zera
Arno Stern — badacz i praktyk rozwoju dzieci przez rysunek, twórca pracowni w Paryżu i autor książki „Odkrywanie śladu. Czym jest zabawa malarska”.
Stern zauważył coś uderzającego: dzieci na całym świecie, nawet w miejscach bez telewizji, internetu i kontaktu z masową kulturą, rysują „dom” podobnie: cztery ściany, spadzisty dach, często kominek, nawet tam, gdzie nigdy nie było śniegu i kominek nie jest częścią doświadczenia.
To prowadzi do ważnej różnicy: - człowiek ma pewne wrodzone lub bardzo głęboko osadzone koncepty i jest zanurzony w środowisku, - AI „uczy się od totalnego zera” i jest niewolnikiem sposobu, w jaki dane zostały podane.
ARC 3 i „wyrwa inteligencji”: gdzie człowiek wciąż deklasuje modele
W tym całym zamieszaniu łatwo pomylić „robienie zadań” z inteligencją. Dobry zimny prysznic daje benchmark ARC 3. [źródło].
To zestaw gier/zadań, w których na starcie nie znasz zasad. Trzeba je odkryć w trakcie, obserwując środowisko. To testuje kwintesencję inteligencji: adaptację do nieznanego.
Wyniki: - w ARC 3 Grok: 0%, - najlepsze modele: około 0,6–0,7%.
Na wykresie z ARC widać potężną lukę między ludźmi a modelami — „wyrwę inteligencji”. To przypomnienie, że człowiek nie jest „maszyną do zadań”. Człowiek działa kontekstowo, iteracyjnie, w środowisku, którego reguły często dopiero powstają.
Algorytmy rekomendacji: kreatywność potrzebuje dyskomfortu, a feed go usuwa
Sztuczna inteligencja to nie tylko generowanie tekstów i obrazów. To także systemy rekomendacji na YouTube, Instagramie i innych platformach.
Ich cel jest prosty: zatrzymać na platformie. Nie: rozwijać, poszerzać perspektywę, zwiększać kreatywność. Stąd mechanizm typu:
- spędzasz 93% czasu na jednej narracji i 7% na innej,
- system uznaje, że „wolisz” tę pierwszą,
- dostajesz jej coraz więcej.
Efekt uboczny to polaryzacja i rozpad wspólnej debaty. Co gorsza, nawet „wartościowy feed” niewiele zmienia, bo dochodzi jeszcze problem pamięci i uwagi: obejrzenie 100–200 postów dziennie nie oznacza, że te treści zostają. Dobry test: po dwóch dniach spróbuj spisać, co widziałeś — odtworzenie 1% to już świetny wynik.
Do kreatywności potrzebna jest inność, a inność jest z definicji lekko nieprzyjemna. Platformy ten dyskomfort wygładzają, bo dyskomfort skraca czas sesji.
Wnioski
- Generatywna AI ma atraktory: przy dłuższych pętlach i słabszym sygnale kontekstu spływa do stereotypów (w badaniu: 12 tematów, m.in. katedra i biura).
- Syntetyczne dane mogą zawalić model i wycinać przypadki brzegowe
- Człowiek wygrywa adaptacją w nieznanym środowisku (ARC 3)
- Algorytmy karmią bańki, bo optymalizują czas na platformie, nie rozwój — a kreatywność bez różnorodności zanika.
- Kluczową kompetencją staje się metakognicja: świadomość własnych procesów myślenia i reakcji na „ładne, szybkie” odpowiedzi AI.
Jak to wdrożyć (od zaraz)
Poniżej kroki, które da się zrobić bez wielkich rewolucji — ale konsekwentnie budują „anty-średnią”.
- Dodaj entropię
- Raz w tygodniu idź do biblioteki miejskiej i wybierz książkę z losowej półki (nie z „nowości” jak w księgarni).
- Jeśli chcesz kreatywności wizualnej: oglądaj obrazy (malarstwo, fotografia, plakaty), nie tylko „AI art”.
-
Jeśli chcesz kreatywności językowej: czytaj wiersze z różnych kultur (japońskie, polskie, ukraińskie, brytyjskie).
-
Zaprojektuj dyskomfort zamiast go usuwać
- Celowo konsumuj treści spoza bańki: politycznie, branżowo, estetycznie.
-
Ustal zasadę: 10–20% czasu przeznaczone na „nie moje”, nawet jeśli jest to lekko irytujące.
-
Pracuj z AI jak z partnerem, nie jak ze skrótem
- Zanim zaakceptujesz wynik, zadaj sobie 3 pytania:
- Czy to realizuje moją wizję, czy tylko wygląda ładnie?
- Co zostało wygładzone/zgubione? (ludzie, szczegóły, przypadki brzegowe)
- Jaki outlier celowo chcę odzyskać?
-
W promptach wymuszaj wariancję: „zaproponuj 5 wersji, w tym 2 skrajnie nieoczywiste”.
-
Rób szybki „test pamięci” na treściach z feedu
- Po 48 godzinach spisz na kartce, co pamiętasz z Instagrama/YouTube.
-
Jeśli prawie nic — to znak, że feed jest rozrywką, nie paliwem do myślenia. Wtedy zmniejsz dawkę albo zmień sposób użycia.
-
Zbuduj mikro–thinking week
- Raz w tygodniu zrób 2 godziny bez internetu i telefonu: tylko notatnik/kartka i jeden temat.
-
Raz na kwartał zrób pół dnia „offline” z książkami lub dłuższym tekstem (bez skakania po linkach).
-
Jeśli pracujesz na danych (biznes/medycyna/prawo): nie ufaj syntetykom bezpiecznie
- Traktuj dane syntetyczne jako dodatek, nie podstawę.
- Monitoruj metryki na rzadkich klasach i przypadkach brzegowych — bo to one znikają pierwsze.
To jest realna obrona przed światem, który coraz częściej próbuje przekonać, że „średnia” to to samo co „sens”. Kreatywność nie potrzebuje więcej poradników. Potrzebuje różnorodnego inputu, dyskomfortu i świadomej kontroli nad tym, co kształtuje myślenie.

