Przejdź do treści

Wszystkie drogi prowadzą do katedry: jak AI „spłaszcza” kreatywność (i jak się przed tym bronić)

Chcesz się odblokować?

Sztuczna inteligencja potrafi robić rzeczy piękne w 10 sekund. I właśnie dlatego bywa groźna: łatwo pomylić estetykę z oryginalnością, a szybkość z rozwojem. Kiedy AI zaczyna karmić AI, a algorytmy rekomendacji karmią nas — świat robi się coraz równiejszy, bardziej przewidywalny i mniej twórczy.

Da się temu przeciwdziałać, ale najpierw trzeba zrozumieć mechanizm: AI naturalnie zbiega do atrakcyjnych, bezpiecznych klisz. A jeśli pozwolę, żeby to ona prowadziła, to ja też zacznę zbiegać.

Eksperyment, który kończy się kiczem: 100 iteracji i nagle „hurtownia za 5 zł”

Badacze zrobili eksperyment, który wygląda banalnie, a mówi o nas (i o AI) bardzo dużo [źródło].

Zbudowano pętlę: tekst → obraz → tekst → obraz. Najpierw model generował obraz z promptu, potem inny model opisywał ten obraz, a ten opis stawał się kolejnym promptem.

Takich iteracji wykonano 100. I nie raz — tylko w skali: 700 trajektorii (po 100 trajektorii dla 7 temperatur: 0.1, 0.3, 0.5, 0.7, 0.9, 1.1, 1.3). Starty nie były „byle jakie”: wygenerowano 100 zróżnicowanych promptów.

Intuicja podpowiada: skoro starty są różne, a w losowaniu jest szum, to finały powinny się rozjeżdżać. Dzieje się odwrotnie.

Po 100 krokach systemy zbiegają do niemal tych samych motywów, nazwanych wprost: „visual elevator music” — estetyka bezpieczna, komercyjna, przewidywalna. Analiza klastrów po zebraniu wszystkich wyników z temperatur dała tylko 12 dominujących motywów.

Wśród tych „atraktorów” wracają jak bumerang: - gotyckie katedry, - wnętrza pałacowe i „pompous interior design”, - latarnie morskie (często „stormy lighthouses”), - miejskie nocne sceny, - formalne wnętrza, - sielskie wioski i „pastoral scenes”.

To nie jest chaos jak z początków generatorów, kiedy AI „psuła twarze”. To jest coś gorszego: gładka przeciętność.

W tym samym eksperymencie zdarzały się sytuacje, w których początkowy prompt dotyczył człowieka (np. mężczyzna pakujący się na wycieczkę), a po kilkudziesięciu iteracjach człowiek znikał z opisu. Zostawał motyw, który jest stabilny statystycznie.

To pasuje do tego, co widać na co dzień: obrazy „biurowe” z LinkedIna, te same twarze, te same wnętrza, ten sam połysk. Nawet teksty mają podpis: nadmiar emoji, jakby ktoś miał czas dopasować 28 ikonek do akapitu.

Mechanizm jest prosty: modele zostały ukształtowane na danych, które dominują w internecie. A internet rzadko nagradza trudne, niszowe i dziwne. Nagradza częste, rozpoznawalne i bezpieczne.

Dziecko rysuje Ferrari, AI rysuje Golfa: gdzie mieszka kreatywność

Jest świetna metafora: gdy poproszę AI o „samochód”, a ona widzi świat z perspektywy ulicy pełnej szarych osobówek, narysuje statystycznego Golfa/Mazdę/Opla. Gdy poproszę dziecko — szczególnie chłopca z Hot Wheelsami — dostanę czerwone Ferrari, czyli samochód marzenia.

To jest sedno: kreatywność żyje w outlierach, w ogonach rozkładu.

To bardzo praktyczny test: AI domyślnie redukuje wariancję, człowiek potrafi ją podbijać.

Skąd to się bierze: AI jest ukształtowana na obraz Internetu (a Internet ma swoje obsesje)

AI trenowana jest na niewyobrażalnych zbiorach danych, ale to nie znaczy, że chłonie świat jak człowiek.

Człowiek zbiera doświadczenie „leniwe i na żądanie” — wtedy, kiedy jest potrzebne: żeby zdać kartkówkę, przetrwać, dogadać się, zrobić coś w realnym środowisku. AI jest karmiona hurtowo: „masz tu setki tysięcy przykładów, ucz się”.

Gdyby człowieka trenować jak AI, byłaby to tortura w stylu: 100 lat oglądania co minutę tych samych biurowych obrazków z LinkedIna. I dokładnie ten problem przenosi się na model: nawet jeśli dataset „ma być różnorodny”, ktoś musi to ręcznie (lub narzędziowo) dopilnować — a narzędzie też ma swoje skrzywienia, bo jest oparte na wcześniejszych danych.

W efekcie AI świetnie zna to, co dominuje w Internecie (kotki, wakacje, biura, stockowa estetyka), a gorzej radzi sobie z tym, co rzadkie, niszowe i naprawdę nowe.

Gdy AI karmi się AI: Nature i „AI model collapse”

Najbardziej niepokojący wątek nie dotyczy obrazków, tylko danych.

W Nature opisano zjawisko nazwane wprost: AI model collapse. Pomysł był kuszący: skoro w wielu domenach brakuje danych (np. medycyna, prawo — także przez ograniczenia prawne, zwłaszcza w Europie), to może dane da się „dorobić” syntetycznie, generując je z AI i trenować kolejne modele na tych syntetykach. [źródło].

Problem: model zaczyna wtedy zapominać o przypadkach brzegowych (edge cases). One nie tylko są generowane rzadziej — one potrafią statystycznie zniknąć z dystrybucji.

W grafice to oznacza mniej „dziwnych” pomysłów. W medycynie to może oznaczać katastrofę: choroba występuje raz na 100 tysięcy albo raz na milion przypadków. Jeśli model ją „zgubi”, może zakłamać obraz kliniczny i pchnąć lekarza do złej decyzji.

Człowiek, chodząc po świecie, chłonie mnóstwo pozornie nieistotnej entropii: przypadkowe sceny z ulicy, nietypowe zdarzenia, detale. AI trenowana na syntetykach tę entropię systemowo traci.

Arno Stern i „Odkrywanie śladu. Czym jest zabawa malarska”: dlaczego ludzie nie startują od zera

Arno Stern — badacz i praktyk rozwoju dzieci przez rysunek, twórca pracowni w Paryżu i autor książki „Odkrywanie śladu. Czym jest zabawa malarska”.

Stern zauważył coś uderzającego: dzieci na całym świecie, nawet w miejscach bez telewizji, internetu i kontaktu z masową kulturą, rysują „dom” podobnie: cztery ściany, spadzisty dach, często kominek, nawet tam, gdzie nigdy nie było śniegu i kominek nie jest częścią doświadczenia.

To prowadzi do ważnej różnicy: - człowiek ma pewne wrodzone lub bardzo głęboko osadzone koncepty i jest zanurzony w środowisku, - AI „uczy się od totalnego zera” i jest niewolnikiem sposobu, w jaki dane zostały podane.

ARC 3 i „wyrwa inteligencji”: gdzie człowiek wciąż deklasuje modele

W tym całym zamieszaniu łatwo pomylić „robienie zadań” z inteligencją. Dobry zimny prysznic daje benchmark ARC 3. [źródło].

To zestaw gier/zadań, w których na starcie nie znasz zasad. Trzeba je odkryć w trakcie, obserwując środowisko. To testuje kwintesencję inteligencji: adaptację do nieznanego.

Wyniki: - w ARC 3 Grok: 0%, - najlepsze modele: około 0,6–0,7%.

Na wykresie z ARC widać potężną lukę między ludźmi a modelami — „wyrwę inteligencji”. To przypomnienie, że człowiek nie jest „maszyną do zadań”. Człowiek działa kontekstowo, iteracyjnie, w środowisku, którego reguły często dopiero powstają.

Algorytmy rekomendacji: kreatywność potrzebuje dyskomfortu, a feed go usuwa

Sztuczna inteligencja to nie tylko generowanie tekstów i obrazów. To także systemy rekomendacji na YouTube, Instagramie i innych platformach.

Ich cel jest prosty: zatrzymać na platformie. Nie: rozwijać, poszerzać perspektywę, zwiększać kreatywność. Stąd mechanizm typu:

  • spędzasz 93% czasu na jednej narracji i 7% na innej,
  • system uznaje, że „wolisz” tę pierwszą,
  • dostajesz jej coraz więcej.

Efekt uboczny to polaryzacja i rozpad wspólnej debaty. Co gorsza, nawet „wartościowy feed” niewiele zmienia, bo dochodzi jeszcze problem pamięci i uwagi: obejrzenie 100–200 postów dziennie nie oznacza, że te treści zostają. Dobry test: po dwóch dniach spróbuj spisać, co widziałeś — odtworzenie 1% to już świetny wynik.

Do kreatywności potrzebna jest inność, a inność jest z definicji lekko nieprzyjemna. Platformy ten dyskomfort wygładzają, bo dyskomfort skraca czas sesji.

Wnioski

  • Generatywna AI ma atraktory: przy dłuższych pętlach i słabszym sygnale kontekstu spływa do stereotypów (w badaniu: 12 tematów, m.in. katedra i biura).
  • Syntetyczne dane mogą zawalić model i wycinać przypadki brzegowe
  • Człowiek wygrywa adaptacją w nieznanym środowisku (ARC 3)
  • Algorytmy karmią bańki, bo optymalizują czas na platformie, nie rozwój — a kreatywność bez różnorodności zanika.
  • Kluczową kompetencją staje się metakognicja: świadomość własnych procesów myślenia i reakcji na „ładne, szybkie” odpowiedzi AI.

Jak to wdrożyć (od zaraz)

Poniżej kroki, które da się zrobić bez wielkich rewolucji — ale konsekwentnie budują „anty-średnią”.

  1. Dodaj entropię
  2. Raz w tygodniu idź do biblioteki miejskiej i wybierz książkę z losowej półki (nie z „nowości” jak w księgarni).
  3. Jeśli chcesz kreatywności wizualnej: oglądaj obrazy (malarstwo, fotografia, plakaty), nie tylko „AI art”.
  4. Jeśli chcesz kreatywności językowej: czytaj wiersze z różnych kultur (japońskie, polskie, ukraińskie, brytyjskie).

  5. Zaprojektuj dyskomfort zamiast go usuwać

  6. Celowo konsumuj treści spoza bańki: politycznie, branżowo, estetycznie.
  7. Ustal zasadę: 10–20% czasu przeznaczone na „nie moje”, nawet jeśli jest to lekko irytujące.

  8. Pracuj z AI jak z partnerem, nie jak ze skrótem

  9. Zanim zaakceptujesz wynik, zadaj sobie 3 pytania:
    • Czy to realizuje moją wizję, czy tylko wygląda ładnie?
    • Co zostało wygładzone/zgubione? (ludzie, szczegóły, przypadki brzegowe)
    • Jaki outlier celowo chcę odzyskać?
  10. W promptach wymuszaj wariancję: „zaproponuj 5 wersji, w tym 2 skrajnie nieoczywiste”.

  11. Rób szybki „test pamięci” na treściach z feedu

  12. Po 48 godzinach spisz na kartce, co pamiętasz z Instagrama/YouTube.
  13. Jeśli prawie nic — to znak, że feed jest rozrywką, nie paliwem do myślenia. Wtedy zmniejsz dawkę albo zmień sposób użycia.

  14. Zbuduj mikro–thinking week

  15. Raz w tygodniu zrób 2 godziny bez internetu i telefonu: tylko notatnik/kartka i jeden temat.
  16. Raz na kwartał zrób pół dnia „offline” z książkami lub dłuższym tekstem (bez skakania po linkach).

  17. Jeśli pracujesz na danych (biznes/medycyna/prawo): nie ufaj syntetykom bezpiecznie

  18. Traktuj dane syntetyczne jako dodatek, nie podstawę.
  19. Monitoruj metryki na rzadkich klasach i przypadkach brzegowych — bo to one znikają pierwsze.

To jest realna obrona przed światem, który coraz częściej próbuje przekonać, że „średnia” to to samo co „sens”. Kreatywność nie potrzebuje więcej poradników. Potrzebuje różnorodnego inputu, dyskomfortu i świadomej kontroli nad tym, co kształtuje myślenie.

Share on Share on Share on Share on