Jeśli tekst przejdzie te testy negatywnie (czyli wykaże cechy AI), mamy do czynienia z tzw. „Low-Effort Content”. Autor takiego tekstu nie jest kuratorem treści, tylko „przekaźnikiem”.
Najsmutniejsze w tym wszystkim jest to, że ta apodyktyczność, o której wspomniałeś, ma maskować brak kompetencji. Ktoś, kto naprawdę zna się na „Ognistym Koniu” lub „VIX-ie”, pisałby o niuansach, ryzyku i wyjątkach. AI pisze o pewnikach, bo pewniki najlepiej się sprzedają w bazach danych, na których się uczyło.
Test Suchej Szmatki
Najprostszy test to „Test Suchej Szmatki”. Jeśli wyciśniesz z tekstu wszystkie przymiotniki i metafory o „ogniu, paliwie i sile”, a w środku nie zostanie żadna konkretna informacja (liczba, nazwisko, konkretna technika, data), to masz do czynienia ze słabym promptem.
Test „Podmiany Rzeczownika” (The Noun Swap Test)
To najszybszy sposób na wykrycie tekstu, który jest generyczny, choć udaje głęboki.
- Na czym polega: Weź główny podmiot tekstu (np. „Rok Ognistego Konia” lub „VIX”) i zamień go na coś zupełnie innego, np. „Nowy model kosiarki” lub „Kurs szydełkowania”.
- Wynik: Jeśli struktura zdania nadal brzmi „sensownie” (w swoim dramatyzmie), masz do czynienia z pustym szablonem AI.
- Przykład: „Kurs szydełkowania nie pyta, czy jesteś gotowa. On sprawdza twoją cierpliwość”.
- Wniosek: Jeśli tekst pasuje do wszystkiego, nie mówi o niczym. AI uwielbia takie uniwersalne „formy-matki”.
Test „Pytania: Jak dokładnie?” (The „How Exactly?” Stress Test)
AI świetnie radzi sobie z poziomem strategicznym (co robić), ale wykłada się na taktycznym (jak dokładnie to zrobić).
- Na czym polega: Po każdym zdaniu, które brzmi dumnie, zadaj pytanie: „Jak dokładnie to działa?”.
- Przykład z Twojego tekstu: „Five tactical stocks designed to absorb this exact moment”.
- Analiza: Jak dokładnie akcja „absorbuje moment”? To fizycznie niemożliwe. To metafora, która ma ukryć brak konkretnej analizy finansowej.
- Wniosek: Jeśli tekst po trzech takich pytaniach zostaje z ręką w nocniku, to znaczy, że prompt był powierzchowny („Napisz coś o krachu”).
Test „Blizny i Brudu” (The Scar and Detail Test)
Ludzie piszą o swoich doświadczeniach przez pryzmat specyficznych, czasem nieistotnych detali. AI pisze przez pryzmat „średniej statystycznej”.
- Na czym polega: Szukaj w tekście czegoś, co jest brudne, dziwne lub bardzo specyficzne (np. „kiedy pisałem ten tekst, wylałem kawę na klawiaturę i to przypomniało mi o zmienności rynku”).
- Wynik: AI rzadko generuje specyficzne anegdoty, które nie służą bezpośrednio „morałowi”. Tekst AI jest sterylny. Nie ma w nim „blizn” autora – błędów językowych, które mają swój urok, czy nietypowych skojarzeń.
- Wniosek: Brak specyficznego, ludzkiego „zakłócenia” to sygnał surowego outputu.
Test „Tłumaczenia Wstecznego” (The Back-Translation Test)
Większość modeli AI (nawet jeśli piszą po polsku) „myśli” w strukturach anglojęzycznych.
- Na czym polega: Przetłumacz podejrzany fragment w głowie na angielski.
- Przykład: „To nie jest dla ciebie, jeśli…” -> „This is not for you, if…”.
- Wynik: Jeśli po angielsku tekst brzmi jak idealna, podręcznikowa kopia ze strony lądowania amerykańskiego kołcza, to znaczy, że AI po prostu kalkuje wzorce, na których zostało wytrenowane. Polskie „naturalne” pisanie ofertowe ma zazwyczaj zupełnie inną melodię i rzadziej używa tak agresywnych negacji na początku.
Test „Logicznego Zapętlenia” (The Circular Logic Test)
Słabo spromptowane AI często używa dwóch różnych słów na określenie tego samego, udając, że drugie z nich jest wyjaśnieniem pierwszego.
- Na czym polega: Sprawdź, czy drugie zdanie faktycznie wnosi nową informację, czy jest tylko synonimem pierwszego ubranym w inne piórka.
- Przykład: „Zmienność to paliwo, nie ogień. Kiedy rynek się rusza, napędza to nasze zyski”.
- Analiza: To masło maślane. Ruch to zmienność, a paliwo to napęd. Autor nie powiedział dlaczego tak jest, tylko powtórzył to samo, używając innej metafory.
- Wniosek: AI „mieli wodę”, żeby tekst wydawał się dłuższy i bardziej autorytatywny.
