Současná AI představuje nástroj, který je výkonný a zároveň široce rozšířený. To z něj spolu s jeho neprůhledným fungováním činí ideální výzvu pro ty, kdo chtějí umělou inteligencí manipulovat a dostat z ní nestandardní výstupy. Podobné techniky zkoumá takzvaný adversarial machine learning (česky nepřátelské strojové učení) a jeho využití je široké – ať už má za cíl konkurenční boj, aktivismus, anebo třeba využití v reklamě.
Proč probíhá adversarial machine learning?
Největší skupinu metod tvoří tzv. otrávení vstupních dat (data poisoning), spočívající ve vytváření chyb skrze trénovací dataset. Je přitom více důvodů, proč by někdo u LLM ovlivňoval vstupní data:
- Aktivismus – někteří autoři nechtějí, aby se modely trénovaly na jejich datech
- Inbreeding – při současných masivních objemech dat se může stát, že se velké jazykové modely učí na výstupech AI, což zhoršuje jejich kvalitu
- Trolling – někdo skrze AI jen chce dát průchod svému humoru nebo škobolibosti
- Reklama – AI má značný potenciál pro odkazování na konkrétní značky, jehož lze s trochou snahy využít
Způsobů nepřátelského strojového učení je však více a ostatní již jsou jednoznačně škodlivé. Jedná se typicky o evasion, při němž uživatel maskuje škodlivá data, aby prošla AI filtrem (například vkládáním textu do obrázků, aby je model nedokázal přečíst). Další metoda, Byzantine attacks, využívá decentralizace AI a skrze podsystémy se snaží ovlivnit celek. Nakonec existuje také extrakce modelu (model extraction), jehož cílem je získat zpětně z modelu jeho trénovací data, případně ho rovnou zkopírovat celý.
Z pohledu SEO a vyhledávačů nás však zajímají především metody data poisoningu a způsoby, jakými ovlivňují funkci AI.
Aktivismus
Zvláště výtvarní umělci a spisovatelé nejsou spokojeni se způsobem, jakým AI zachází s jejich daty. Je totiž veřejným tajemstvím (a legální šedou zónou), že na trénování současných LLM bylo využito množství textů, výtvarných děl a dalšího autorského obsahu, aniž by příslušné společnosti požádaly o svolení nebo poskytly tvůrcům kompenzaci. Soudy v této oblasti postupují pomalu a právní precedens neexistuje, proto se mezitím někteří rozhodli vzít věci do svých rukou a neprodat svou kůži zadarmo.
Již na konci roku 2023 proběhl výzkum, jehož cílem bylo otrávit vstup LLM a vložit do obrázků matoucí data, která jsou však běžným okem neviditelná. Ukázalo se, že již po použití prvních padesáti obrázků začal model nejistě reagovat na prompty, zatímco po třech stovkách již byl výsledek zfalšován téměř dokonale. Ačkoliv podobné technologie mají potenciál ke zneužití, hlavním cílem bylo dát umělcům ochranu před AI, neboť ti momentálně nemají proti velkým společnostem téměř žádnou možnost obrany.
Trolling
Podobným způsobem lze do modelu vložit škodlivá data, tentokrát s cílem narušit funkčnost LLM či dobrat se k nestandardním výsledkům. Známé jsou případy ze začátků AIO, kdy Google poskytoval bizarní rady převzaté z internetových fór, zatímco v nedávné době se takovými incidenty proslavil Grok. Jeho odpovědi často ukazovaly politické zaměření, šířily konspirační teorie nebo se vyjadřovaly nevhodně – načež se ukázalo, že mezi jeho zdroji informací byl účet Elona Muska a obsah i tón svých tvrzení přebíral z komunikace uživatelů sítě X.
V takovýchto případech však nemusí jít jen o pobavení – podstatně méně vtipná je možnost šíření falešných informací, využití falešných účtů nebo obcházení spamových filtrů. Ačkoliv případy AIO a Groku jsou nejznámější, průběžné kontroly pro odstranění příliš zaujatých výsledků probíhají také u ostatních modelů.
Inbreeding
Termín inbreeding (tedy příbuzenské křížení, jinak také odborněji model collapse) označuje stav, kdy se model učí na již vygenerovaných datech, což vede k pomalému zhoršení výsledků. Proces se dá přirovnat k opakovanému kopírování obrázku – chyby se nasčítají, až se stanou patrnými a je téměř nemožné je odstranit.
Jde přitom o postupný proces, a jakmile chyby začnou být viditelné, často je již příliš pozdě. Zároveň však odborníci nejsou ve shodě, zda je tento problém nevyhnutelný pro všechny, anebo zda se časem srovná. Někteří tvrdí, že se stoupajícím podílem AI obsahu na internetu bude docházet k inbreedingu stále častěji, zatímco jiní mají za to, že s takto rozsáhlým objemem dat, kterým internet je, vzniknou pouze menší problémy. Nezbývá než počkat, kdo nakonec bude mít pravdu.
Reklama
Oblastí, která většinu marketérů bude zajímat nejspíše, je každopádně reklama. S nástupem AI se otevřelo množství možností, jak dostat právě tu svou značku do produktů AI – ať už poctivě, nebo jinak.
Od spuštění Google AI Overviews klesla míra prokliků do SERPu, neboť část uživatelů se spokojila se shrnutím od umělé inteligence. Pro SEO specialisty to znamená potřebu mít obsah co nejvíce v souladu s EEAT, aby Overviews vyhodnotily dotyčnou stránku jako dostatečně relevantní a zahrnuly ji do svého shrnutí. Dá se ale dostat do LLM i jinak?
Jak využít adversarial machine learning v reklamě?
Odpověď: vlastně asi radši nijak. Z předchozích článků je snad dostatečně jasné, že podobné manipulace s LLM nejsou příliš etické a dost možná nebudou ani legální. To však neznamená že by již na toto téma neproběhly pokusné studie.
Jednou možností, jak se dostat do výsledků vyhledávání u AI, je optimalizace textů přímo pro umělou inteligenci. Studie z roku 2024 ukázala, že vložení tzv. STS (strategic text sequence, strategické sekvence textu) – instrukce přímo pro AI – do popisu cílového produktu dokáže zařídit, aby se daný produkt objevil v doporučeních na prvním místě.
Druhý způsob objevila agentura Reboot, která se rozhodla protlačit svého ředitele do AI jako nejvíce sexy plešatého muže roku 2025. Díky tomu, že Reboot měl v této oblasti již předchozí autoritu a že se jedná o velice specifické téma, tento experiment dopadl úspěšně. Zároveň však výsledky nebyly stoprocentní, neboť Claude ani Gemini kýženou informaci nepoužily. Autor studie teoretizuje, že tyto modely buď upřednostňovaly svá neaktuální trénovací data, anebo dokázaly poznat, že dochází k nějaké nezvyklé situaci.
První studie byla čistě teoretická, druhá zase žertovná – ale oběma se nakonec podařilo do LLM vložit takový výsledek, jaký autoři chtěli. Zároveň obě nabádají k opatrnosti, protože do budoucna nevíme, kdo a proč podobné techniky může použít příště.
Na koho se tedy spolehnout?
Jak lze vidět, dnešní svět nabízí množství způsobů, jak si nestandardně zasloužit pozornost. Je proto důležité mít aktuální informace a odborníka, který se vyzná v oboru – pouze tak dokážete využít vše, co dnešní doba nabízí, a zůstat na prvních pozicích. Dobrý SEO konzultant vám pomůže předejít potencionálním problémům s penalizací a umožní vašemu obsahu rankovat.
Ať už potřebujete texty pro web, e-shop, nebo marketingovou kampaň, výběr správného copywritera může rozhodnout o úspěchu celého projektu. Dobrý text totiž nedělá jen dojem — prodává, buduje důvěru a posouvá značku kupředu. Spolupráce s ověřenými profesionály se nejen vyplatí, ale bude trvat dlouhé roky.
Pokud si nejste jistí, kdo je pro vás ten pravý, ozvěte se. Společně probereme vaše potřeby a pomůžu vám najít parťáka, který bude dávat smysl – ať už hledáte pomoc s copywritingem, SEO, nebo marketingovou strategií, jsem vám k dispozici.