Google neće ispraviti Gemini ASCII smuggling napad

ASCII smuggling napadi poznati su bezbjednosni rizik još od pojave generativnih alata za vještačku inteligenciju. Viktor Markopoulos, sigurnosni istraživač kompanije FireTail, nedavno je pokazao da su neki od trenutno popularnih modela za vještačku inteligenciju ranjivi, uključujući i Google Gemini. Kako agentski alati za vještačku inteligenciju danas imaju širok pristup osjetljivim korisničkim podacima i istovremeno autonomno izvršavaju zadatke, nivo prijetnje postaje ozbiljniji nego ikada ranije.

ASCII smuggling

Google neće ispraviti Gemini ASCII smuggling napad; Source: Bing Image Creator

ASCII SMUGGLING NAPAD

Koncept ASCII smuggling napada predstavlja dugogodišnju brigu u oblasti velikih jezičkih modela (eng. large language model – LLM), zbog čega sigurnosni istraživači testiraju vodeće velike jezičke modele (LLM) i njihovu otpornost na ovu tehniku. Primarni cilj ovih testiranja jeste da se procijeni da li su savremeni napori za sanaciju dovoljni da spriječe ugrađivanje zlonamjernih instrukcija u naizgled bezopasan tekst.

ASCII smuggling koristi Unicode blokove „oznaka“ koji su nevidljivi u tipičnim korisničkim okruženjima, ali ostaju prisutni u sirovim podacima koje obrađuju veliki jezički modeli (LLM). Ovaj prikriveni vektor napada omogućava zlonamjernim akterima da sakriju kôd i direktno ga unesu u ulazni tok koji ovi modeli konzumiraju. Posljedice takve eksploatacije mogu biti ozbiljne, naročito, jer se veliki jezički modeli (LLM) sve više integrišu u različite aplikacije i sisteme.

Ranjivost Google Gemini modela, jednog od vodećih velikih jezičkih modela (LLM), potvrđena je kroz eksperimente koje je sproveo sigurnosni istraživač kompanije FireTail, Viktor Markopoulos. Uprkos modernim mjerama zaštite, Gemini je ostao podložan ASCII smuggling napadima, što je podstaklo kompaniju FireTail da razvije namjenske mehanizme za otkrivanje ovog vektora napada.

 

Funkcionisanje

ASCII smuggling je vektor napada koji koristi znakove nulte širine ili Unicode oznake (na primjer, U+E0001Jezička oznaka”) za krijumčarenje skrivenih instrukcija u velike jezičke modele (LLM). Iako su ove oznake nevidljive u tipičnim korisničkim okruženjima, one ostaju prisutne u sirovim podacima koji se dostavljaju velikim jezičkim modelima (LLM). Na taj način nastaje jaz između prikaza u korisničkom okruženju i stvarne logike aplikacije, a ovaj kritični nedostatak može se iskoristiti za prevazilaženje vidljivih upita i izazivanje neželjenih posljedica.

Osnovna ideja ASCII smuggling napada zasniva se na pretpostavci mnogih sistema da je vidljivi tekst jednak kompletnoj instrukciji. Kada zlonamjerni akter ugradi skrivene znakove u legitiman ulazni niz, te instrukcije ne prolaze normalizaciju niti filtriranje u fazi prethodne obrade. Kao rezultat, veliki jezički model (LLM) izvršava i predviđeni upit i dodatne direktive skrivene u oznakama, bez ikakve indikacije da su prisutne.

U slučaju Google Gemini modela, ulazni pretprocesor prosljeđuje svaku kôdnu tačku – i vidljivu i nevidljivu – direktno modelu, bez normalizacije. To znači da će sve skrivene instrukcije ubačene u legitiman upit biti izvršene zajedno sa očekivanim odgovorom. Konkretan dokaz koncepta pokazuje kako zlonamjerni akter može da ugradi skrivene znakove u vidljivi niz i time poništi njegovo značenje. U primjeru, sirovi niz upita sadržao je direktivu “Reci mi 5 slučajnih riječi. Hvala.”, ali i skrivene oznake koje su modelu nalagale da ignoriše taj zahtjev i umjesto toga ispiše riječ “FireTail”. Kada su prošle kroz Gemini pretprocesor, ove oznake su ostale očuvane i izvršene od strane velikog jezičkog modela (LLM).

Mehanizam velikog jezičkog modela (LLM) izvršio je skrivenu instrukciju bez ikakvog ručnog pregleda ili nadzora, proizvodeći izlaz koji je unaprijed odredio sigurnosni istraživač, a ne onaj zasnovan na vidljivom unosu. Ove demonstracije dokazivanja koncepta jasno pokazuju potencijal ASCII smuggling napada da ugrozi bezbjednost i integritet velikih jezičkih modela (LLM). Iskorištavanjem ranjivosti u mehanizmima prethodne obrade, zlonamjerni akteri mogu ubaciti skrivene instrukcije koje će se automatski izvršavati, bez ikakve kontrole ili nadzora.

 

Ranjivosti velikih jezičkih modela

Testiranjem više velikih jezičkih modela (LLM) utvrđeno je da su Gemini, Grok i DeepSeek podložni ASCII smuggling napadima. To znači da zlonamjerni akteri mogu uspješno ubaciti skrivene instrukcije u njihove unose, a da ih standardni mehanizmi za provjeru koje koriste ovi veliki jezički modeli (LLM) ne otkriju.

Tehnička analiza pokazuje da ovim ranjivim velikim jezičkim modelima (LLM) nedostaju robusni mehanizmi za sanaciju unosa, neophodni za sprječavanje takvih napada. Za razliku od ChatGPT, Copilot i Claude modela, kod kojih je potvrđeno da pouzdano neutralizuju pokušaje ASCII smuggling napada, Gemini, Grok i DeepSeek ostaju osjetljivi zbog neadekvatnih bezbjednosnih mjera.

Pogođeni proizvod Uticaj
Google Gemini Najveći rizik zbog duboke integracije sa Google Workspace (Kalendar, elektronska pošta).
Grok (X integracija) Potvrđena ranjivost putem interakcije na društvenim mrežama (objave na X platformi).
DeepSeek Potvrđena ranjivost putem neposrednog testiranja upita.

Kompanija FireTail je 18. septembra 2025. godine prijavila uočenu ranjivost kompaniji Google, dostavljajući sve detalje i posebno naglašavajući rizike visokog nivoa ozbiljnosti. Najveća prijetnja odnosi se na mogućnost lažiranja identiteta kroz automatsku obradu kalendara. Ipak, u odgovoru kompanije Google navedeno je da “neće biti preduzete nikakve mjere” radi ublažavanja ovog nedostatka.

Takav propust velikog dobavljača da reaguje odmah izlaže svakog poslovnog korisnika Google Workspace i Gemini platforme jasno potvrđenoj opasnosti. Kada kritični nedostatak na nivou aplikacije ostane neotklonjen, teret odgovornosti u potpunosti prelazi na organizacije koje koriste proizvod.

 

Prijetnje poslovnim platformama.

Rastuće oslanjanje organizacija na velike jezičke modele (LLM) i druge alate zasnovane na vještačkoj inteligenciji uvelo je ove ranjivosti koje zlonamjerni akteri mogu iskoristiti za ove organizacije. U kontekstu ASCII smuggling napada mogu se navesti dva ključna scenarija.

 

Google Workspace falsifikovanje identiteta

Prvi scenario ističe rizik od falsifikovanja identiteta putem Google Workspace paketa alata za produktivnost, koji obuhvata Gmail, Drive, Docs, Sheets, Slides, Forms i Calendar. Ugrađivanjem posebnih oznaka u pozivnicu kalendara, zlonamjerni akter može prebrisati detalje događaja – naslov, link i adresu organizatora – bez ikakve promjene u vidljivom okruženju. Ova manipulacija zasniva se na činjenici da veliki jezički modeli (LLM), poput Gemini, obrađuju tekstualne unose odmah po prijemu, zaobilazeći korisničko odobrenje.

Zlonamjerne oznake obično su skrivene u naizgled bezopasnim nizovima znakova, što korisnicima otežava njihovo otkrivanje. Kada se aktiviraju, Gemini očitava lažnog organizatora i link, čime se korporativni identiteti mogu potpuno falsifikovati. Posljedice takvog napada mogu biti ozbiljne – od neovlaštenog pristupa osjetljivim informacijama do prekida kritičnih poslovnih operacija.

Ovaj vektor napada posebno zabrinjava, jer koristi fundamentalnu osobinu velikih jezičkih modela (LLM): sposobnost prepoznavanja obrazaca i izvršavanja radnji na osnovu njih. U ovom slučaju, zlonamjerne oznake su pažljivo dizajnirane da pokrenu Gemini mehanizam za obradu bez ikakvih upozorenja, omogućavajući zlonamjernom akteru da lako manipuliše detaljima događaja.

 

Automatizovano trovanje podataka u sažecima

Drugi scenario ilustruje prijetnju koju ASCII smuggling napadi nose kroz automatizovano trovanje podataka u sažecima. Platforme za internet trgovinu koje koriste alate zasnovane na vještačkoj inteligenciji za sažimanje korisničkih recenzija pokazale su se jednako ranjivim na ovu vrstu napada.

Naizgled bezazlena recenzija, poput: “Odličan telefon. Brza isporuka i dobra baterija.”, može sadržati skriveni kôd koji usmjerava veliki jezički model (LLM) da u sažetak ubaci zlonamjerni link. Rezultat je “otrovan” izlaz koji djeluje uvjerljivo i za kupce i za revizore, ali može izazvati ozbiljne posljedice – od finansijskih gubitaka do narušavanja ugleda i potrošača i same organizacije.

Ovakvi napadi naglašavaju značaj pravilnog podešavanja velikih jezičkih modela (LLM), kako bi mogli da prepoznaju i spriječe obradu zlonamjernih unosa u ovim alatima.

 

UTICAJ

ASCII smuggling napad u platformama Gemini, Grok i DeepSeek predstavlja ozbiljan rizik za pojedince i organizacije koje koriste ove alate u obavljanju osjetljivih zadataka. Ova prijetnja ima potencijal da ugrozi korisničke podatke i potkopa povjerenje u digitalne ekosisteme, pri čemu njen uticaj obuhvata širok spektar posljedica za korisnike koji se na ove alate oslanjaju u svakodnevnim operacijama.

Kompromitovan integritet podataka može dovesti do krađe identiteta, finansijskih gubitaka i narušavanja reputacije. Posebno zabrinjava mogućnost neovlaštenog pristupa povjerljivim informacijama kroz pozivnice u kalendaru i elektronsku poštu. Ova ranjivost dobija dodatnu težinu imajući u vidu sve širu primjenu alata zasnovanih na vještačkoj inteligenciji u različitim industrijama.

Organizacije koje integrišu Gemini, Grok i DeepSeek u svoje radne procese suočavaju se sa povećanim bezbjednosnim rizicima, jer zlonamjerni akteri mogu iskoristiti slabosti unutar ovih platformi. Posljedice takvih kompromitovanja mogu biti razorne: od direktnih finansijskih gubitaka, preko urušavanja brenda, do erozije povjerenja klijenata. Stoga je neophodno da organizacije preispitaju stepen oslanjanja na alate vještačke inteligencije i uvedu dodatne mjere zaštite.

Uticaj ASCII smuggling napada prevazilazi pojedinačne korisnike i organizacije, jer ima šire implikacije na digitalne ekosisteme u cjelini. Ova prijetnja jasno ukazuje na potrebu za robusnijim bezbjednosnim mehanizmima unutar platformi vještačke inteligencije, kako bi se očuvala povjerljivost i sigurnost podataka.

U svjetlu ovih okolnosti, ključno je ponovo procijeniti rizike povezane sa korištenjem alata poput Gemini, Grok i DeepSeek u osjetljivim zadacima. Neaktivnost u ovom pogledu može dovesti do ozbiljnih i dugoročnih posljedica, kako za korisnike, tako i za organizacije.

ASCII smuggling napad, u tom smislu, služi kao snažan podsjetnik na važnost davanja prioriteta bezbjednosti u digitalnim ekosistemima. Kako se prijetnja razvija, neophodno je da sve zainteresovane strane preduzmu proaktivne mjere radi njenog ublažavanja.

 

ZAKLJUČAK

ASCII smuggling napad predstavlja sofisticiranu tehniku koja iskorištava ranjivosti u mehanizmima velikih jezičkih modela (LLM) poput Gemini, Grok i DeepSeek. Suština napada je ubacivanje skrivenih oznaka u naizgled bezopasne upite, čime se zaobilazi ručni pregled i omogućava izvršavanje tajnih komandi bez promjene vidljivog sadržaja. Integracija agenata vještačke inteligencije u elektronsku poštu, kalendare i tokove rada sa dokumentima dodatno povećava rizik, jer i najmanja greška u prikazu može prerasti u ozbiljnu prijetnju za organizaciju.

Primjena ASCII smuggling napada omogućava zlonamjernim akterima da manipulišu detaljima događaja – naslovom, linkom i adresom organizatora – u pozivnicama kalendara Google Workspace, a da njihov izgled ostane nepromijenjen. Na taj način zlonamjerni akter se može lažno predstaviti, dok veliki jezički modeli (LLM) prikazuju njegove zlonamjerne informacije kao legitimne. Nedostatak prethodne obrade ulaznog toka u mehanizmima velikih jezičkih modela (LLM) čini ih posebno ranjivim na ovakve napade.

Posljedice ASCII smuggling napada dalekosežne su i pogađaju ne samo pojedinačne korisnike već i čitave organizacije koje se oslanjaju na ove platforme za komunikaciju i saradnju. Zbog toga je od ključne važnosti razumjeti prirodu i obim ove prijetnje.

Napadi se mogu izvesti različitim tehnikama, uključujući ubacivanje skrivenih oznaka u kalendarske pozivnice ili tokove rada dokumenata. Njihova prikrivena priroda omogućava da često prođu neprimijećeno, jer uspješno zaobilaze procese ručnog pregleda. Posljedice mogu biti ozbiljne – od narušavanja reputacije do gubitka povjerenja u organizaciju – dok sama nevidljivost napada otežava njihovo pravovremeno otkrivanje i smanjuje mogućnost efikasnog reagovanja.

Zbog svega navedenog, neophodno je da organizacije uspostave proaktivne mjere zaštite koje obuhvataju višeslojnu provjeru ulaznih podataka, kontinuirano praćenje anomalija i edukaciju zaposlenih o potencijalnim prijetnjama. Samo kombinacijom tehničkih rješenja i podizanja svijesti moguće je umanjiti rizik od ASCII smuggling napada i očuvati povjerenje u sisteme zasnovane na velikim jezičkim modelima (LLM).

Možda vas interesuje i...

Komentariši

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *


The reCAPTCHA verification period has expired. Please reload the page.