Nova generacija AI agenata može povećati produktivnost, ali i otvoriti sigurnosne rupe u tvrtkama.
Dok alati poput ChatGPT-a već pomažu radnicima širom svijeta, na scenu stupaju još moćniji AI agenti. Za razliku od generativnih AI-jeva, oni mogu samostalno izvršavati zadatke, preuzimajući kontrolu nad računalom ili aplikacijom. Međutim, njihova upotreba na radnom mjestu nosi i nove, ozbiljne sigurnosne rizike.
Dok jezični modeli poput onih u ChatGPT-u ili Gemini-ju već omogućuju radnicima širom svijeta da budu produktivniji, nova vrsta umjetne inteligencije, još korisnija, postupno se uvodi. Riječ je o agentima koji, za razliku od jednostavnih generativnih AI-jeva, mogu obavljati zadatke umjesto korisnika, preuzimajući kontrolu nad računalom, aplikacijom ili web-preglednikom. Ipak, prije nego što počnete koristiti AI agenta na poslu, morate se zapitati ne uvodi li to prevelike sigurnosne rizike.
U nedavnom izvješću, IT monopolisti upozorava na opasnosti ‘Shadow AI’-ja, odnosno korištenja umjetne inteligencije od strane zaposlenika bez nadzora tvrtkinog IT tima. Naime, iako AI agenti donose nesumnjiv porast produktivnosti, oni također izlažu tvrtke novim sigurnosnim rizicima. Stoga upotreba agenata mora biti popraćena sigurnosnim mjerama kako bi se ti rizici ublažili. “U okviru neovisne i sigurne studije koju je provela Microsoftova AI Red Team, istraživači su pokazali kako se agenti mogu zavarati obmanjujućim elementima sučelja, primjerice slijedeći zlonamjerne upute ugradene u uobičajene sadržaje. Red Team je također otkrila kako se razmišljanje agenata može suptilno preusmjeriti manipulacijom okvira zadatka”, navodi se u izvješću Microsofta. Tvrtka također navodi da je otkrila kampanju koja se sastoji od ‘trovanja’ memorije AI-jeva kako bi se utjecalo na njihove buduće preporuke unošenjem pristranih informacija.
AI agenti se uvode brže nego što mislimo. Iako njihova upotreba uvodi nove rizike, ona je sve češća. I dok se to može regulirati unutar tvrtke, to nije uvijek slučaj. Microsoft je naručio istraživanje među 1700 profesionalaca za sigurnost podataka koje je otkrilo da je 29% zaposlenika koristilo neovlaštenog AI agenta za obavljanje poslovnih zadataka.
Druga studija, Microsoft Data Security Index 2026, pokazuje da je samo 47% tvrtki uvelo kontrole za korištenje AI agenata. AI agenti mogu učiniti radnike produktivnijima, ali mogu i unijeti nove rizike za tvrtke. Naime, ovi agenti mogu biti meta novih vrsta napada i, kada njihova upotreba nije kontrolirana niti popraćena posebnim mjerama, mogu postati ranjiva točka. Microsoft ipak ističe da mnogi zaposlenici koriste neovlaštene AI agente.

Ujedno, problem je spijunaža. Više digitalizacije znači više skupljanja informacija sa strane trćih osoba ili institucija.
Oprostite (malo šege), a što je to posao? ja sam u mirovini pa da mi neko objasni.
😂😁🙃🙃😁😂😁🙃😁😂
Mogli bi i vi prestati koristiti ilustracije
🌀🌀
😂😂😂😂😂
AI treba izbjegavati i privatno i poslovno. Pokazalo se opasno koristiti je i privatno.
Znaci li to manje AI clanaka na vasem portalu? Salim se, vas medij, vasa pravila, ali ne znam jeste li svjesni da u teh zajednici AI postaje ne pozeljan. Ai generirani kodovi se ne prihvacaju, uvode se striktne Ai police pravila itd, ljudi se ipak bune, to je cijela poanta.
Na kraju će ispasti da svi mi “neovlašteno” dišemo.
Samo oprezno.
Kumu Pašku izgleda da će im u uredu doći do ozbiljnih promjena….
Zašto tako misli?
Dao je AI da prati povijest pretraživanja na internetu…
I?
Njihov glavni računovođa je tražio “Kazneni zakon Republike Hrvatske”, “organski otrovi” i “kako sakriti ..”