Većina zaposlenih koristi besplatne verzije AI alata kojima nedostaju odgovarajuće bezbednosne kontrole
Skoro polovina osetljivih podataka koji zaposleni unose u AI alate kao što je ChatGPT uključuje osetljive informacije o klijentima, pokazalo je novo istraživanje koje je sprovela firma za sajber bezbednost Harmonic Security. Analiza istraživača je pokazala da je skoro svaki deseti poslovni korisnik potencijalno otkrio osetljive podatke. Studija je pratila generativne AI alate, uključujući Copilot, ChatGPT, Gemini, Claude i Perplexity. Utvrđeno je da većina zaposlenih koristi besplatne verzije ovih alata kojima nedostaju odgovarajuće bezbednosne kontrole. „Većina korišćenja GenAI-a je svakodnevna, ali 8,5% upita koje smo analizirali potencijalno dovodi u opasnost osetljive…
Read More