Dei ricercatori informatici, uno dei quali è al Politecnico di Zurigo, hanno rivelato pubblicamente una falla in ChatGPT, il popolare software di OpenAI, che solleva questioni di sicurezza e privacy. Chiedendo a ChatGPT di ripetere una parola all’infinito, è possibile eludere le sue salvaguardie e accedere ai dati personali e ai testi altrui che ha memorizzato. Risulta che la più popolare app di intelligenza artificiale del pianeta è basata almeno in parte su testi presi senza permesso, e questo rischia di avere conseguenze legali per tutti i suoi utenti, che sono circa 100 milioni, oltre che per OpenAI.
Quanto sono protetti i dati che condividiamo con queste intelligenze? E quali precauzioni e trucchi possiamo adottare per usarle al meglio senza incidenti e imbarazzi o per scavalcare le loro restrizioni?