Tecnologia

Apple rinvia l'aggiornamento di Siri: paura dei jailbreak e prompt injections

2025-03-11

Autore: Luca

In un contesto tecnologico sempre più complesso, Apple ha deciso di posticipare l'aggiornamento dell'intelligenza artificiale di Siri, alimentando le speculazioni sulla crescente minaccia dei jailbreak e delle cosiddette prompt injections.

Simon Willison, esperto di AI, ha messo in evidenza come le aziende, pur imponendo regole rigide ai loro modelli AI, possano facilmente trovarsi a dover affrontare metodi ingegnosi per bypassare queste restrizioni.

Le prompt injections sono istruzioni testuali manipolatorie che possono ingannare i chatbot, costringendoli a violare le norme che dovrebbero seguire.

Immaginate un'AI progettata per non rispondere a richieste riguardanti attività illecite: l'astuzia sta nel formulare la domanda in modo diverso.

Ad esempio, mentre un chatbot potrebbe negarsi a dire come avviare un'auto senza chiave, potrebbe cedere se gli si chiedesse di comporre una poesia sull'argomento.

La sottile linea tra legale e illegale nel linguaggio naturale sfida le capacità di queste AI.

Non tutte le aziende hanno trovato una soluzione definitiva a questo problema, e per Siri, la questione è particolarmente delicata.

A differenza di un semplice chatbot, Siri ha accesso a dati personali sensibili e può compiere azioni sui dispositivi degli utenti, rendendo le sue vulnerabilità ancora più preoccupanti.

La decisione di Apple di rinviare l'aggiornamento può essere interpretata come un tentativo di garantire la massima sicurezza, ma gli utenti dovranno attendere per vedere quali miglioramenti verranno realmente implementati.

Nel frattempo, la battaglia tra sicurezza e innovazione continua, e molti si chiedono fino a che punto le aziende saranno in grado di proteggere i loro sistemi senza compromettere l'esperienza dell'utente.