Sears non è più il mastodonte dei grandi magazzini di una volta, ma il marchio è ancora in attività con un servizio di riparazione elettrodomestici. Negli ultimi anni l’azienda ha introdotto un assistente telefonico e chatbot AI chiamato Samantha. Ricercatori di sicurezza hanno però scoperto che le conversazioni con Samantha erano, per un periodo, accessibili a chiunque sul web.
Cosa è stato trovato
Il ricercatore Jeremiah Fowler, di Black Hills Information Security, ha individuato tre database pubblici contenenti un enorme archivio di dati. I numeri sono questi:
- 3,7 milioni di chat registrate;
- 1,4 milioni di file audio e relative trascrizioni;
- file che coprono il periodo dal 2024 a oggi, con singoli CSV che contenevano oltre 54.000 chat complete.
Nei file il chatbot si presenta come "Samantha, un agente vocale virtuale AI per Sears Home Services" e viene citata la tecnologia AI chiamata kAIros. Le conversazioni erano in inglese e in spagnolo.
Quali dati erano esposti
I registri includevano dati personali sensibili dei clienti: nomi, numeri di telefono, indirizzi di casa, informazioni sugli elettrodomestici, appuntamenti di consegna e dettagli sulle riparazioni. Inoltre molti file audio contenevano registrazioni ambientali molto estese.
Registrazioni che duravano ore
Un elemento particolarmente allarmante è che alcune chiamate audio continuavano a registrare ore di suoni di fondo dopo la fine della conversazione con l’AI. Alcune registrazioni raggiungevano le quattro ore. In questi file si sentivano televisori, dialoghi familiari e altri suoni privati che i clienti presumibilmente non volevano condividere pubblicamente.
Perché è un problema
- Rischio di phishing e truffe: le informazioni su elettrodomestici e appuntamenti possono essere usate in tentativi di truffa, come richieste di garanzia o inganni mirati.
- Violazione della privacy: registrazioni lunghe possono includere conversazioni private e dati sensibili non destinati a essere archiviati o resi pubblici.
- Affidabilità dell’AI: i log mostrano anche che il chatbot non sempre risponde correttamente e spesso rimanda a operatori umani, creando frustrazione tra gli utenti.
Come è stata gestita la scoperta
Dopo la scoperta, Fowler ha segnalato il problema a Transformco, la società che possiede Sears Home Services. I database sono stati messi in sicurezza poco dopo la segnalazione. Non è però chiaro per quanto tempo i dati siano rimasti esposti e se altre persone oltre al ricercatore vi abbiano avuto accesso. Transformco non ha fornito risposte pubbliche in merito.
Fowler riferisce anche di aver ricevuto una risposta che lo metteva in contatto con un responsabile del chatbot Samantha, ma la persona non ha poi proseguito la comunicazione.
Frustrazione degli utenti e limiti dei bot
I file mostrano utenti sempre più irritati con risposte incomplete o ricorsive da parte dell’AI. In un caso l’utente chiede di parlare con un operatore umano dopo due minuti e, poco dopo, la chiamata viene trasferita perché il bot non riesce a completare l’operazione. In un’altra trascrizione che va dalle 11:00 alle 13:30, una persona ripete 28 volte la domanda "Dov’è il mio tecnico?" e alla fine arriva a rimarcare: "Sei un computer, sei un computer, sei un computer."
Commenti e raccomandazioni
Il ricercatore Fowler sottolinea che si tratta di dati reali di persone reali e che le aziende devono evitare scorciatoie nella protezione e nella cifratura delle informazioni. Secondo lui, almeno quei file avrebbero dovuto essere protetti da password e crittografati.
Carissa Véliz, docente dell’università di Oxford, osserva che in alcune circostanze le persone possono sentirsi più a proprio agio con una macchina, ma sottolinea anche che i clienti dovrebbero avere scelte: la possibilità di parlare con un operatore umano se lo preferiscono e di non vedere la loro conversazione registrata.
Cosa dovrebbero fare le aziende
- Proteggere e cifrare i dati sensibili.
- Offrire sempre l’opzione di parlare con un operatore umano.
- Limitare la registrazione delle chiamate e avvisare chiaramente i clienti su cosa viene registrato.
- Monitorare e testare i sistemi AI per ridurre errori che costringono le persone a lunghe interazioni inutili.
In sintesi, l’incidente ricorda che l’adozione dell’intelligenza artificiale in servizi al cliente non elimina la responsabilità di proteggere i dati personali. La tecnologia può essere utile, ma solo se gestita con cura e trasparenza.