Microsoft è accusata di utilizzare i testi dei clienti per addestrare la propria intelligenza artificiale tramite un’oscura impostazione in Word. L’azienda lo smentisce categoricamente.
L’accusa è nata da un articolo di blog pubblicato su Tumblr, che menzionava una funzione, “Connected Experiences”, che sarebbe stata attivata senza informare gli utenti. Il blog afferma che quando scrivi cose in Word in Microsoft 365, il contenuto viene utilizzato per addestrare i modelli di intelligenza artificiale dell’azienda.
Microsoft smentisce formalmente questa affermazione a BleepingComputer: “Microsoft non utilizza i dati dei clienti dalle app Microsoft 365 per uso pubblico o commerciale per addestrare modelli linguistici di grandi dimensioni (LLM, ndr). Le impostazioni dei Servizi Connessi non hanno nulla a che fare con il modo in cui Microsoft addestra modelli linguistici di grandi dimensioni.’
Negli ultimi dieci anni Microsoft è passata dai classici software per ufficio a Office 365, ora chiamato Microsoft 365. Di conseguenza, programmi come Word, Office o PowerPoint sono ora collegati online per impostazione predefinita.
La funzionalità in questione è attiva originariamente dal 2019, quando è stata introdotta, ma secondo Microsoft non ha nulla a che vedere con l’intelligenza artificiale. Tra le altre cose, consente a due persone di lavorare su un documento in remoto online o di ricevere suggerimenti grammaticali in tempo reale.
L’accusa è quindi falsa, ma la preoccupazione si inserisce in un contesto attuale. X (ex Twitter), tra gli altri, addestra la sua intelligenza artificiale con le pubblicazioni degli utenti. Meta fa lo stesso. Anche se i due attori vi hanno rinunciato in Europa, perché contrario alla normativa vigente.
Indipendentemente dal fatto che gli utenti non diano un consenso esplicito a questo proposito, ciò è pericoloso anche nel caso dell’elaborazione testi. È così che un robot AI addestrato con tali dati potrebbe scrivere materiale riservato o dare suggerimenti che potrebbero portare a persone specifiche.