Roma, 30 novembre 2025 – Le **informazioni personali** e sensibili che ogni giorno passano attraverso i **sistemi di intelligenza artificiale** dovrebbero essere raccolte solo “quando strettamente necessario”. È il monito arrivato nelle ultime settimane dalle autorità per la **protezione dei dati**, preoccupate per la tutela della privacy degli utenti. In un mondo in cui chatbot, piattaforme di scrittura automatica e assistenti vocali stanno prendendo sempre più spazio, il rischio è che la riservatezza finisca in secondo piano, travolta dalla corsa alla tecnologia e alla raccolta massiccia di dati.
## **Intelligenza artificiale e privacy, un equilibrio fragile**
Ogni giorno, i **sistemi di intelligenza artificiale** gestiscono montagne di dati: indirizzi email, messaggi personali, gusti e preferenze, persino informazioni bancarie. Un flusso continuo che, come ricorda il **Garante per la privacy** italiano, deve essere “ridotto al minimo indispensabile, così da non far circolare più informazioni di quelle davvero necessarie”. Antonello Soro lo sintetizza in modo chiaro: “Meno dati si usano, maggiore è la protezione”. Negli ultimi mesi questo principio è stato ripetuto anche a Bruxelles.
Non a caso, la stessa **Commissione europea**, nelle linee guida diffuse a ottobre scorso, ha messo in chiaro che “l’uso dei dati personali nei sistemi AI deve rispettare criteri di proporzionalità e minimizzazione”. Alle aziende viene chiesto di spiegare in modo semplice e trasparente ai cittadini cosa raccolgono e perché lo fanno.
## **Quando i dati diventano troppi**
Uno studio del **Politecnico di Milano** mostra come una singola conversazione con un chatbot possa produrre fino a 200 informazioni identificative sull’utente. Basta poco: un nome, il riferimento al luogo di lavoro o una domanda su temi sanitari. E se questi dettagli si accumulano o circolano senza controlli severi, possono creare profili precisi – spesso senza che gli interessati lo sappiano davvero.
“Ci preoccupa molto che dati sensibili finiscano nelle mani sbagliate o vengano usati per scopi diversi da quelli dichiarati”, ammette Agostino Ghiglia del **Garante Privacy**. Per questo ora si punta su due fronti: rendere più chiare le politiche delle aziende e aumentare la consapevolezza degli utenti.
## **L’utente al centro: capire per scegliere**
Oggi i moduli per il consenso e le informative sulla privacy sono ovunque. Spesso però finiscono nascosti in fondo alle pagine o dietro fastidiose finestre pop-up. Le associazioni dei consumatori denunciano che pochi leggono davvero cosa accade ai loro dati. “Molti cliccano ‘accetta’ senza capire bene cosa significa”, spiega Massimiliano Dona dell’**Unione Nazionale Consumatori**. “Serve rendere le scelte più semplici e chiare: quali dati sono davvero necessari per il servizio? Quali invece si possono evitare?”
Un esempio pratico arriva da alcune startup italiane nel settore AI, come MindfulTech a Torino: “Chiediamo solo l’essenziale – nome e mail per iscriversi – e non conserviamo nulla di sensibile”, racconta Marco Bellini, CEO dell’azienda.
## **Normative più dure all’orizzonte**
Sul piano delle regole, l’**Autorità garante per la protezione dei dati personali** sta lavorando a linee guida più severe. Dopo gli avvertimenti rivolti la scorsa primavera ai colossi internazionali – da OpenAI a Google – ora l’obiettivo è stringere sui tempi delle notifiche e rendere automatiche alcune procedure per cancellare i dati non necessari.
Il nuovo **AI Act europeo**, atteso entro la primavera 2026, prevede sanzioni pesanti per chi non rispetta il principio della minimizzazione. Le aziende dovranno dimostrare con fatti come limitano le informazioni raccolte e quali misure mettono in campo per proteggerle.
## **Tra innovazione e diritti fondamentali**
La domanda resta: come mettere insieme le enormi possibilità dell’**intelligenza artificiale** con il rispetto dei diritti di chi usa questi strumenti? Gli esperti indicano una strada chiara: trasparenza nei processi, scelte consapevoli degli utenti e responsabilità da parte di chi progetta e gestisce i sistemi.
“La vera sfida”, conclude il giurista Giovanni Ziccardi, “è continuare a innovare senza perdere le garanzie minime. Solo così potremo fidarci davvero delle tecnologie che abbiamo tutti i giorni davanti”. E quella fiducia sarà probabilmente il banco di prova più importante nei prossimi anni dell’AI.