L’IA che mente? DeepSeek Italia nel mirino delle autorità

DeepSeek Italia mente

Nel mirino c’è DeepSeek Italia, un modello IA cinese avanzatissimo, che promette conversazioni naturali, assistenza in tempo reale e un’enorme capacità di elaborazione. Tutto bello, se non fosse per un dettaglio non da poco: l’IA… potrebbe dire bugie.

Advertisements

Cosa sta succedendo a DeepSeek Italia?

L’AGCM (Autorità Garante della Concorrenza e del Mercato) ha avviato un’indagine contro DeepSeek Italia per presunte pratiche scorrette nei confronti dei consumatori italiani. Il motivo?

Advertisements

DeepSeek non avverte in modo chiaro gli utenti che le risposte fornite dall’IA possono essere false, inesatte o fuorvianti.

E non è solo un problema tecnico. È una questione legale, di trasparenza e tutela del consumatore. Secondo l’AGCM, mancano avvisi immediati e visibili che informino l’utente del rischio di “allucinazioni” — termine tecnico che indica quando l’IA si inventa cose.

DeepSeek Italia mente

E non è la prima segnalazione… DeepSeek Italia mente

A gennaio, il Garante per la Privacy italiano aveva già imposto il blocco dell’app DeepSeek sugli store digitali, per mancata conformità al GDPR e opacità nella gestione dei dati personali.

Advertisements

E poco dopo, Altroconsumo, insieme ad altre associazioni europee, ha presentato una denuncia per i potenziali rischi legati a sicurezza e privacy.

Ora però la palla passa all’AGCM, che punta il dito non solo sulla protezione dei dati, ma anche su come DeepSeek comunica (o meglio, non comunica) i suoi limiti all’utente.

Cosa rischia DeepSeek Italia?

Se l’indagine porterà a conclusioni sfavorevoli, DeepSeek potrebbe essere costretta a:

  • Modificare radicalmente il modo in cui informa gli utenti
  • Pagare sanzioni economiche anche importanti
  • Oppure — scenario più estremo — essere esclusa dal mercato italiano

E la decisione italiana potrebbe aprire la strada ad azioni simili in altri Paesi europei.

Ma quindi… dobbiamo preoccuparci?

Non è questione di panico, ma di consapevolezza. Le IA generative — che siano DeepSeek, ChatGPT, Gemini o Claude — non hanno ancora una vera coscienza del vero e del falso. Sono basate su probabilità, pattern e testi preesistenti. A volte funzionano alla perfezione. Altre, semplicemente… inventano.

Il problema nasce quando queste “invenzioni” sembrano credibili e l’utente non viene avvisato del rischio. Ecco perché l’Italia si sta muovendo: per chiedere chiarezza, trasparenza e correttezza verso chi usa questi strumenti.

Il futuro dell’IA? Sotto esame

La vicenda DeepSeek è solo la prima di una lunga serie. Con l’arrivo dell’AI Act europeo, le regole saranno ancora più rigide. E i modelli IA dovranno essere sempre più chiari, affidabili e sicuri.

Stiamo entrando in una nuova fase: quella dove l’IA non basta che funzioni bene. Deve anche comportarsi bene.

Info Icon
Hai trovato utile questo articolo?

Perché non condividerlo sui social Facebook, Instagram o iscriverti al canale YouTube di infotelematico.com per avere altri contenuti interessanti. Ci puoi trovare anche su Google News!

Advertisements