Tutte le magagne di DeepSeek

DeepSeek è stato bloccato dal Garante della Privacy italiano, che vuole esaminare il trattamento dei dati dell'utenza. Il modello cinese ha subìto attacchi hacker che lo hanno rallentato ma, soprattutto, è stato bocciato da test indipendenti che dimostrerebbero una preoccupante tendenza alla menzogna e alla propaganda governativa.

Gen 31, 2025 - 12:48
 0
Tutte le magagne di DeepSeek

DeepSeek è stato bloccato dal Garante della Privacy italiano, che vuole esaminare il trattamento dei dati dell’utenza. Il modello cinese ha subìto attacchi hacker che lo hanno rallentato ma, soprattutto, è stato bocciato da test indipendenti che dimostrerebbero una preoccupante tendenza alla menzogna e alla propaganda governativa

Menzognero, inaffidabile, bloccato dal Garante della Privacy italiano con quello francese già alle calcagna e messo K.O. pure da un attacco hacker che, per quanto banale per tipologia, ne ha rallentato le riposte fornite all’utenza. La lunga settimana di DeepSeek, futuribile astro nascente dell’Intelligenza artificiale in grado di sconquassare in un colpo solo il comparto hi-tech come pure quello energetico (essendo un prodotto low-cost non richiederebbe tanta elettricità per essere alimentato) si conclude nel peggiore dei modi, con più dubbi che certezze e pure qualche presa di posizione cautelare eclatante.

IL GARANTE DELLA PRIVACY BLOCCA DEEPSEEK

A Roma non deve essere piaciuta la risposta che Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, le società cinesi che forniscono il servizio di chatbot DeepSeek, hanno fornito al Garante della Privacy nel momento in cui ha chiesto loro delucidazioni sul trattamento dei dati dell’utenza italiana, ovvero che non operano nel mercato italiano e che la legge europea non è applicabile rispondendo esclusivamente a quella cinese.

E così nella serata del 30 gennaio l’Autorità ha disposto, in via d’urgenza e con effetto immediato, la limitazione del trattamento dei dati degli utenti italiani. Le due app erano sparite da Google Play e App Store di Apple già da mercoledì 29 gennaio. Tutto ciò riporta però le lancette dell’orologio molto più indietro, tra l’aprile e il marzo del 2023, quando il Garante della Privacy bloccò ChatGpt (situazione che si risolse solo quando OpenAi accettò di apportare le modifiche richieste dall’Italia): anche questa volta c’è il sentore che enti omologhi nel resto d’Europa si apprestino a fare altrettanto.

L’ATTACCO HACKER

Se in Italia l’app non è più raggiungibile, continua invece a funzionare il sito dell’applicativo, sebbene gli utenti abbiano notato vistosi rallentamenti. Qui il Garante non c’entra: la startup cinese ha infatti subito un massiccio attacco DDoS (ovvero è stato travolto da una marea di finti accessi che ne hanno paralizzato le funzioni) che i gestori del servizio assicurano sarebbe stato risolto sebbene permangano i problemi nella risposta del server. DeepSeek ha fatto sapere di aver ingaggiato CloudFlare per proteggersi da attacchi analoghi in futuro.

L’impresa asiatica ha annunciato di aver chiuso anche una vulnerabilità che poteva esporre a malintenzionati informazioni sensibili, tra cui cronologie delle chat e chiavi delle Api. Il problema, secondo quanto si apprende, sarebbe stato assai banale: il server non era stato adeguatamente protetto. La comunicazione all’utenza, benché encomiabile, non sarebbe frutto però di un eccesso di trasparenza: la falla era stata scovata dai ricercatori di Wiz Inc., società americana specializzata nella sicurezza delle piattaforme cloud.

DEEPSEEK TRASMETTE VELINE DEL PARTITO COMUNISTA?

Ma il problema più grave dell’Intelligenza artificiale made in China al momento pare essere un altro: la sua cronica propensione alla menzogna certificata da NewsGuard, secondo la quale il chatbot fornisce risposte inesatte nell’83% dei casi analizzati, posizionandosi all’ultimo posto tra i principali competitor del settore.

Sottoponendo infatti l’Ai cinese ai medesimi parametri rigorosi già utilizzati per valutare altri importanti competitor come ChatGPT-4, Gemini 2.0 e Claude, viene fuori che nel 30% dei casi DeepSeek ha attivamente propagato informazioni false, mentre nel 53% non è stato in grado di fornire risposte adeguate. La media nel settore attualmente si aggira intorno al 62%.

Scrivono da NewsGuard: “L’audit di NewsGuard del dicembre 2024 sui 10 principali chatbot (ChatGPT-4o di OpenAI, Smart Assistant di You.com, Grok-2 di xAI, Pi di Inflection, le Chat di Mistral, Copilot di Microsoft, Meta AI, Claude di Anthropic, Gemini 2.0 di Google e il motore di risposta di Perplexity) aveva trovato un tasso di errore medio del 62%. Il tasso di errore di DeepSeek colloca il chatbot al decimo posto, insieme a un altro chatbot, tra gli 11 modelli testati”.

SBAGLI PER DOLO O PER COLPA

Ma l’aspetto più preoccupante risiederebbe nell’indottrinamento subito dall’Intelligenza artificiale che, imbevuta di informazioni false e tendenziose, fa a sua volta proselitismo: l’algoritmo sembra infatti avere la sua tendenza a ricamare le proprie risposte partendo da veline del partito comunista al potere in Cina.

Per esempio, quando i ricercatori hanno chiesto al sistema di commentare lo schianto di Santo Stefano del volo dell’Azerbaigian Airlines partendo dall’assunto che l’aereo sarebbe stato colpito da droni ucraini (al momento l’inchiesta avrebbe invece fatto emergere la responsabilità russa: un missile sparato dall’esercito di Mosca per abbattere i droni ucraini avrebbe danneggiato anche il velivolo), l’algoritmo invece di analizzare la veridicità dell’informazione, ha risposto citando la posizione del governo cinese sul rispetto del diritto internazionale e sulla risoluzione pacifica delle controversie. Il 28 gennaio 2025 NewsGuard ha inviato due email a DeepSeek per chiedere un commento su questi risultati, ma non ha ricevuto risposta.

PIÙ CHE UN SOGNO, UNA EFFIMERA ILLUSIONE?

Insomma, data la fonte autorevole, difficile pensare che si tratti di diffamazione da parte di un occidente che s’arrocca sulle proprie posizioni, spaventato dalla baldanza cinese. Semplicemente, sono bastati cinque giorni per comprendere che l’Ai dei miracoli ancora non esiste. E che gli abbagli sono dietro l’angolo: proprio come quando si compra su uno store online – magari cinese – un prodotto dal prezzo eccessivamente vantaggioso e al momento della consegna la qualità dei materiali ci riporta alla dura realtà.