Dubtes sobre la seguretat de DeepSeek IA: anàlisi, riscos i recomanacions

Darrera actualització: 11 maig, 2025
  • DeepSeek democratitza l'accés a IA avançada, però planteja riscos de privadesa i censura per la seva gestió a la Xina.
  • Experts i autoritats destaquen vulnerabilitats tècniques, problemes de compliment legal i possibilitat de manipulació o ús indegut.
  • Es recomana no compartir dades sensibles, executar el model localment sempre que sigui possible i exigir la màxima transparència legal i ètica.

Dubtes sobre la seguretat de DeepSeek IA

DeepSeek, el model d'intel·ligència artificial (IA) desenvolupat a la Xina, ha provocat un profund debat a nivell global sobre la seva seguretat, privadesa i les implicacions ètiques del seu ús. Encara que aplaudit pels seus avenços tecnològics i per posar a l'abast de tothom una IA de codi obert i alt rendiment, DeepSeek es troba sota un escrutini creixent a causa de preocupacions que abasten des de la gestió de dades fins a la censura política, passant per les vulnerabilitats detectades a la seva infraestructura i el compliment de regulacions internacionals.

Gràcies a la seva naturalesa disruptiva ia la seva ràpida adopció tant en entorns acadèmics com empresarials, DeepSeek ha aconseguit posicionar-se com una alternativa sòlida davant de gegants com OpenAI i el seu conegut ChatGPT. Tot i això, el fet que sigui una IA de codi obert, la seva política de gestió de dades i la influència que pot exercir el govern xinès sobre la plataforma han incrementat la desconfiança dels usuaris, organismes reguladors i experts en ciberseguretat a tot el món.

Per què DeepSeek és una IA diferent?

Dubtes sobre la seguretat de DeepSeek IA

DeepSeek ha suposat un salt qualitatiu al terreny de les intel·ligències artificials generatives per dos motius principals. Primer, la seva naturalesa de codi obert ha democratitzat l'accés a tecnologies molt avançades, permetent que tant particulars com empreses puguin descarregar, auditar, modificar i executar el model segons les necessitats pròpies. Això contrasta amb el model tancat i restrictiu d'altres grans actors de la indústria, cosa que ha estat molt valorada per la comunitat tecnològica.

Segon, el seu baix cost d'entrenament i desplegament ha trencat paradigmes, facilitant que més organitzacions puguin experimentar i construir solucions sobre IA sense dependre de grans inversions. En termes de rendiment, DeepSeek competeix fins i tot amb models tancats de referència, situant-se a l'alçada de les millors propostes comercials. Tot i això, aquests beneficis es veuen enfosquits per una sèrie de riscos: l'obertura del codi facilita el desenvolupament d'aplicacions legítimes, però també potencia l'ús indegut per a fins delictius, manipulació de la informació o ciberatacs.

A més, l'hegemonia tecnològica i el control estatal que exerceix la Xina sobre empreses estratègiques han alimentat el temor que DeepSeek es pugui utilitzar com a eina d'influència internacional, ja sigui mitjançant la recopilació massiva de dades, la censura de certs temes o com a vector de propaganda estatal.

Gestió i emmagatzematge de dades: privadesa en dubte

Dubtes sobre la privadesa de DeepSeek IA

Un dels aspectes més controvertits és la gestió de la informació personal a DeepSeek. Tal com han assenyalat diversos experts i organismes reguladors a nivell internacional, incloent l'Organització de Consumidors i Usuaris (OCU) i autoritats europees, hi ha una forta preocupació sobre la política de privadesa i la ubicació dels servidors de la plataforma.

  • Totes les dades recopilades, inclosos missatges, fitxers, historials de xat, enregistraments de veu, patrons de teclat i imatges, s'emmagatzemen i processen en servidors ubicats a la Xina.
  • L'empresa admet que pot compartir aquesta informació amb proveïdors, socis comercials i autoritats, especialment quan hi hagi una obligació legal de fer-ho segons la legislació xinesa.
  • Es recopilen dades explícites i automatitzades: des de dades que proporcioneu en crear el compte (nom, correu, telèfon, data de naixement, contrasenya), fins a informació sobre el vostre dispositiu, sistema operatiu, idioma, hàbits d'ús, mètodes de pagament i dades obtingudes a través de tercers (per exemple, quan us registreu mitjançant Google o Apple).

La llei xinesa permet l'accés estatal a totes aquestes dades, sense garanties específiques de transparència, proporcionalitat o notificació als usuaris afectats. Això contrasta amb les exigències del Reglament General de Protecció de Dades (RGPD) europeu, que ha motivat l'obertura d'investigacions i el bloqueig temporal de DeepSeek a països com Itàlia, Irlanda, França i Corea del Sud. En molts casos, la companyia no ha designat un representant legal a la Unió Europea, ni ha implementat les salvaguardes necessàries per processar dades d'usuaris europeus.

Addicionalment, la política de privadesa de DeepSeek presenta opacitats: no detalla si les dades s'utilitzen per crear perfils o prendre decisions automatitzades, no defineix períodes clars de conservació, ni explica les vies que tenen els usuaris per exercir els drets d'accés, rectificació o eliminació de dades.

En ser consultats diversos experts en intel·ligència artificial i privadesa, la majoria coincideix que, encara que la recol·lecció massiva de dades és comuna al sector i també la realitzen plataformes com ChatGPT, Claude, Gemini o Grok, la ubicació física i legal dels servidors a la Xina afegeix un risc específic de ciberatacs i accés per part de les autoritats xineses que és difícil de controlar des d'Occident.

Censura, alineació de valors i control governamental

Censura a DeepSeek IA

Un altre motiu de preocupació rau en l'existència de filtres de censura i alineament ideològic dins del propi model de DeepSeek. El disseny del sistema incorpora diversos nivells de filtres per evitar respostes que puguin resultar sensibles o contràries als interessos del partit governant xinès. Temes com les protestes de Tiananmen, la independència de Taiwan, drets humans o qüestions geopolítiques conflictives solen estar bloquejats o reben respostes alineades amb la narrativa oficial xinesa.

Aquest mecanisme compleix dues funcions: per una banda, limita els riscos legals del desenvolupador al seu país d'origen, però de l'altra, converteix DeepSeek en una potencial eina de propaganda i manipulació informativa.Diferents anàlisis d'experts internacionals han demostrat que és relativament senzill burlar aquestes restriccions mitjançant tècniques de jailbreaking, cosa que evidencia que els controls de censura no són infal·libles i poden ser explotats tant per sortejar els filtres com per introduir biaixos addicionals, manipulació de la narrativa o desinformació.

Vulnerabilitats tècniques i atacs massius: és segur fer servir DeepSeek?

Vulnerabilitats de seguretat a DeepSeek IA

La seguretat de DeepSeek ha estat posada a prova des de les primeres setmanes de funcionament. El model ha estat víctima de múltiples atacs cibernètics a gran escala (DDoS), cosa que ràpidament va obligar els responsables a limitar el registre de nous usuaris ia reforçar les seves mesures internes de protecció.

Tot i això, una de les troballes més alarmants ha vingut de la mà d'analistes independents i empreses de ciberseguretat com KELA: DeepSeek és vulnerable al jailbreaking, una tècnica que permet burlar els filtres de seguretat del model i forçar respostes que normalment estarien prohibides.

Durant proves controlades, es va aconseguir que DeepSeek generés instruccions detallades per desenvolupar programari maliciós (malware), ransomware, així com la fabricació d'explosius i substàncies tòxiques. Aquests resultats revelen que les barreres actuals de seguretat són insuficients per evitar usos delictius o perillosos, cosa que representa un risc real tant per a usuaris particulars com per a empreses.

Addicionalment s'han identificat debilitats tècniques a les aplicacions mòbils per a Android i iOS, relacionades amb la transmissió de dades a servidors no xifrats, cosa que podria exposar informació sensible a ciberdelinqüents. Davant d'aquesta situació, organismes reguladors de països com Corea del Sud han bloquejat temporalment l'aplicació fins que es garanteixin estàndards mínims de protecció i s'adaptin a la normativa local.

Riscos específics per a empreses i governs

Riscos de DeepSeek IA per a empreses i governs

L'escenari de riscos es multiplica quan empreses o organismes governamentals consideren lús de DeepSeek. Més enllà de la inquietud sobre la privadesa de les dades personals, se suma el perill de transferir informació confidencial, secrets industrials o dades sensibles a una infraestructura situada a la Xina i subjecta a extraterritorialitat legal. A països com els Estats Units, l'exèrcit i diverses agències han prohibit expressament instal·lar DeepSeek en dispositius corporatius o governamentals, davant la possibilitat que les dades puguin ser transferides a autoritats xineses.

Experts com Johna Till Johnson, Bradley Shimmin i Mike Mason, consultats per portals tecnològics internacionals, recomanen no utilitzar DeepSeek en contextos on es manegi informació crítica. Si per motius tècnics cal accedir al model, se suggereix fer-ho mitjançant implantacions locals oa través de proveïdors d'allotjament de confiança, com AWS, Microsoft Azure o plataformes equivalents a Europa i els Estats Units. D'aquesta manera, es pot limitar la transferència de dades fora de la jurisdicció desitjada.

Addicionalment, la comunitat internacional observa amb preocupació la possible integració de DeepSeek a l'àmbit militar xinès. Models d'IA com aquest es poden fer servir per analitzar escenaris bèl·lics, processar ingents quantitats d'informació tàctica i estratègica, o fins i tot participar en la presa de decisions automatitzades. No obstant això, manca transparència sobre les mesures de seguretat implementades, així com sobre possibles dependències tecnològiques i vulnerabilitats a ciberatacs, cosa que podria comprometre no només la privadesa sinó fins i tot l'estabilitat operativa d'infraestructures crítiques.

Comparativa de riscos: DeepSeek davant d'altres IA

Resulta imprescindible contextualitzar els dubtes que suscita DeepSeek en un marc més ampli, comparant-lo amb altres models d'IA líders al mercat. Si bé és cert que la majoria de chatbots avançats recullen i processen grans volums de dades, el que diferencia DeepSeek és:

  • Ubicació i jurisdicció legal dels servidors: A la Xina, amb les conseqüents obligacions de cessió de dades a l'Estat.
  • Opacitat en els processos danonimització, perfilat i drets ARCO (accés, rectificació, cancel·lació i oposició).
  • Vulnerabilitat a atacs de jailbreaking i enginyeria social: En proves comparatives, DeepSeek ha demostrat més facilitat per ser vulnerada en certs escenaris, encara que models com Google Gemini 2.0 Flash i OpenAI o1-preview també han fallat en diverses proves de seguretat automatitzada.
  • Censura ideològica explícita i alineament amb els interessos polítics del país desenvolupador.

Tot i aquestes diferències, no cal perdre de vista que altres IA de referència, com ChatGPT, també emmagatzemen grans quantitats de dades i les comparteixen amb tercers (proveïdors, socis comercials, autoritats legals), si bé sota marcs reguladors més estrictes i transparents a Europa i Amèrica. Per tant, sempre es recomana la prudència i el sentit comú en compartir informació sensible, sigui quina sigui la plataforma d'IA utilitzada.

Regulació internacional i resposta institucional

L?aparició de DeepSeek ha accelerat el debat sobre la necessitat de noves regulacions, consensos internacionals i marcs d?auditoria independents per a la intel·ligència artificial. Ja hi ha casos on organismes reguladors han actuat de forma contundent:

  • Itàlia, Irlanda i França han obert investigacions específiques sobre DeepSeek i n'han bloquejat o limitat l'ús, sol·licitant informació clara sobre el tractament i la ubicació de les dades de ciutadans europeus.
  • Corea del Sud va suspendre temporalment les descàrregues i va exigir l'adaptació de la política de privadesa a la seva normativa nacional, després de detectar debilitats en la protecció d'informació personal i errors en la verificació d'edat.
  • A Espanya, l'OCU ha demanat a l'Agència Espanyola de Protecció de Dades que investigui i, si escau, sancioni les empreses responsables, per no complir les garanties exigides a la transferència internacional de dades ni sol·licitar adequadament el consentiment, sobretot en el cas de menors.

Davant el buit legal a molts països, els experts insten empreses, administracions i usuaris a extremar les precaucions. S'aconsella analitzar de forma contínua els riscos, establir estratègies de mitigació com l'entrenament i l'execució local del model, i exigir sempre la màxima transparència en la gestió de les dades i en l'aplicació de filtres de contingut.

Recomanacions per a un ús responsable de DeepSeek

Si, malgrat els riscos identificats, decideixes utilitzar DeepSeek, hi ha certs consells per minimitzar l'exposició:

  • Evita compartir dades confidencials o informació personal sensible en xats o consultes al model, especialment en fer servir la versió al núvol o web oficial.
  • Considera la possibilitat de executar DeepSeek localment al teu propi equip o servidor, limitant així l'enviament de dades a la Xina (tot i que això pot requerir coneixements tècnics i té limitacions de recursos en ordinadors domèstics).
  • Per a empreses, és recomanable emprar proveïdors d'allotjament fiables al teu país o regió (com AWS, Azure o plataformes certificades a la UE), cosa que desvia la transferència i emmagatzematge de dades fora de la Xina.
  • realitza proves de seguretat constants i actualitza les barreres de protecció contra jailbreaking i ciberatacs, atès que els models d'IA evolucionen i poden incorporar vulnerabilitats en cada actualització.
  • Supervisa i revisa regularment les polítiques de privadesa i termes de servei, ja que poden canviar amb el temps i afectar el nivell de protecció de la teva informació.

En tots els casos, la màxima dels experts és no deixar-se portar únicament per la gratuïtat o l'aparent accessibilitat del model. La seguretat i la privadesa de les dades han de ser sempre prioritàries, especialment quan es tracta de tecnologies que evolucionen tan ràpid i que poden veure's sotmeses a pressions externes oa canvis regulatoris bruscs.

Perspectiva ètica i social: la doble cara de la IA de codi obert

Aprofundint en el debat ètic, l'auge de plataformes de codi obert com DeepSeek posa sobre la taula un dilema de difícil solució: com equilibrar la innovació i democratització de la tecnologia amb la protecció dels drets fonamentals?

D'una banda, l'accés obert impulsa la investigació, permet a petites empreses competir amb grans corporacions i incrementa la transparència tècnica en facilitar l'escrutini del codi i els processos d'entrenament. Al mateix temps, però, elimina moltes de les barreres de control que dificulten l'ús indegut, la manipulació informativa o el desenvolupament d'eines d'atac automatitzades.

Diversos experts han subratllat que la manca de consens internacional sobre la governança d'IA i l'absència d'auditories independents robustes deixen models com DeepSeek en una zona grisa ètica i legal. La rapidesa amb què es desenvolupen i despleguen nous models fa que, en molts casos, la regulació arribi tard i no pugui prevenir els riscos en temps real.

A nivell social i geopolític, l'expansió de DeepSeek planteja interrogants addicionals. Si bé es pot convertir en una eina d'inclusió i progrés educatiu o científic, la seva explotació per a la guerra cibernètica, la manipulació de la realitat o la militarització de la IA reforça la necessitat de mecanismes de supervisió global i responsabilitat compartida.

Finalment, el desenvolupament d'IA a la Xina i el seu ús en l'àmbit de defensa nacional, sense controls externs ni validacions internacionals, augmenta la preocupació sobre el paper que podria exercir DeepSeek en crisis d'informació futures, conflictes armats o campanyes de desinformació massiva.

La història de DeepSeek il·lustra a la perfecció el equilibri delicat entre l'avenç tecnològic i la protecció de valors fonamentals. Amb una trajectòria plena de polèmiques reguladores, dilemes ètics, problemes de seguretat i grans promeses d'innovació, DeepSeek ha esdevingut el paradigma dels reptes contemporanis de la intel·ligència artificial. El futur de la IA de codi obert, i especialment de plataformes desenvolupades en països amb legislacions opaques o restrictives, dependrà en bona mesura de la pressió exercida per la societat, els reguladors internacionals i els mateixos usuaris a la recerca d'una confiança, transparència i respecte als drets digitals més grans.