DeepSeek: avances, bloqueos y la sombra del sesgo chino
China avanza en la inteligencia artificial, pero su origen genera desconfianza global; Estados Unidos, Italia y otros países ya restringieron su uso por motivos de seguridad y privacidad
La llegada de DeepSeek sacudió al mundo tecnológico. Hace pocos días se pensaba con certeza que, para crear una inteligencia artificial audaz y eficiente como GPT, se necesitaban alrededor de mil millones de dólares. Pero DeepSeek demostró que con seis millones se podía lograr. Un nuevo modelo económico en relación con la IA se desató. Sin embargo, su procedencia china causó choques y distanciamientos por parte de ciertos países e instituciones, a tal punto que su uso fue bloqueado y prohibido.
Este fenómeno responde a la preocupación de varios países sobre los datos que proporcionan a la inteligencia artificial y su destino final. “La idea de que toda esta información entra al servicio chino es siempre un temor”, explica para LA NACION Patricio Carmody, especialista en relaciones internacionales. “En definitiva, hay dos grandes inquietudes: a nivel personal, el uso de los datos y la privacidad, y a nivel de Estado, la seguridad y que la información sensible de los gobiernos llegue a manos chinas”, continúa.
Estados Unidos encabeza la lista que prohibió el uso de la IA. Si bien no hay una regulación que involucre a todo el país, el estado de Texas no permite que esta inteligencia artificial se utilice en dispositivos asociados con el gobierno y su actividad. “Texas no permitirá que el Partido Comunista Chino se infiltre en las infraestructuras críticas de nuestro estado a través de aplicaciones de inteligencia artificial y redes sociales que recopilan datos”, afirmó el gobernador republicano de Texas, Greg Abbott, en un comunicado.
La Marina de Estados Unidos tampoco puede hacer uso de DeepSeek en ningún tipo de capacidad debido a posibles problemas éticos y de seguridad relacionados con el origen y el uso del modelo, según informa CNBC. La NASA, en esta misma línea, prohibió a sus empleados hacer uso de la inteligencia artificial china. Un comunicado interno les explicó a sus integrantes que los servidores de DeepSeek operan fuera de Estados Unidos, lo que pone en riesgo la seguridad y privacidad nacional.
En este marco, dentro del Pentágono, empleados estaban usando la tecnología asiática sin previa autorización, lo que levantó preocupaciones entre oficiales de seguridad y desembocó en su bloqueo, de acuerdo con Bloomberg. En el Congreso se avisó que DeepSeek todavía se encuentra bajo estudio de investigación. En este contexto, temen que esta IA sea un nexo para manipular datos y software. Consecuentemente, se restringió su uso en todos los dispositivos de la institución.
Más allá de Estados Unidos, Italia fue el primer país en prohibir DeepSeek el pasado 30 de enero. Según informa Reuters, el Garante —la autoridad de protección de datos italiana— le solicitó información a la startup china sobre las políticas de privacidad, preguntando qué datos personales se recogen, de qué fuentes, con qué fines, sobre qué base jurídica y si se almacenan en China. DeepSeek no emitió ninguna justificación inmediata, y la tecnología quedó apartada para proteger a los italianos.
“El caso de Italia es interesante ya que siempre mantienen la misma línea de actuar, sin importar el origen de la tecnología”, analiza Carmody. “En otra ocasión, el Gobierno ya había bloqueado de manera temporal ChatGPT —que es norteamericano— bajo la alarma de los datos y la privacidad. Esta es una de las mayores preocupaciones que convoca a Europa en general”, agrega.
Taiwán, que enfrenta una gran rivalidad histórica con China, también prohibió el uso de DeepSeek. La medida implica a todos los empleados que trabajan en agencias del gobierno, así como a las escuelas y empresas públicas. “Al ser un producto chino, puede peligrar una filtración total de información de seguridad del Estado de Taiwán. Esa posibilidad para ellos es muy peligrosa”, afirma Carmody.
Por su parte, las autoridades de Australia decidieron prohibir el uso de DeepSeek en todos los dispositivos del Gobierno. Según explicó Tony Burke, ministro de Asuntos Internos, la decisión se tomó luego de que las agencias de inteligencia y seguridad nacional determinaran que la inteligencia artificial china representa un riesgo inaceptable para la tecnología del gobierno australiano. Sin embargo, esta normativa no limita a los ciudadanos a usarla con fines personales.
El sesgo chino, una preocupación a nivel personal
Si bien muchos gobiernos dejan de lado la prohibición de DeepSeek para uso personal, esta tecnología levantó grandes alarmas debido a la evidencia del sesgo chino en sus respuestas. Un claro ejemplo: al preguntarle por Xi Jinping, actual dictador chino, la inteligencia artificial responde que esa información está “más allá de su capacidad” y que “hablemos de otra cosa”.
Lo mismo sucede cuando se le pregunta acerca de la influencia del gobierno chino en el desarrollo del producto o sobre eventos históricos importantes, como las protestas estudiantiles que fueron reprimidas en la plaza de Tiananmen en 1989 o la problemática de Taiwán, la democracia que la potencia asiática reclama como propia.
El riesgo, entonces, recae en el nivel de influencia que puede tener DeepSeek para propagar desinformación e insertar implícitamente propaganda china en sus respuestas de manera planeada. Jack Stubbs, director de inteligencia de Graphika, una empresa de investigación digital, aseguró para The New York Times que China, experta en utilizar nuevas tecnologías para sus campañas, es capaz de movilizar a una serie de actores que cultiven narrativas que favorezcan al país en relación con Estados Unidos.
Al igual que GPT o Gemini, DeepSeek es un modelo de lenguaje entrenado con una amplia cantidad de información. “El problema de los sesgos lo van a tener todos los grandes sistemas de inteligencia artificial. Al utilizar enormes volúmenes de datos y de forma abstracta, es casi imposible entender y predecir las generalizaciones que podría llegar a realizar”, asegura para LA NACION Soledad Agüero, directora de Relacionamiento Digital y Business Intelligence Big Data en Movistar. “Ahora bien, si el input que recibe el modelo está plagado de información sesgada, el resultado podría ser muy alarmante”, confiesa.