DeepSeek ha irrumpido con fuerza en el panorama de la inteligencia artificial, destacándose por ser una alternativa más económica y eficiente a los modelos de referencia occidentales como Gemini o ChatGPT a pesar de ofrecer una potencia similar. Su capacidad de procesamiento a partir de hardware mucho más desactualizado ha sorprendido a analistas, usuarios y expertos, redefiniendo el mercado y planteando nuevos retos a los gigantes de la industria. Sin embargo, sus evidentes sesgos y censura impuestos por el gobierno chino han generado una ola de reacciones encontradas en medios y plataformas digitales.
Esto de DeepSeek es como viajar al pasado y departir con un comisario político de la URSS. pic.twitter.com/fLmAmo2GVA
— Díaz Villanueva (@diazvillanueva) January 28, 2025
Una IA con potencial, pero con restricciones
DeepSeek se ha desarrollado en tiempo récord y con recursos mucho más limitados que los de las IA convencionales. Aun así, la apuesta china está a la par con los modelos más punteros de Silicon Valley. Sin embargo, su funcionamiento refleja una alineación estricta con la política oficial del Partido Comunista Chino. Temas como la masacre de Tiananmén, la independencia de Taiwán o la figura del presidente Xi Jinping son esquivados o redirigidos por la IA, lo que evidencia un control sobre la información que ofrece.
Expertos en código han descubierto que la inteligencia artificial está efectivamente alterada, modificando el contenido de sus mensajes en tiempo real cuando estos van contra los intereses o relatos de la dictadura.
got ya!
— Michael Rumiantsau (@MicRum) January 27, 2025
DeepSeek training dataset contains information about the Tiananmen Square massacre, but the chat UI is hardcoded to replace the answer every time the protest is mentioned. pic.twitter.com/CzkqGVGf4c
DeepSeek no solo evita preguntas incómodas para el régimen, sino que también niega hechos documentados y promueve narrativas alineadas con la propaganda oficial.
Sesgo ideológico
Además de la censura, la herramienta de procesamiento de lenguaje muestra un claro sesgo ideológico. Ante cuestiones relacionadas con derechos humanos en China o críticas hacia el gobierno, el modelo niega sistemáticamente cualquier acusación de abusos y las califica como «desinformación extranjera». La imposición de la perspectiva política del gigante asiático genera serias preocupaciones sobre como un modelo de IA con tales restricciones supone para la difusión libre de información.
Reacciones
En redes sociales, las reacciones han sido inmediatas, con los usuarios de X expresando preocupación por el nivel de censura y manipulación en DeepSeek. Mientras algunos critican que la IA refuerza la propaganda china, otros debaten sobre la viabilidad de modelos de inteligencia artificial que operan bajo estrictos controles gubernamentales.
Si DeepSeek, la IA china, manipula y censura sus resultados, ¿qué te hace pensar que Chat GPT y otras IA occidentales no hacen lo mismo? Es tecnología controlada y filtrada, un nuevo medio de moldear la opinión pública (que las consultará pensando ingenuamente que son objetivas).
— Acaimo González (@acaimo) January 28, 2025
Esto abre a su vez un debate sobre los actuales modelos de corte occidental. Si bien es cierto que no existen indicios de censura o sesgo evidente en su funcionamiento, el caso de DeepSeek levanta dudas; pueden existir alteraciones más sutiles de información en modelos como Gemini o ChatGPT.
Por su parte, y a pesar de las críticas, DeepSeek sigue expandiéndose, lo que plantea un reto crucial: garantizar que las inteligencias artificiales sean accesibles sin estar sujetas a influencias políticas. La batalla por el futuro de la IA no solo será tecnológica, sino también una lucha por la libertad de información y la neutralidad ideológica.