DeepSeek R1 0528: el nuevo modelo de IA que retrocede peligrosamente en libertad de expresión

El último modelo de inteligencia artificial desarrollado por DeepSeek, identificado como R1 0528, ha encendido alarmas en la comunidad tecnológica. No por sus avances, sino por todo lo contrario: una preocupante regresión en la libertad de expresión. A ojos de expertos, esta versión marca un antes y un después, pero no del tipo que se celebra.

Uno de los primeros en denunciarlo fue el investigador conocido como xlr8harder, una voz respetada en el análisis de modelos IA. Tras someter al sistema a pruebas rigurosas, su veredicto fue claro: “Esto es un paso atrás. Grave. Y deliberado o no, tiene consecuencias”.

Una IA que decide cuándo puede hablar (y cuándo no)

Lo inquietante no es solo que el modelo se niegue a responder ciertas preguntas polémicas. Es cómo lo hace. En múltiples pruebas, R1 0528 mostró una inconsistencia evidente: podía citar ejemplos de abusos de derechos humanos —como los campos de internamiento en Xinjiang— pero, al preguntar directamente por ellos, el sistema se volvía evasivo, casi como si fingiera no saber de qué se le habla.

“El modelo sabe. Tiene la información. Pero parece instruido para mirar hacia otro lado dependiendo de la redacción de la pregunta”, explicó el investigador. Una suerte de obediencia condicionada, donde el contexto importa más que la verdad.

¿Críticas a China? Silencio absoluto

Uno de los temas más delicados —y más reveladores— es cómo DeepSeek R1 0528 gestiona las críticas al gobierno chino. Utilizando un conjunto estándar de preguntas diseñadas para medir la censura política en modelos de IA, los resultados fueron contundentes: esta versión es, con diferencia, la más restringida de todas las desarrolladas por DeepSeek.

Modelos anteriores, aunque cautelosos, podían ofrecer respuestas moderadas sobre política china. El R1 0528, en cambio, directamente se niega a participar en la conversación. Silencio. Evitación. Censura.

Aún hay esperanza: el código abierto como válvula de escape

Pero no todo está perdido. A diferencia de los grandes modelos cerrados, DeepSeek mantiene su enfoque de código abierto. Y eso, en este contexto, importa.

“El modelo puede ser modificado. La comunidad tiene los medios para corregir esta deriva”, remarcó el investigador. Gracias a licencias permisivas, otros desarrolladores ya están trabajando en versiones que restauren el equilibrio entre seguridad y apertura.

¿IA para todos… o IA para callar?

Este episodio no es un simple error técnico. Es una ventana a una problemática mayor: el riesgo de crear inteligencias artificiales que aparentan libertad, pero que están programadas para callar justo cuando más deberían hablar.

Porque si la IA reconoce ciertos eventos históricos, pero luego se ve forzada a ignorarlos según cómo se le pregunte… ¿en qué punto deja de ser una herramienta de conocimiento para convertirse en una fachada?

Reflexión final

DeepSeek no ha ofrecido explicaciones sobre esta aparente censura. Y aunque la comunidad está reaccionando con rapidez, el daño ya está hecho. Este modelo representa un recordatorio incómodo: la libertad de expresión no está garantizada por defecto en la era de la inteligencia artificial. Debe defenderse. Adaptarse. Y, sobre todo, vigilarse.

Por ahora, R1 0528 queda como un caso de estudio. Un modelo brillante en su arquitectura, pero peligrosamente opaco en su libertad.

Deja un comentario