La seguridad de la IA, uno de los pilares fundacionales de OpenAI, está siendo socavada por decisiones corporativas que priorizan el crecimiento económico sobre la ética, según revela un nuevo informe titulado The OpenAI Files. Ex trabajadores de la organización denuncian una transformación preocupante: lo que nació como un proyecto con vocación humanitaria ahora parece orientarse hacia la lógica del lucro ilimitado.
De promesa altruista a ambición empresarial
OpenAI se fundó bajo una idea revolucionaria: desarrollar inteligencia artificial avanzada de manera segura y accesible para toda la humanidad. Un componente clave de esa visión era un límite explícito a los beneficios que podían obtener los inversores, asegurando que el progreso no se convirtiera en una herramienta para enriquecer a unos pocos.
Sin embargo, esa estructura de salvaguarda parece estar desmoronándose. Según los testimonios reunidos, la compañía estaría preparando un cambio drástico en sus estatutos que eliminaría esos límites, abriendo la puerta a una rentabilidad sin restricciones. Para muchos dentro de la empresa, este giro representa una traición directa a los valores fundacionales de seguridad y equidad.
“La promesa era hacer lo correcto cuando más importaba. Ahora que llegó ese momento, esa promesa ha quedado vacía”, declaró Carroll Wainwright, ex miembro del equipo de OpenAI.
Un liderazgo bajo sospecha
Gran parte de las críticas apuntan al CEO de la empresa, Sam Altman. Diversas fuentes internas lo acusan de fomentar una cultura organizacional basada en la manipulación y el oportunismo. Ilya Sutskever, cofundador de OpenAI, llegó a afirmar que Altman no debería liderar el desarrollo de una inteligencia artificial general, citando comportamientos “deshonestos y caóticos”.
Mira Murati, ex directora de tecnología, expresó preocupaciones similares. Según su testimonio, Altman recurría con frecuencia a tácticas que minaban la confianza, diciendo a cada persona lo que quería escuchar y luego despreciando cualquier resistencia interna. Esta dinámica, calificada por otros como “tóxica”, pone en riesgo la toma de decisiones responsables, especialmente en un terreno tan sensible como la seguridad de la inteligencia artificial.
¿Dónde queda la seguridad de la IA?
La preocupación más grave expuesta en The OpenAI Files es que la seguridad de la IA ha pasado a segundo plano dentro de la organización. Jan Leike, quien lideró el equipo encargado de supervisar los riesgos a largo plazo, renunció tras denunciar públicamente la falta de apoyo y recursos para su labor.
Leike afirmó que sus esfuerzos y los de su equipo eran sistemáticamente ignorados, ya que la dirección de la empresa priorizaba lanzamientos comerciales de alto perfil por encima de investigaciones críticas de seguridad.
Más alarmante aún fue el testimonio de William Saunders, ex ingeniero de OpenAI, quien declaró ante el Senado de EE. UU. que, durante meses, la seguridad interna fue tan débil que cientos de empleados tuvieron acceso irrestricto a modelos sensibles como GPT-4, con posibilidad real de filtración o robo.
Un llamado urgente para recuperar el rumbo
Los ex empleados no solo denuncian: también presentan propuestas concretas. Plantean una reforma estructural urgente para devolver a la organización sin fines de lucro el control sobre las decisiones más críticas, incluyendo un veto efectivo sobre cualquier medida que pueda comprometer la seguridad.
Entre las demandas figuran:
- Restaurar los límites a las ganancias privadas, tal como se prometió al inicio.
- Investigar a fondo el liderazgo actual, con foco en Sam Altman.
- Implementar supervisión externa real e independiente sobre las decisiones de seguridad.
- Establecer protección efectiva para denunciantes, sin represalias internas.
No se trata únicamente de conflictos internos ni de diferencias ideológicas. OpenAI está desarrollando una tecnología que podría moldear el futuro de la humanidad, y las voces que hoy alzan la alerta conocen esa realidad desde dentro.
“Cuando hay dinero en juego, las barreras internas se vuelven frágiles”, advirtió Helen Toner, ex miembro de la junta directiva.
¿Quién debe estar al mando del futuro?
Este conflicto pone sobre la mesa una pregunta esencial para toda la industria tecnológica: ¿quién debe liderar el desarrollo de tecnologías tan poderosas como la inteligencia artificial general? Y más importante aún: ¿cómo se garantiza que ese liderazgo actúe con responsabilidad, ética y visión a largo plazo?
Por ahora, el mensaje de los ex empleados de OpenAI es claro: la seguridad de la IA no puede ser una nota al pie en el camino hacia la dominación del mercado. Debe ser el eje central de toda estrategia tecnológica que aspire a transformar el mundo sin ponerlo en riesgo.