Por Naveen Athrappully
OpenAI está buscando contratar a un candidato para el puesto de «Jefe de Preparación» para abordar los peligros planteados por la proliferación de la inteligencia artificial (IA), dijo el director ejecutivo Sam Altman en una publicación del 27 de diciembre en X.
OpenAI despertó el interés público inicial en las interacciones de los chatbots de IA con el popular lanzamiento de ChatGPT en noviembre de 2022.
«Este es un papel fundamental en un momento importante; los modelos están mejorando rápidamente y ahora son capaces de hacer muchas cosas maravillosas, pero también están empezando a presentar algunos desafíos reales», escribió Altman.
«El impacto potencial de los modelos en la salud mental fue algo de lo que vimos un adelanto en 2025; ahora estamos viendo que los modelos se vuelven tan buenos en seguridad informática que están comenzando a encontrar vulnerabilidades críticas».
La publicación se produce cuando OpenAI enfrenta una serie de demandas sobre el tema de la salud mental. En noviembre, se presentaron siete denuncias contra la empresa en California, alegando que su chatbot ChatGPT envió a tres personas a “madrigueras de conejos” delirantes mientras animaba a otras cuatro a suicidarse.
Según las demandas, las cuatro muertes ocurrieron luego de la conversación de las víctimas con ChatGPT sobre el suicidio. En algunos casos, el chatbot idealizaba el suicidio y aconsejaba a las víctimas sobre formas de llevar a cabo el acto.
En cuanto a la seguridad informática, múltiples informes han señalado los riesgos que plantean las IA.
Por ejemplo, un informe de mayo de McKinsey & Company advirtió que los modelos de IA capaces de detectar fraudes y proteger redes también pueden inferir identidades, exponer información confidencial y volver a ensamblar detalles eliminados.
El informe Estado de la resiliencia de la ciberseguridad 2025 de Accenture advirtió que el 90 por ciento de las empresas no están lo suficientemente modernizadas para defenderse contra las amenazas impulsadas por la IA.
En su Informe de inteligencia sobre amenazas del 27 de agosto, la empresa de inteligencia artificial Anthropic, que fabrica Claude AI, dijo que la IA estaba siendo utilizada como arma para llevar a cabo sofisticados delitos cibernéticos. En una operación, un pirata informático utilizó a Claude para infiltrarse en 17 organizaciones, y la IA se utilizó para penetrar redes, analizar datos robados y crear notas de rescate psicológicamente específicas.
En su publicación, Altman dijo que si bien OpenAI tiene una «base sólida» para medir las crecientes capacidades de sus modelos de IA, la compañía está entrando en un mundo donde se requiere una «comprensión y medición más matizadas» para evaluar cómo se podría abusar de estas capacidades y limitar las desventajas.
Éstas son preguntas “difíciles” y con muy pocos precedentes, afirmó. Muchas ideas que suenan bien tienen “casos extremos”, que son escenarios extremos o inusuales que ponen a prueba los límites de un sistema, como una IA.
«Este será un trabajo estresante y te lanzarás al fondo casi de inmediato», dijo Altman.
El puesto, con sede en San Francisco, requiere que la persona cree evaluaciones de capacidades, establezca modelos de amenazas y cree mitigaciones, según una publicación de OpenAI. El trabajo ofrece $555,000 en compensación anual más capital.
El jefe de preparación supervisará el diseño de mitigación en las principales áreas de riesgo, como la cibernética y la biológica, y garantizará que las salvaguardas sean «técnicamente sólidas, efectivas y alineadas con los modelos de amenazas subyacentes».
En septiembre, ChatGPT tenía 700 millones de usuarios activos semanales en todo el mundo.
Amenaza de IA
En un clip de entrevista publicado en X el 18 de agosto como parte del documental “Making God”, Geoffrey Hinton, un científico informático conocido como el “padrino de la IA”, dijo que estaba “bastante seguro” de que la IA generaría un desempleo masivo.
Sin embargo, «el riesgo sobre el que más he estado advirtiendo… es el riesgo de que desarrollemos una IA que sea mucho más inteligente que nosotros y simplemente tome el control», dijo Hinton. «Ya no nos necesitará».
En una publicación del 18 de julio de la Universidad Charles Darwin en Darwin, Australia, Maria Randazzo, académica de la facultad de derecho de la universidad, advirtió que la IA pone en riesgo la dignidad humana.
Si bien la IA es un triunfo de la ingeniería, no exhibe un comportamiento cognitivo; Estos modelos no tienen idea de lo que están haciendo ni por qué, dijo.
«No existe un proceso de pensamiento como lo entendería un ser humano, sólo reconocimiento de patrones despojados de encarnación, memoria, empatía o sabiduría», dijo Randazzo.
“A nivel mundial, si no anclamos el desarrollo de la IA en lo que nos hace humanos (nuestra capacidad de elegir, sentir, razonar con cuidado, empatía y compasión), corremos el riesgo de crear sistemas que devalúen y aplanen a la humanidad en puntos de datos, en lugar de mejorar la condición humana.
«La humanidad no debe ser tratada como un medio para un fin».




























