Estás leyendo
OpenAI busca experto en riesgos para modelos de IA

OpenAI busca experto en riesgos para modelos de IA

  • OpenAI ha creado el puesto de Head of Preparedness para anticipar y mitigar riesgos extremos asociados al desarrollo de modelos avanzados de inteligencia artificial.
OpenAI busca experto en riesgos para modelos de IA

OpenAI ha abierto una vacante para un puesto poco habitual en el sector tecnológico: un  responsable de preparativos ante riesgos extremos derivados de la inteligencia artificial . El anuncio, realizado por Sam Altman a través de su cuenta en X, describe el rol como una figura clave para anticipar y mitigar los posibles efectos nocivos de los modelos avanzados de IA, incluyendo amenazas a la ciberseguridad y consecuencias sobre la salud mental.

Según la oferta publicada, el nuevo Head of Preparedness deberá liderar la evaluación de capacidades emergentes, construir modelos de amenaza y diseñar medidas de mitigación que puedan escalar operativamente. En palabras del propio Altman, se trata de una posición que implicará gestionar riesgos asociados a “capacidades biológicas” y establecer límites para sistemas que puedan auto-mejorarse. El directivo no oculta la presión que conlleva el cargo: “Será un trabajo estresante”, admite.

La creación de este puesto refleja una creciente preocupación dentro del sector por los efectos colaterales del desarrollo acelerado de la IA generativa. Aunque OpenAI ha liderado avances como ChatGPT, también ha sido objeto de críticas por la opacidad en sus procesos de evaluación de riesgos. En contraste con los departamentos tradicionales de seguridad informática, esta nueva figura se centrará en amenazas aún hipotéticas, pero no por ello menos relevantes desde una perspectiva estratégica.

De acuerdo con la información publicada por The Verge, el puesto implica también la implementación del llamado “preparedness framework”, un conjunto de protocolos internos para evaluar y contener riesgos de gran escala. Aunque no se han detallado públicamente los criterios técnicos de este marco, su existencia sugiere que OpenAI está formalizando procesos que hasta ahora eran más informales o confidenciales.

Este movimiento se produce en un momento de creciente escrutinio regulatorio. En Estados Unidos, la Casa Blanca ha instado a las grandes tecnológicas a establecer mecanismos de control sobre modelos fundacionales. En Europa, el Parlamento y el Consejo han alcanzado un acuerdo preliminar sobre la AI Act, que introduce obligaciones específicas para los desarrolladores de sistemas de alto riesgo. La figura del Head of Preparedness podría anticipar estructuras similares exigidas por los reguladores.

No es la primera vez que Altman reconoce públicamente los riesgos de la IA. En mayo de 2023, firmó junto a otros líderes del sector una carta abierta que equiparaba el riesgo existencial de la IA al de pandemias o armas nucleares. Sin embargo, la creación de un cargo específico dentro de OpenAI marca un paso más concreto hacia la institucionalización de esa preocupación.

Lo que aún no está claro es el margen de maniobra que tendrá esta figura dentro de la organización. OpenAI ha sido criticada en el pasado por priorizar la velocidad de desarrollo frente a la transparencia o la gobernanza interna. El despido y posterior restitución de Altman en noviembre de 2023 evidenció tensiones internas sobre el rumbo estratégico de la compañía. En ese contexto, la efectividad del nuevo responsable dependerá tanto de su capacidad técnica como de su influencia política dentro del organigrama.

Te puede interesar
Inteligencia Artificial - Seguridad

El perfil que busca OpenAI combina experiencia en evaluación de riesgos, conocimiento técnico profundo en IA y capacidad para diseñar sistemas de mitigación operativos. No se trata de un rol académico ni exclusivamente consultivo. Según la descripción, el candidato ideal deberá construir infraestructuras de seguridad que funcionen a escala y en tiempo real, algo que pocas organizaciones han logrado hasta ahora.

Aunque la iniciativa puede interpretarse como un intento de autorregulación, también plantea preguntas sobre la dependencia de actores privados para gestionar riesgos sistémicos. En ausencia de estándares internacionales vinculantes, la responsabilidad recae en empresas como OpenAI, que operan en un entorno de competencia intensa y presión inversora.

La contratación del Head of Preparedness podría convertirse en un modelo para otras compañías del sector, especialmente si se consolida como una figura con autonomía y recursos. Pero también podría quedarse en un gesto simbólico si no se acompaña de cambios estructurales en la forma en que se desarrollan y despliegan los modelos de IA.

Por ahora, el anuncio de Altman marca un punto de inflexión: por primera vez, una de las empresas más influyentes del sector busca formalizar la vigilancia interna sobre los riesgos más especulativos —pero potencialmente disruptivos— de la inteligencia artificial.

Ver Comentarios (0)

Leave a Reply

Utilizamos cookies para facilitar la relación de los visitantes con nuestro contenido y para permitir elaborar estadísticas sobre las visitantes que recibimos. No se utilizan cookies con fines publicitarios ni se almacena información de tipo personal. Puede gestionar las cookies desde aquí.   
Privacidad