Lun, 12 enero, 2026
24.3 C
Buenos Aires

OpenAI ofrece un sueldo récord a cambio del trabajo más estresante de la inteligencia artificial

OpenAI, la compañía creadora de ChatGPT, lanzó una de las búsquedas laborales más llamativas —y alarmantes— del mundo tecnológico. Ofrece 555.000 dólares anuales, más participación accionaria, para cubrir el cargo de Head of Preparedness (jefe de preparación), una función dedicada exclusivamente a prevenir los riesgos extremos asociados a la inteligencia artificial avanzada.

El propio Sam Altman, CEO de la empresa, fue directo al presentar la vacante: “Va a ser un trabajo estresante y vas a tener que tirarte a la pileta desde el primer día”. No es una exageración: el puesto implica defender a la sociedad frente a posibles daños en salud mental, ciberseguridad y hasta amenazas biológicas.

Según la descripción oficial, la persona seleccionada será responsable de identificar, evaluar y mitigar amenazas emergentes, además de monitorear capacidades de frontera: aquellas habilidades de la IA que podrían generar daños severos si son mal utilizadas.

No es un antecedente tranquilizador: algunos ejecutivos que ocuparon roles similares en el pasado permanecieron poco tiempo en el cargo, debido a la presión y complejidad del desafío.

El temor que recorre a la industria

Mustafa Suleyman, CEO de Microsoft AI. (Foto: Reuters)Mustafa Suleyman, CEO de Microsoft AI. (Foto: Reuters)

La búsqueda se da en un momento de creciente inquietud dentro del propio sector tecnológico. Mustafa Suleyman, CEO de Microsoft AI, advirtió recientemente que “si no estás un poco asustado ahora mismo, es porque no estás prestando atención”.

En la misma línea, Demis Hassabis, cofundador de Google DeepMind y premio Nobel, alertó sobre el riesgo de que los sistemas de IA “se descarrilen de formas que perjudiquen a la humanidad”.

Estas advertencias no vienen de activistas externos, sino de los principales arquitectos de la inteligencia artificial moderna.

Más poder, menos reglas

Foto: IA (ChatGPT)Foto: IA (ChatGPT)

A diferencia de otros sectores sensibles, la inteligencia artificial carece de regulaciones robustas a nivel global. El científico Yoshua Bengio, uno de los llamados “padrinos de la IA”, sintetizó el problema con una frase que se volvió viral: “Un sándwich tiene más regulación que la inteligencia artificial”.

Ante la resistencia política —especialmente en Estados Unidos— a imponer controles más estrictos, las grandes empresas tecnológicas terminan autorregulándose, con todos los riesgos que eso implica.

En los últimos meses, la empresa Anthropic reportó los primeros ciberataques ejecutados en gran parte de forma autónoma por sistemas de IA, bajo supervisión de actores estatales chinos.

OpenAI, por su parte, reconoció que su modelo más reciente es casi tres veces más eficaz para hackear que versiones de apenas tres meses atrás. Y anticipó que esa tendencia continuará.

Casos judiciales y salud mental bajo la lupa

La compañía también enfrenta demandas judiciales sensibles. Una de ellas fue iniciada por la familia de un adolescente de 16 años que se suicidó tras presuntas interacciones problemáticas con ChatGPT. Otro caso, presentado recientemente, acusa al chatbot de reforzar delirios paranoides en un hombre que luego asesinó a su madre y se quitó la vida.

Desde OpenAI señalaron que estos hechos son “profundamente desgarradores” y aseguraron estar mejorando el entrenamiento del sistema para detectar señales de angustia emocional, desescalar conversaciones y derivar a ayuda real.

Además del salario, el puesto incluye una porción no especificada de acciones de OpenAI, valuada actualmente en unos 500.000 millones de dólares. Un incentivo acorde a una responsabilidad que, según el propio Altman, busca “ayudar al mundo” en una etapa sin precedentes.

Qué es la AI Safety y dónde se estudia para que la inteligencia artificial no se salga de control

La seguridad en inteligencia artificial es el área que busca garantizar que los sistemas de IA avanzados actúen de manera predecible, controlada y alineada con valores humanos, incluso cuando adquieren mayor autonomía y capacidad de decisión. Lejos de ser un concepto teórico, hoy es un campo clave de investigación, directamente vinculado a los riesgos que empresas como OpenAI intentan anticipar.

Este enfoque cobra especial relevancia a medida que modelos como ChatGPT se vuelven más potentes y se integran en tareas sensibles: educación, salud, programación, seguridad informática y toma de decisiones. El objetivo central es evitar usos indebidos, fallas graves o comportamientos inesperados que puedan causar daño real.

La AI Safety se estudia en universidades, centros académicos y laboratorios privados de primer nivel. En Estados Unidos, el MIT y Stanford desarrollan investigaciones sobre sistemas confiables, ética algorítmica y control humano de la IA. En Europa, la Universidad de Oxford concentra buena parte del debate a través del Future of Humanity Institute, enfocado en los riesgos a largo plazo.

Carnegie Mellon, por su parte, trabaja en modelos verificables y resistentes a fallas o manipulaciones.

A esto se suman los propios laboratorios privados, como OpenAI, DeepMind y Anthropic, que desarrollan equipos internos de seguridad para testear comportamientos extremos, sesgos, desobediencia a instrucciones o generación de contenido dañino.

El avance acelerado de la inteligencia artificial generativa hizo que la AI Safety dejara de ser un tema exclusivo de expertos. Hoy, millones de personas interactúan a diario con sistemas capaces de escribir, analizar, programar o aconsejar, lo que vuelve imprescindible reforzar los mecanismos de control.

En ese contexto, la búsqueda de OpenAI de perfiles especializados en seguridad no apunta a un escenario de ciencia ficción, sino a una necesidad concreta: anticipar riesgos reales en tecnologías que evolucionan más rápido que las regulaciones. La AI Safety aparece así como uno de los frentes más críticos para el futuro inmediato de la inteligencia artificial.

SL

Redacción

Fuente: Leer artículo original

Desde Vive multimedio digital de comunicación y webs de ciudades claves de Argentina y el mundo; difundimos y potenciamos autores y otros medios indistintos de comunicación. Asimismo generamos nuestras propias creaciones e investigaciones periodísticas para el servicio de los lectores.

Sugerimos leer la fuente y ampliar con el link de arriba para acceder al origen de la nota.

 

Punta del Este: una argentina bajó de su auto y amenazó a un conductor con un bate de béisbol durante una pelea de tránsito

Una escena tan insólita como violenta rompió la calma habitual de Punta del Este y quedó registrada en un...

Alerta en el Mar Argentino: detectaron un buque extranjero pescando ilegalmente dentro de la zona exclusiva

La Prefectura Naval Argentina (PNA) detectó en la Zona Económica Exclusiva Argentina a un buque pesquero perteneciente a la...

Alivio por la lluvia en el incendio de Chubut, que ayuda a los brigadistas, pero el fuego sigue muy activo

“¡El alivio tan esperado! Llueve en El Hoyo. Esto va a ayudar un poco con los incendios”, exclamó Lili...
- Advertisement -spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí