OpenAI está formando un nuevo equipo de seguridad, dirigido por el director ejecutivo Sam Altman, junto con los miembros de la junta Adam D’Angelo y Nicole Seligman. El comité hará recomendaciones sobre “decisiones críticas de seguridad para proyectos y operaciones de OpenAI”, una preocupación que varios investigadores clave de IA compartieron cuando dejaron la empresa este mes.

Para su primera tarea, el nuevo equipo «evaluará y desarrollará aún más los procesos y salvaguardas de OpenAI». Luego presentará sus hallazgos a la junta directiva de OpenAI, en la que participan los tres líderes del equipo de seguridad. Luego, la junta decidirá cómo implementar las recomendaciones del equipo de seguridad.

Su formación se produce tras la salida del cofundador y científico jefe de OpenAI, Ilya Sutskever, quien apoyó el intento de golpe de la junta para destronar a Altman el año pasado. También codirigió el equipo Superalignment de OpenAI, que fue creado para «dirigir y controlar sistemas de IA mucho más inteligentes que nosotros».

El otro colíder del equipo Superalignment, Jan Leike, anunció su salida poco después de la partida de Sutskever. En una publicación en X, Leike dijo que la seguridad en OpenAI ha «pasado a un segundo plano frente a los productos brillantes». Desde entonces, OpenAI ha disuelto el equipo de Superalignment, según Wired. La semana pasada, la investigadora de políticas de OpenAI, Gretchen Krueger, anunció su renuncia, citando preocupaciones de seguridad similares. Junto con el nuevo panel de seguridad, OpenAI anunció que está probando un nuevo modelo de IA, pero no confirmó si es GPT-5.

Fuente: The Verge | Emma Roth

Para leer más ingresa a: https://www.theverge.com/2024/5/28/24166105/openai-safety-team-sam-altman

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *