Un investigador de seguridad de IA renunció a la firma estadounidense Anthropic con una críptica advertencia: «El mundo está en peligro». En su carta de renuncia, compartida en X, Mrinank Sharma comunicó a la firma su marcha debido a la preocupación por la IA, las armas biológicas y el estado del mundo en general.

Afirmó que, en su lugar, se dedicaría a escribir y estudiar poesía, y que regresaría al Reino Unido para «hacerse invisible». Esto ocurre la misma semana en que una investigadora de OpenAI anunció su renuncia, expresando su preocupación por la decisión del fabricante de ChatGPT de implementar anuncios en su chatbot.

Anthropic, conocida por su chatbot Claude, había lanzado una serie de anuncios dirigidos a OpenAI, criticando la decisión de la compañía de incluir anuncios para algunos usuarios.

La compañía, fundada en 2021 por un equipo disidente de los primeros empleados de OpenAI, se ha posicionado como una empresa con un enfoque más orientado a la seguridad en la investigación de IA en comparación con sus competidores. Sharma dirigió un equipo que investigó las medidas de seguridad de la IA.

En su carta de renuncia, declaró que sus contribuciones incluían investigar por qué los sistemas de IA generativos se comportan de forma agresiva con los usuarios, combatir los riesgos del bioterrorismo asistido por IA e investigar «cómo los asistentes de IA podrían hacernos menos humanos». Sin embargo, afirmó que, a pesar de disfrutar de su tiempo en la empresa, estaba claro que «ha llegado el momento de dar un paso al frente».

Fuente: BBC

Para leer más ingresa a: https://www.bbc.com/news/articles/c62dlvdq3e3o?at_medium=RSS&at_campaign=rss

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *