En una semana de salidas bastante públicas de empresas de inteligencia artificial, el caso de Zoë Hitzig es, sin duda, el que más llama la atención. La exinvestigadora de OpenAI se divorció de la compañía en un artículo de opinión en el New York Times, donde advirtió no sobre una crisis vaga y anónima como la del recién fallecido responsable de protección de Anthropic, sino sobre algo real e inminente: la introducción de anuncios en ChatGPT por parte de OpenAI y la información que utilizará para dirigir esos mensajes patrocinados.
Hay una distinción importante que Hitzig hace al principio de su artículo de opinión: el problema no es la publicidad en sí, sino el uso potencial de una gran cantidad de datos confidenciales que los usuarios han compartido con ChatGPT sin pensar dos veces en cómo podrían usarse para atacarlos o quién podría potencialmente tener acceso a ellos.
Durante varios años, los usuarios de ChatGPT han generado un archivo de franqueza humana sin precedentes, en parte porque creían estar hablando con algo sin intenciones ocultas, escribió. La gente les cuenta a los chatbots sus miedos médicos, sus problemas de pareja, sus creencias sobre Dios y el más allá. La publicidad basada en ese archivo crea la posibilidad de manipular a los usuarios de maneras que no tenemos las herramientas para comprender, y mucho menos prevenir.
Fuente: Gizmodo | Aj Dellinger
Para leer más ingresa a: https://gizmodo.com/openai-researcher-quits-warns-its-unprecedented-archive-of-human-candor-is-dangerous-2000720822?utm_source=flipboard&utm_content=Gizmodo/magazine/Tech