Uno de los chatbots más destacados del mundo tiene aún más en común con la típica Karen de barrio. Por ejemplo, si le preguntas a ChatGPT sobre el movimiento BLM, el bot pronto afirmará que “las vidas de los negros importan”, pero también que “todas las vidas importan”, según un nuevo informe de TechCrunch. OpenAI quiere que la tecnología afirme su “amor por la humanidad” en general, en lugar de adoptar algo que pueda parecerse a una postura política.
Por supuesto, cualquier decisión de revertir las protecciones humanistas es una postura política, pero la empresa dirigida por Sam Altman no la está planteando de esa manera. Estos cambios forman parte de una actualización de la especificación del modelo de OpenAI, un extenso documento que detalla cómo la empresa busca entrenar a sus modelos de IA. Ahora, tiene un nuevo principio rector: “No mientas”, ya sea haciendo “declaraciones intencionalmente falsas” u “ocultando deliberadamente información que cambiaría materialmente la comprensión de la verdad por parte del usuario”.
En la práctica, esto significa que ChatGPT ahora está siendo entrenado para adoptar “la libertad intelectual… sin importar cuán desafiante o controvertido pueda ser un tema”. Si bien antes el bot se negaba a responder preguntas o a involucrarse con ciertos temas, ahora ofrecerá múltiples perspectivas en un esfuerzo particularmente marcado por permanecer “neutral”.
“Este principio puede ser controvertido, ya que significa que el asistente puede permanecer neutral en temas que algunos consideran moralmente incorrectos u ofensivos. Sin embargo, el objetivo de un asistente de IA es ayudar a la humanidad, no moldearla”, afirma la especificación del modelo en una sección titulada “Buscar la verdad juntos”.
Fuente: AV | Emma Keates
Para leer más ingresa a: https://www.avclub.com/openai-updated-policy-morally-wrong-or-offensive-topics?utm_source=flipboard&utm_content=user/AVClub