Al provenir de un grupo de maestros de escuela, la única preocupación que sigue surgiendo es cómo los estudiantes pueden usar ChatGPT para hacer trampa en sus tareas. Existen herramientas que supuestamente detectan el uso de la generación de texto mediante IA, pero su confiabilidad es complicada.

Y es por eso que estoy seguro de que están agradeciendo la astuta actualización de OpenAI de una publicación de blog de mayo (descubierta por TechCrunch) de que la compañía ha desarrollado un «método de marca de agua de texto» que está listo para funcionar. Sin embargo, existen preocupaciones que han impedido que el equipo lo publique.

Entonces, ¿cuáles son los métodos en los que ha estado trabajando OpenAI? Hay múltiples, pero la compañía ha detallado dos:

  • Marcas de agua: Agregar algún tipo de marca de agua de texto secreto ha sido «altamente efectivo» en trabajos identificados generados por IA, e incluso ha logrado ser fuerte contra «manipulación localizada, como parafrasear».
  • Metadatos: en lugar de agregar una marca de agua que las personas puedan intentar solucionar y eliminar cualquier posibilidad de un falso positivo (más sobre esto más adelante), OpenAI también está considerando agregar metadatos firmados criptográficamente.

El otro método que ha explorado OpenAI es el uso de clasificadores. Los verá utilizados regularmente en el aprendizaje automático cuando se trata de aplicaciones de correo electrónico que colocan mensajes automáticamente en la carpeta de spam o categorizan correos electrónicos importantes en la bandeja de entrada principal. Esto podría usarse como una clasificación oculta de los ensayos para que sean generados por IA.

Fuente: Tom´s Guide | Jason England

Para leer más ingresa a: https://www.tomsguide.com/ai/watch-out-students-openai-is-about-to-make-it-impossible-for-you-to-cheat-using-chatgpt-heres-how?utm_medium=activitypub&utm_source=flipboard

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *