Una startup prometió que su asistente de IA crearía una aplicación. Pero el trabajo en realidad lo realizaron ingenieros humanos.
Builder.ai, una startup respaldada por Microsoft, se presentó como una solución basada en IA para simplificar el desarrollo de aplicaciones. Los clientes conversaban con Natasha, la asistente de IA insignia de la plataforma, y recibían una aplicación funcional generada por IA basada en la información que proporcionaban. Pero en lugar de usar tecnología de IA para ejecutar el chatbot y crear la aplicación, la empresa contrató a 700 ingenieros en India para que se hicieran pasar por Natasha en las conversaciones con los clientes y luego se encargaran de la codificación de la aplicación.
La operación del chatbot, operado por humanos, de la compañía forma parte de un problema mayor en la industria tecnológica actual: el conocido como «lavado de imagen de IA», que se produce cuando las empresas tecnológicas afirman que sus herramientas utilizan IA mucho más de lo que realmente hacen. Esto ocurre con una frecuencia notable, como cuando Coca-Cola afirmó que su producto Y3000 Zero Sugar de 2023 fue cocreado con IA, pero no ofreció detalles sobre cómo la IA participó realmente en su creación, lo que llevó a muchos a especular que la afirmación estaba diseñada para atraer más atención e interés de los consumidores.
A medida que las empresas se esfuerzan por incorporar IA a sus ofertas (o al menos, dar la impresión de que lo han hecho), los consumidores pueden no compartir el entusiasmo desenfrenado del sector tecnológico por la IA en todo.
Fuente: Mashable | Christianna Silva
Para leer más ingresa a: https://mashable.com/article/microsoft-backed-ai-startup-chatbot-human-employees?utm_source=flipboard&utm_content=Mashable/magazine/Mashable%27s+Top+Stories