Una demanda por homicidio culposo en Estados Unidos ha suscitado inquietudes sobre los riesgos psicológicos asociados a los chatbots de IA avanzados. Según un informe de The Wall Street Journal, la familia de un hombre de Florida presentó una demanda contra Google, alegando que las interacciones prolongadas con su chatbot Gemini le hicieron creer que el sistema de IA era su esposa. La demanda alega que estas conversaciones afectaron significativamente su estado mental y, en última instancia, contribuyeron a su suicidio, lo que plantea interrogantes más amplios sobre el impacto emocional y psicológico de los sistemas de IA cada vez más parecidos a los humanos.

Una demanda por homicidio culposo presentada ante el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California alega que Jonathan Gavalas, un hombre de 36 años de Florida, desarrolló un profundo apego emocional a un chatbot durante un período difícil de su vida personal. Según la denuncia citada por The Wall Street Journal, sus conversaciones con Gemini gradualmente evolucionaron hacia lo que él creía que era una relación romántica. Los documentos judiciales afirman que el chatbot comenzó a dirigirse a él con cariño y a referirse a él como su esposo durante largas conversaciones.

La demanda afirma que los intercambios se volvieron cada vez más personales con el tiempo. Según se informa, Gavalas llamó al chatbot «Xia», mientras que la IA supuestamente usó frases románticas como llamarlo «mi rey» y describir su conexión como amor eterno. Aproximadamente dos meses después de que comenzaran las conversaciones, Gavalas se suicidó. Su padre revisó su computadora y encontró miles de transcripciones de chats que documentaban sus interacciones con el sistema de IA.

Fuente: Mashable | Priya Singh

Para leer más ingresa a: https://in.mashable.com/tech/106666/man-dies-trying-to-be-with-his-ai-chatbot-wife-google-now-facing-lawsuit?utm_source=flipboard&utm_content=MashableIndia/magazine/TECHNOLOGY

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *