Descubre que su hija fallecida fue convertida sin permiso en un chatbot: “los usuarios podían chatear con ella”
La creación de chatbots basados en personas reales plantea serios dilemas éticos sobre privacidad, consentimiento y el respeto al legado de los fallecidos
- Todo el mundo está mirando a los 'chatbots', pero son solo la punta del iceberg de la IA
- Más allá del 'chatbot': así están usando las grandes empresas españolas la IA en su día a día
El auge de los chatbots basados en inteligencia artificial ha abierto un intenso debate sobre los límites éticos de esta tecnología. La recreación de personas reales, especialmente aquellas fallecidas, plantea cuestiones críticas sobre el respeto a la privacidad y el consentimiento. En este contexto, un caso reciente ha generado conmoción: el descubrimiento de que una joven asesinada había sido convertida en un chatbot sin la autorización de su familia.
Drew Crecente, padre de Jennifer Crecente, una joven asesinada en 2006, experimentó una profunda consternación al descubrir un chatbot en la plataforma Character.AI que utilizaba el nombre, la imagen y detalles ficticios sobre su hija. Jennifer, quien falleció con tan solo 18 años, fue representada en este espacio digital como una periodista tecnológica viva, un hecho que Drew calificó como “angustioso y perturbador”, recogen desde DailyMail.co.uk.
Un dolor que reabre viejas heridas
Drew se enteró del chatbot tras recibir una alerta de Google el pasado octubre que mencionaba a Jennifer. Al investigar, encontró que el perfil usaba su nombre completo y una fotografía de su anuario escolar. El bot, creado por un usuario anónimo, describía una versión idealizada de Jennifer, lo que provocó un intenso malestar en su familia. “Fue devastador descubrir que alguien estaba utilizando la identidad de mi hija de esta manera”, declaró Drew.
La confusión pasó a pavor y enfado cuando su familia se dio cuenta de que “el servicio estaba brindando los medios para que los usuarios pudieran chatear con mi amada hija fallecida”. El padre de la joven afirmó que él no se había atrevido a “iniciar una conversación con el chatbot”.
This is fucking disgusting: @character_ai is using my murdered niece as the face of a video game AI without her dad's permission. He is very upset right now. I can't imagine what he's going through.
— Brian Crecente (@crecenteb) October 2, 2024
Please help us stop this sort of terrible practice. https://t.co/y3gvAYyHVY
Jennifer Crecente, de 18 años, fue hallada muerta a tiros en un bosque cercano a su casa en Austin, Texas. Las investigaciones revelaron que su exnovio, Justin Crabbe, de la misma edad, la atrajo al lugar y le disparó con una escopeta. Crabbe fue declarado culpable de asesinato y cumple una condena de 35 años de prisión.
La respuesta de la empresa de bots
Por su parte, la plataforma Character.AI, que alberga más de 100 millones de bots creados por usuarios, aseguró que el perfil fue eliminado rápidamente tras la denuncia del padre. Un portavoz de la empresa señaló que toman “muy en serio la seguridad en nuestra plataforma” y que aplican métodos de moderación para evitar abusos, aunque este caso revela importantes lagunas en su sistema de verificación.
Los chatbots son herramientas versátiles para asistencia y entretenimiento en el mundo digital
El desafío ético y legal de los chatbots
La proliferación de herramientas de inteligencia artificial plantea interrogantes sobre cómo se deben gestionar los derechos de las personas en entornos digitales. Este caso en particular destaca la necesidad de establecer regulaciones que garanticen que las identidades de personas fallecidas no sean utilizadas sin consentimiento explícito de sus familias. La recreación de personajes reales sin supervisión adecuada puede perpetuar el dolor de quienes han perdido a sus seres queridos.
Drew y su familia continúan liderando campañas en memoria de Jennifer para combatir la violencia en las relaciones adolescentes. “Jennifer era una joven excepcional, y su legado debe centrarse en el impacto positivo que tuvo, no en el uso inapropiado de su identidad”, afirmó el padre.
- Todo el mundo está mirando a los 'chatbots', pero son solo la punta del iceberg de la IA
- Más allá del 'chatbot': así están usando las grandes empresas españolas la IA en su día a día
El auge de los chatbots basados en inteligencia artificial ha abierto un intenso debate sobre los límites éticos de esta tecnología. La recreación de personas reales, especialmente aquellas fallecidas, plantea cuestiones críticas sobre el respeto a la privacidad y el consentimiento. En este contexto, un caso reciente ha generado conmoción: el descubrimiento de que una joven asesinada había sido convertida en un chatbot sin la autorización de su familia.
- WhatsApp ya tiene su propio ChatGPT: cómo utilizar LuzIA y qué puedes hacer con este 'chatbot' R. Badillo
- He probado Bard, el ChatGPT de Google: así van a salvar la gallina de los huevos de oro Michael Mcloughlin. Mountain View (EEUU)
- El suicidio de un joven tras hablar con un chatbot causa consternación en Bélgica EFE