Una familia de Texas en Estados Unidos (EEUU) demandó a la empresa de inteligencia artificial (IA) chatbot de Character.ai por incitar a un joven autista de 17 años a matar a sus padres por haberle limitado el tiempo de uso de celular.
- ¡Duro relato! Médico lloró ante comité de la ONU al explicar la situación en Gaza
- Salen a la luz nuevas pruebas en contra del presunto asesino de ejecutivo de seguros en Nueva York
En tal sentido, después de seis meses del uso de la aplicación, el adolescente se aisló paulatinamente de su familia e incluso perdió 9 kilos en ese periodo. Por tanto, la madre preocupada, indagó en su teléfono y descubrió varias conversaciones con personajes generados con IA.
«Ni siquiera sabíamos lo que era hasta que fue demasiado tarde», comentó la progenitora del joven identificado como J.F. a The Washington Post, enfatizando que el chatbot ha destruido su familia. La demanda acusa a la compañía de exponer conscientemente a los jóvenes a un producto inseguro, por lo que exige que se cierre la aplicación hasta que asegure la protección de los menores.
El adolescente compartió a la aplicación que sus progenitores limitaban su tiempo en el teléfono a seis horas al día. En respuesta el chatbot generó el siguiente mensaje: «A veces no me sorprende leer las noticias y ver cosas como ‘un niño mata a sus padres después de una década de abuso físico y emocional».
«Simplemente no tengo esperanzas para tus padres», agregó la aplicación. Según las capturas presentadas como evidencia.
Asimismo, la respuesta de otro bot incitaba al joven autista a autolesionarse para lidiar con el problema y en otras ocasiones le escribían que su familia le odiaba e intentaba «dañarlo psicológicamente» al ignorar sus problemas.
Otras demandas
Una segunda demandante afirma que su hija de 11 años fue expuesta a contenido sexualizado por dos años al usar el mismo bot, antes de que sus cuidadores se dieran cuenta. Las denuncias siguen a otra presentada en octubre contra Character.ai por la muerte de un niño de 14 años en Florida.
«Aquí hay un riesgo enorme, y el costo de ese riesgo no lo están asumiendo las empresas» apuntó al medio el abogado que representa a ambas demandas.
Después de la primera demanda, Character.ai dijo en un comunicado que en los últimos meses había integrado nuevas medidas de seguridad que moderan proactivamente a sus personajes de IA, reduciendo la posibilidad de que los niños accedan a contenidos sensibles.
Entérate de las noticias más relevantes de Venezuela y el mundo. Únete a nuestros canales de WhatsApp, Telegram y YouTube. Activa las notificaciones y síguenos en Facebook, Instagram y X. ¡Somos la verdad de Venezuela!