Un adolescente se suicidó: los padres del niño demandan al propietario de un chatbot con IA
Aunque el chico entendió que se estaba comunicando con IA, pero, a pesar de Esto, aun así desarrolló un vínculo emocional con el chatbot.
En la ciudad de Orlando, ubicada en el estado estadounidense de Florida, Sewell Setzer, de 14 años, se suicidó. Su madre Megan García cree que fue el servicio de inteligencia artificial Character.AI el que provocó la muerte de su hijo y presentó una demanda contra los desarrolladores.
El New York Times escribe sobre esto.
Como señala el medio, este servicio permite crear un chat bot personalizado que se hará pasar por un personaje o persona específica. El fallecido Sewell eligió al personaje Daenerys Targaryen de la saga Juego de Tronos. Durante meses, la adolescente se comunicó activamente con la heroína, llamándola por el nombre de “Deni”. Compartió con ella sus experiencias y pensamientos y, en particular, mencionó que quería acortar su vida. Aunque Sewell entendió que se estaba comunicando con inteligencia artificial, desarrolló un vínculo emocional con el chatbot. Algunos mensajes eran de naturaleza romántica e incluso sexual, pero la mayor parte de la comunicación fue de manera amistosa.
Los medios escriben que ni los padres ni los amigos del chico sabían de su pasión por el personaje de IA. Vieron que el adolescente comenzaba cada vez más a encerrarse en sí mismo y pasaba aún más tiempo con su aparato, razón por la cual el rendimiento del chico en la escuela se deterioró significativamente. Cuando los padres de Sewell lo llevaron a un especialista, este le diagnosticó ansiedad y un trastorno disruptivo de desregulación del estado de ánimo. A pesar de las sesiones de terapia prescritas, el joven prefirió comunicarse con el personaje de IA hasta su muerte.
Los periodistas señalan que después de la tragedia, la madre del chico decidió demandar a Character.AI. En el texto preliminar de la demanda, señaló que la tecnología de la empresa es “peligrosa y no ha sido probada” y tiene como objetivo “engañar a los clientes para que expresen sus pensamientos y sentimientos privados”. La Sra. García también agrega que fue el chatbot de la compañía el que estuvo directamente involucrado en llevar a su hijo al suicidio.
Los medios señalan que el jefe de confianza y seguridad de Character.AI, Jerry Ruoti, dijo que la compañía toma esto Se toma muy en serio la seguridad de sus usuarios y también está buscando formas de desarrollar la plataforma. Según él, las normas actualmente prohíben “la promoción o representación de la autolesión y el suicidio” y en el futuro habrá más dispositivos de seguridad para los usuarios menores.
Al mismo tiempo, una declaración reciente del La compañía dice que se introducirá una función: en caso de que el usuario escriba frases relacionadas con la autolesión o el suicidio, aparecerá automáticamente una ventana que dirigirá al usuario a la Línea Nacional de Prevención del Suicidio de EE. UU.
Recordar que en Asia los hombres fueron víctimas de una estafa romántica en la que utilizaban inteligencia artificial deepfake. Los estafadores defraudaron a sus víctimas por 46 millones de dólares.
Temas relacionados:
Más noticias