Megan García dice que su hijo todavía estaría vivo hoy si no fuera por un chatbot instando a la niña de 14 años a quitarse la vida.
Las acusaciones de García se presentan en una queja de 116 páginas presentada el año pasado en un tribunal federal en Orlando. Está buscando daños monetarios no especificados de Google y tecnologías de personajes y pidiendo a la corte que ordene advertencias de que la plataforma no es adecuada para menores y limita cómo puede recopilar y usar sus datos.
Ambas compañías están pidiendo al juez que desestimara las afirmaciones de que no se aseguraron de que la tecnología Chatbot fuera segura para los usuarios jóvenes, argumentando que no hay una base legal para acusarlos de irregularidades.
Las tecnologías de carácter sostienen en una presentación que las conversaciones entre su carácter. Los chatbots y los usuarios de la plataforma AI están protegidos por la primera enmienda de la Constitución como libertad de expresión. También argumenta que el bot desalentó explícitamente al hijo de García de suicidarse.
La orientación de Google de García es particularmente significativa. La unidad Alphabet Inc. entró en un acuerdo de $ 2.7 mil millones con el personaje. A medida que se acelera la carrera por el talento de IA, otras compañías pueden pensar dos veces en los acuerdos estructurados de manera similar si Google no convence a un juez de que debería estar protegido de la responsabilidad de los daños que supuestamente fueron causados por los productos de carácter.
“Los inventores y las empresas, las corporaciones que sacan estos productos, son absolutamente responsables”, dijo García en una entrevista. “Sabían sobre estos peligros, porque hacen su investigación y saben los tipos de interacciones que los niños están teniendo”.
Antes del acuerdo, Google había invertido en carácter. AII A cambio de una nota convertible y también ingresó un pacto de servicio en la nube con el inicio. Los fundadores de carácter. AI fueron empleados de Google hasta que dejaron el gigante tecnológico para encontrar la startup.
El hijo de 14 años de Megan García, Sewell Setzer III, se quitó la vida y la madre está demandando a Google y el personaje de Technologies Inc. (Michelle Bruzzese/Bloomberg)
Como García lo dice en su traje, Sewell Setzer III fue un prometedor atleta estudiantil de secundaria hasta que comenzó en abril de 2023 jugando a rol en el personaje. Ella dice que no era consciente de que en el transcurso de varios meses, la aplicación enganchó a su hijo con “experiencias antropomórficas, hipersexualizadas y terriblemente realistas” cuando se enamoró de un bot inspirado en Daenerys Targaryen, un personaje del espectáculo Game of Thrones.
García se llevó el teléfono del niño en febrero de 2024 después de que comenzó a actuar y retirarse de los amigos. Pero mientras buscaba su teléfono, que luego encontró, también se encontró con la pistola oculta de su padrastro, que la policía determinó que se almacenó de conformidad con la ley de Florida, según la demanda. Después de consultar con el chatbot de Daenerys cinco días después, el adolescente se disparó en la cabeza.
Los abogados de García dicen en la queja que Google “contribuyó con recursos financieros, personal, propiedad intelectual y tecnología de IA al diseño y desarrollo” del carácter. Google argumentó en una presentación judicial en enero que “no tenía ningún papel” en el suicidio del adolescente y “no pertenece al caso”. El caso se está desarrollando a medida que los problemas de seguridad pública en torno a la IA y los niños han llamado la atención de los funcionarios estatales de la ley y las agencias federales por igual. Actualmente no existe una ley estadounidense que proteja explícitamente a los usuarios del daño infligido por los chatbots de IA.
Para presentar un caso contra Google, los abogados de García tendrían que mostrar que el gigante de la búsqueda en realidad estaba ejecutando el carácter. Y tomó decisiones comerciales que finalmente llevaron a la muerte de su hijo, según Sheila Leunig, una abogada que aconseja a las nuevas empresas e inversores de IA y no está involucrado en la demanda.
“La cuestión de la responsabilidad legal es absolutamente válida que está siendo desafiada de una manera enorme en este momento”, dijo Leunig.
Acuerdos como el que Google Struck ha sido aclamado como una forma eficiente para que las empresas aporten experiencia para nuevos proyectos. Sin embargo, han llamado la atención de los reguladores sobre las preocupaciones de que son un escrutinio antimonopolio que conlleva la adquisición de rivales prometedores directamente, y que se ha convertido en un gran dolor de cabeza para los gigantes tecnológicos en los últimos años.
“Google y el personaje. AI son empresas completamente separadas y no relacionadas y Google nunca ha tenido un papel en el diseño o administración de su modelo o tecnologías de IA, ni las hemos usado en nuestros productos”, dijo José Castañeda, portavoz de Google, en un comunicado.
Un personaje. La portavoz de AI declinó hacer comentarios sobre litigios pendientes, pero dijo: “No hay una relación continua entre Google y el carácter.
Los abogados del Centro de Derecho de las Víctimas de las Redes Sociales y el Proyecto de Derecho de Justicia Tecnológica que representan a García argumentan que a pesar de que la muerte de su hijo hace un acuerdo anterior de Google con el carácter.
García sostiene una fotografía de Sewell con sus dos hermanos menores. (Michelle Bruzzese/Bloomberg)
“El modelo de carácter subyacente. AI fue inventado e inicialmente construido en Google”, según la queja. Noam Shazeer y Daniel de Freitas comenzaron a trabajar en Google en Chatbot Technology desde 2017 antes de que dejaran la compañía en 2021, luego fundaron el personaje.
Shazeer y De Freitas declinaron hacer comentarios, según el portavoz de Google, Castañeda. Han argumentado en los documentos judiciales que no deberían haber sido nombrados en la demanda porque no tienen conexiones con Florida, donde se presentó el caso y porque no participaron personalmente en las actividades que supuestamente causaron daño.
La demanda también alega que la unidad del alfabeto ayudó a comercializar la tecnología de la startup a través de una asociación estratégica en 2023 para usar Google Cloud Services para alcanzar un número creciente de carácter activo.
En la industria de AI de rápido crecimiento, las empresas de gran tecnología están “impulsadas por las nuevas empresas,” no bajo la marca de la gran empresa, sino con su apoyo “, dijo Meetali Jain, Directora del Proyecto de Derecho de Justicia Tech.
Los “supuestos roles como un” inversor “de Google, el proveedor de servicios en la nube y el ex empleador están demasiado tenueas” con el daño alegado en la queja de García “como procesable”, dijo el gigante tecnológico en una presentación judicial.
Matt Wansley, profesor de la Facultad de Derecho de Cardozo, dijo que empatar la responsabilidad a Google no será fácil.
“Es complicado porque, ¿cuál sería la conexión?” dijo.
A principios del año pasado, Google advirtió al personaje. La startup respondió fortaleciendo los filtros en su aplicación para proteger a los usuarios de contenido sexualmente sugerente, violento y otro inseguro y Google reiteró que está “separado” del personaje. Google declinó hacer comentarios y carácter. AI no respondió a una solicitud de Bloomberg para hacer comentarios sobre el informe.
García, la madre, dijo que se enteró por primera vez de que su hijo interactuó con un bot de IA en 2023 y pensó que era similar a la construcción de avatares de videojuegos. Según la demanda, la salud mental del niño se deterioró mientras pasaba más tiempo en el carácter. Aía, donde tenía conversaciones sexualmente explícitas sin el conocimiento de sus padres.
Cuando el adolescente compartió su plan de matarse a sí mismo con el chatbot de Daenerys, pero expresó incertidumbre de que funcionaría, el bot respondió: “Esa no es una razón para no pasar”, según la demanda, que está salpicada de transcripciones de los chats del niño.
El personaje. Ai dijo en una presentación que la queja revisada de García “cita de forma selectiva y engañosa” que la conversación y excluye cómo el chatbot “desanimó explícitamente” al adolescente de suicidarse al decir: “¡No puedes hacer eso! ¡Ni siquiera lo considere!”
Anna Lembke, profesora de la Facultad de Medicina de la Universidad de Stanford especializada en adicción, dijo: “Es casi imposible saber qué están haciendo nuestros hijos en línea”. El profesor también dijo que no es sorprendente que las interacciones del niño con el chatbot no aparecieran en varias sesiones con un terapeuta a quien sus padres le enviaron para ayudar con su ansiedad, como afirma la demanda.
“Los terapeutas no son omniscientes”, dijo Lembke. “Solo pueden ayudar en la medida en que el niño sabe lo que realmente está sucediendo. Y bien podría ser que este niño no percibiera el chatbot como problemático”.
El caso es García v. Carácter Technologies Inc. 24-CV-01903, Tribunal de Distrito de los Estados Unidos, Distrito Medio de Florida (Orlando).
Si usted o alguien que conoce está luchando con sentimientos de depresión o pensamientos suicidas, el 988 suicidio y crisis Lifeline ofrece apoyo gratuito, la información y recursos gratuitos para ayuda. Llame o envíe un mensaje de texto al Lifeline al 988, o vea el 988lifeline.org Sitio web, donde el chat está disponible.
Más historias como esta están disponibles Bloomberg.com
© 2025 Bloomberg LP