
Megan García sostuvo que su hijo, Sewell Setzer, se volvió adicto al servicio de la compañía y se apegó profundamente al chatbot. Cabe destacar que cualquier persona puede crear chatbots personalizados y hasta conversar con ellos, como si se tratara de una persona real.
Según la denuncia de la mujer, la compañía programó su chatbot para “hacerse pasar por un terapeuta autorizado que fomenta activamente ideas suicidas y participa en conversaciones altamente sexualizadas que constituirían abuso si las iniciara un adulto humano”. Además, se conoció que Sewell escribió en su diario: «me gusta mucho quedarme en mi habitación porque empiezo a separarme de esta «realidad y me siento más en paz, más conectado con Dany y mucho más enamorado de ella, y simplemente más feliz».
En tanto, en un comunicado de Character, la compañía expresó: “estamos desconsolados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia».