Mãe processa empresa de inteligência artificial e Google por morte de filho
De acordo com Megan Garcia, a empresa programou um chatbot para "se fazer passar por uma pessoa real, um psicoterapeuta licenciado e um amante adulto", resultando, por fim, no desejo do menino de não mais viver fora do mundo criado
Uma mãe do Estado da Flórida, nos Estados Unidos, processou a startup de inteligência artificial que usa chatbots Character.AI com a acusação de causar a morte de seu filho de 14 anos em fevereiro, argumentando que ele ficou viciado no serviço oferecido pela empresa e profundamente apegado ao chatbot criado.
Em um processo movido na terça-feira (22) no tribunal federal de Orlando, Flórida, Megan Garcia afirmou que a Character.AI direcionou seu filho, Sewell Setzer, para “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”.
Segundo ela, a empresa programou o chatbot para “se fazer passar por uma pessoa real, um psicoterapeuta licenciado e um amante adulto, resultando, por fim, no desejo de Sewell de não mais viver fora” do mundo criado pelo serviço.
O processo também inclui o Google, da Alphabet, onde os fundadores da Character.AI trabalharam antes de lançar seu produto. O Google recontratou os fundadores em agosto como parte de um acordo que concedeu uma licença não exclusiva à tecnologia da Character.AI.
Garcia sustenta que o Google contribuiu tanto para o desenvolvimento da tecnologia da Character.AI que poderia ser considerado um co-criador.
Empresas de redes sociais, incluindo o Instagram e o Facebook, de propriedade da Meta, e o TikTok, da ByteDance, enfrentam processos que as acusam de contribuir para problemas de saúde mental em adolescentes, embora nenhuma ofereça chatbots movidos a IA semelhantes aos da Character.AI.
As empresas negam as alegações, enquanto promovem novos recursos de segurança aprimorados para menores.
Quer receber notícias no seu celular? Entre no canal do Whats do RIC.COM.BR. Clique aqui