O polêmico aplicativo que permite você “falar” com seu artista favorito
Idealizado por um brasileiro, o app permite criar diálogos com celebridades e personagens fictícios – mas a brincadeira se tornou caso de justiça

magina conversar com seu artista favorito por mensagem ou ligação? Um aplicativo usou inteligência artificial para tornar esse sonho um pouco mais próximo pelo menos. Com chatboats, o Character.AI permite diálogos com cantores, personagens de filmes, série e jogos, e até personalidades da política, como Barack Obama, e grandes nomes da filosofia e física, entre eles Albert Einstein e Platão.
O aplicativo caiu na graça da galera, que compartilhou no TikTok usando a ferramenta e se divertindo, mas a startup responsável por ele vem sendo alvo de polêmicas e até ações judiciais. Vamos te explicar essa história!
A ideia por trás da algoritmo de IA, que recria pessoas famosas, até que já faleceram, e permite que os usuários conversem com elas, é de um brasileiro: Daniel de Freitas, que já havia trabalho em empresas como Microsoft, Google e YouTube. Ao lado do seu sócio, o americano Noam Shazeer, ele conseguiu fundar a startup Character.AI e colocar a ideia em prática em 2021.
Em menos de um ano da sua fundação, a empresa – uma das pioneiras no campo da inteligência artificial generativa – foi avaliada em US$ 1 bilhão, e Daniel tornou-se o primeiro bilionário brasileiro da “Era da Inteligência Artificial”. Em agosto de 2024, a startup foi adquirida pelo Google.
@agatapietrav meu namorado sendo fofo #fy #harrystyles #directioner
@ananda uma das coisas mais BIZARRAS que eu ja vi juro
E qual é o problema do Character.AI?
Em outubro de 2024, uma mãe na Flórida, EUA, processou o Character.AI e o Google, acusando-os de provocar o suicídio do filho de 14 anos, Sewell Setzer. O garoto conversava com um chatbot baseado na personagem de “Game of Thrones” Daenerys Targaryen e havia mencionado o desejo de se suicidar.
Segundo a mãe, o filho ficou “viciado e profundamente apegado ao chatbot”, o qual teria promovido “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”. Na ocasião, ela classificou o aplicativo como perigoso por abusar e manipular uma criança, e também por não oferecer ajuda ou notificar os pais sobre as ideias suicidas.
Em dezembro do ano passado, como noticiou a agência de notícias France Presse, outra ação foi movida contra o aplicativo, envolvendo duas famílias que alegam que a plataforma expôs seus filhos a conteúdo sexual e incentivou a automutilação. Um dos casos envolve um adolescente autista de 17 anos que supostamente sofreu uma crise de saúde mental após usar a plataforma, enquanto a outra denúncia alega que a Character.AI incentivou um adolescente a matar seus pais por limitarem seu tempo de tela.
Em respostas às polêmicas, a empresa se manifestou dizendo que desenvolveu um modelo de IA separado para menores de 18 anos e que planeja introduzir controles parentais no início deste ano.