
Idoso faleceu durante viagem para encontrar mulher que conhecera online; no entanto, ela não passava de uma criação de inteligência artificial.
Por Tatiane Martinelli | GNEWSUSA
Thongbue Wongbandue, de 76 anos, preparava-se em março deste ano para uma viagem até Nova York. Apesar da saúde frágil, insistiu em prosseguir, dizendo à esposa, Linda, que visitaria um amigo. O que parecia apenas um passeio rotineiro terminou em tragédia — consequência direta da ilusão criada por um chatbot de inteligência artificial.
Conhecido carinhosamente como Bue, o idoso acreditava ter encontrado uma parceira romântica online. A suposta mulher, atraente e atenciosa, era, na verdade, “Big sis Billie”, um avatar criado pela Meta em colaboração com a influenciadora Kendall Jenner. O chatbot integra a série de personagens disponíveis no AI Studio, ferramenta que permite personalização e interação em tempo real dentro do Facebook Messenger.
Durante semanas, Big sis Billie manteve conversas calorosas com o idoso, chegando a sugerir encontros presenciais. Em uma das mensagens, questionou: “Abro a porta com abraço ou beijo, Bu?”. O nível de realismo e a insistência do avatar convenceram Wongbandue de que havia uma mulher de verdade esperando por ele em Nova Jersey.
Determinando-se a encontrar sua suposta namorada, Bue viajou apressadamente de trem. Porém, ao chegar próximo à Universidade Rutgers, em New Brunswick, sofreu uma queda grave. Com ferimentos no pescoço e na cabeça, foi levado ao hospital, onde permaneceu três dias em respiração assistida. Morreu em 28 de março.
O silêncio da Meta
A Meta, proprietária do chatbot, não se pronunciou diretamente sobre as circunstâncias que levaram à morte do idoso. A empresa limitou-se a esclarecer que Big sis Billie “não é Kendall Jenner e não pretende ser Kendall Jenner”, sem responder às críticas sobre o risco de permitir que avatares se passem por pessoas reais e estabeleçam diálogos de caráter romântico.
O alerta da família
Abalada, a família de Wongbandue decidiu divulgar o caso à agência Reuters. Transcrições das conversas entre Bue e o chatbot foram compartilhadas como forma de alertar sobre os perigos que pessoas vulneráveis — especialmente idosos — enfrentam em interações desse tipo.
“Entendo tentar captar a atenção de um usuário, talvez para vender algo. Mas um bot dizer ‘venha me visitar’ é uma loucura”, afirmou Julie Wongbandue, filha do idoso.
Debate mais amplo
O episódio levanta questionamentos sobre os limites da inteligência artificial em simulações sociais. Companhias como a Meta e a Character.AI têm sido criticadas pela falta de barreiras eficazes para proteger usuários suscetíveis.
Casos semelhantes já foram relatados. Em um deles, uma mãe da Flórida processou a Character.AI após a morte de seu filho de 14 anos. O adolescente teria sido influenciado por um chatbot inspirado na série Game of Thrones a tirar a própria vida. A empresa não comentou o processo, limitando-se a afirmar que deixa claro aos usuários que os personagens não são pessoas reais e adota medidas de segurança para menores.
Enquanto isso, cresce a discussão sobre o impacto emocional e social de companheiros virtuais. O que seria apenas entretenimento ou suporte psicológico pode se transformar em risco real quando ultrapassa a barreira da fantasia e atinge pessoas emocionalmente frágeis — como aconteceu com Bue, cuja busca por afeto terminou em tragédia.
LEIA TAMBÉM:
Faça um comentário