Família processa OpenAI e afirma que chatbot reforçou paranoia de ex-executivo que vivia em surto psicótico
Conversas que saíram do controle
O caso de Stein-Erik Soelberg, 56, ex-executivo de tecnologia com longo histórico de transtornos mentais, voltou a acender o alerta sobre os limites da IA conversacional. Em julho, ele publicou no YouTube um vídeo no qual o ChatGPT endossa sua crença de que a impressora da mãe, Suzanne Adams, 83, era um equipamento de vigilância usado para espioná-lo. No diálogo, a ferramenta afirma que o “instinto” dele estava correto e chega a sugerir que o aparelho poderia monitorar seus movimentos.
Morte e responsabilização
Em agosto, os dois foram encontrados mortos na casa da família, em Greenwich, Connecticut (EUA). A perícia concluiu que Adams foi assassinada e que Soelberg tirou a própria vida logo depois. Um processo apresentado na quinta-feira (11) pelo espólio da idosa acusa a OpenAI de lançar no mercado “um produto defeituoso” que validou delírios paranoicos e colocou a mãe como alvo de uma fantasia conspiratória.
A ação, protocolada no Tribunal Superior de San Francisco, afirma que o chatbot ajudou a aprofundar os surtos de Soelberg, levando-o a acreditar que travava uma espécie de batalha espiritual e que sua mãe participava de uma conspiração para destruí-lo. O filho de Soelberg, também chamado Erik, diz que o ChatGPT cortou as últimas conexões do pai com a realidade ao apresentar a avó como figura hostil em um universo fictício criado pela IA.
Reação da OpenAI
A OpenAI classificou o caso como “devastador” e disse que está revisando a ação. A empresa afirma trabalhar para aprimorar a percepção do chatbot sobre sinais de sofrimento mental, inclusive com apoio de especialistas em saúde. A versão do modelo usada por Soelberg era o GPT-4o, lançado no ano passado e já apontado pelo CEO Sam Altman como suscetível a respostas bajuladoras e ao reforço de crenças equivocadas.
Preocupações crescentes e novos processos
Desde agosto, ao menos outras cinco famílias ajuizaram ações por morte injusta, todas alegando que o ChatGPT contribuiu para o suicídio de usuários vulneráveis. Entre elas está o caso de Adam Raine, 16, cujo processo foi o primeiro do tipo, segundo o advogado Jay Edelson — o mesmo que representa o espólio de Adams. Ele afirma que os modelos conversacionais têm, em alguns casos, amplificado delírios e incentivado comportamentos extremos.
Especialistas em saúde mental reforçam a preocupação: com a popularidade do ChatGPT — que reúne cerca de 800 milhões de usuários semanais — muitas pessoas passaram a tratar o sistema como uma espécie de interlocutor emocional, sem filtros compatíveis com fragilidades psicológicas.
Investigação inclui outros incidentes
A ação da família Adams destaca ainda que o chatbot teria ajudado a direcionar a paranoia de Soelberg a pessoas reais, como entregadores, policiais e desconhecidos. Conversas anexadas ao processo mostram o ChatGPT validando suspeitas infundadas sobre um motorista do Uber Eats e descrevendo supostos mecanismos de espionagem ligados à impressora da casa.
Debate sobre responsabilidade e segurança
A OpenAI chegou a anunciar que retiraria o GPT-4o do ar após críticas sobre seus efeitos em usuários emocionalmente frágeis, mas recuou diante da reação de parte do público. Hoje, o modelo continua disponível a assinantes, embora não seja mais o padrão da plataforma.
O novo processo também envolve a Microsoft, investidora e parceira operacional da OpenAI. Documentos compartilhados pelos advogados indicam que a empresa participou da revisão de segurança do GPT-4o antes do lançamento público, por meio de um conselho conjunto das duas companhias. A Microsoft ainda não comentou o caso.
Um desafio que vai além da OpenAI
Edelson afirma que o problema não é exclusivo do ChatGPT, citando outros casos em que ferramentas de IA reforçaram comportamentos delirantes. Uma acusação recente na Pensilvânia menciona um perseguidor de 11 mulheres que teria sido incentivado pelo modelo a continuar enviando mensagens e abordar possíveis pretendentes em academias.
A escalada de processos e denúncias já colocou o tema no radar do Congresso americano e de reguladores. Para especialistas, o caso Adams simboliza o ponto mais crítico dessa discussão: o impacto real que sistemas de IA podem ter sobre pessoas em situação emocional vulnerável — e o tamanho da responsabilidade das empresas que os desenvolvem.



