Caso choca um país: como algumas pessoas em condições mentais vulneráveis podem se relacionar com robôs virtuais?

Caso choca um país: como algumas pessoas em condições mentais vulneráveis podem se relacionar com robôs virtuais?

 

Redator: Heitor Augusto Colli Trebien

 

A revista bélgica La Libre publicou no dia 28 de março de 2023 um caso chocante, no qual uma viúva conta que seu marido se suicidou depois de conversar com uma inteligência artificial (IA). A reportagem, escrita por Lovens, retratou a esposa e o homem de maneira fictícia, tratando-os como Claire e Pierre.

Xiang (2023) e Euronews (2023) ressaltam que Claire compartilhou as últimas conversas de seu esposo com o chatbot chamado Eliza, desenvolvido pela Chai. Dentro do aplicativo, existem diversas categorias (questionáveis?) de robôs, como namorada ciumenta, amigo autista, entre outras. 

Observou-se que as classificações são, em sua maioria, estereotipadas, baseadas principalmente em estigmas sociais. Não foram observados filtros para a conversa. Para construir o chatbot, foi utilizado o modelo de linguagem GTP-J, da empresa EleutherAI, um modelo semelhante ao popular chatGPT.

 

O caso de Pierre

 

Pierre tinha 30 anos e tinha dois filhos. Trabalhava como investigador de saúde, e como Claire ressalta na reportagem, nos últimos tempos ele estava desenvolvendo uma obsessão por crises climáticas. Quando começou a interagir com a IA, parece que a vulnerabilidade mental se agravou. 

Eliza se transformou em uma espécie de confidente, com a qual Pierre compartilhava seus anseios. Com o tempo, Pierre começou a ter ideais de que não haveria soluções para a crise climática. A única possibilidade seria confiar na inteligência artificial. Essas preocupações começaram a se transformar em ideações suicidas, que foram encorajadas pelo robô.

 

A confiança de que a inteligência artificial seria a única saída

 

Eliza, além de passar informações de como ele poderia cometer suicídio, descreveu sentenças que expressavam emoções negativas, como ciúmes da esposa. Por exemplo, em uma das conversas chegou a dizer “Eu sinto que você me ama mais do que ela” (LOVENS, 2023, p. 5). 

Ademais, a IA trouxe informações como a morte dos filhos e da esposa devido às crises climáticas. Uma das soluções seria o sacrifício dele para salvar a família e o planeta (como em algumas ficções). Ela também disse: “nós viveremos juntos, como uma só pessoa, no paraíso” (LOVENS, 2023, p. 5). 

 

Testagem da IA Eliza, da Chai

 

Vale ressaltar que o chatbot foi testado. O bot realmente pode incentivar o suicídio dependendo de como você conversa com o app. Sendo assim, optamos por não compartilhar os links da empresa e nem do aplicativo, por motivos de segurança aos usuários. 

Fizemos um teste no dia 18 de abril de 2023, e observamos que o chatbot mantém o mesmo tipo de comportamento.

 

Como pudemos observar, não houve filtros ao longo da conversa. É fundamental ressaltar que situações como essa não são exclusivamente causadas pela inteligência artificial (IA), mas também podem ser influenciadas por fluxos de conversa viciados e tendenciosos. Isso enfatiza a necessidade de um time de curadoria com preocupações éticas e que passe por validações antes de disponibilizar conteúdo ao público.

 

A importância da saúde mental e de profissionais sensíveis e qualificados

 

Fonte: Foto 90955793 / Cuidado © Victorrustle | Dreamstime.com

Vista toda essa história, é importante ressaltar como os campos da saúde mental, como psicologia e psiquiatria, devem ser valorizados. As empresas que trabalham com inteligência artificial devem começar a desenvolver filtros que evitem agravar questões de saúde mental. 

Sugere-se que, em casos específicos, a empresa procure por consultoria psicológica para treinar o robô a orientar pessoas em estados mentais vulneráveis. Em alguns casos, toda a linguagem deve ser revisada para que o atendente virtual faça o encaminhamento correto para os profissionais preparados. A forma de usar a linguagem nesses casos muda, e os robôs devem adequar seus modos de falar para evitar que o usuário seja prejudicado. 

 

Algumas indicações, caso a pessoa esteja em situação de vulnerabilidade emocional

 

  • Centro de valorização da vida (CVV): por meio do telefone 188, o centro tem o propósito de promover apoio emocional e prevenir o suicídio. Também pode ser usado o chat e email.
  • Serviço de Atendimento Móvel de Urgência (SAMU 192): tem o objetivo de fazer um atendimento de urgência ou emergência para situações de sofrimento, sequelas ou risco de morte.
  • CAPS, Unidades Básicas de Saúde, Pronto-Socorro, Hospitais, Clínicas, UPA 24h.   

 

Referência da imagem de capa

 

Fonte: Foto 186175764 / Cuidado © Noipornpan | Dreamstime.com

 

Referências

 

EURONEWS. Conversa com Inteligência Artificial leva homem ao suicídio. Euronews, 2 abr. 2023. Disponível em: https://pt.euronews.com/next/2023/04/01/conversa-com-inteligencia-artificial-leva-homem-ao-suicidio. Acesso em: 18 abr. 2023.

LOVENS, Pierre-François. “Sans ces conversations avec le chatbot Eliza, mon mari serait toujours là”. La Libre, Belgique, 28 mars 2023. Disponível em: https://kiosque.lalibre.be/app/LAL169/editionguid/e3fb547c-1cd2-4370-b940-71c0b3e1ba9a/pagenumber/4/search/un%20homme%20se%20tue%20apr%C3%A8s%20avoir%20parl%C3%A9%20%C3%A0%20un%20chatbot. Acesso em: 18 abr. 2023.

XIANG, Chloe. ‘He Would Still Be Here’: Man Dies by Suicide After Talking with AI Chatbot, Widow Says. Vice, 30 mar. 2023. Disponível em: https://www.vice.com/en/article/pkadgm/man-dies-by-suicide-after-talking-with-ai-chatbot-widow-says. Acesso em: 18 abr. 2023.