Qual é a lógica das alucinações produzidas pelas inteligências artificiais?

Qual é a lógica das alucinações produzidas pelas inteligências artificiais?

As alucinações também fazem parte do repertório dos chatbots. Mas como elas funcionam para as máquinas?

 

Redator: Heitor Augusto Colli Trebien

 

As máquinas também produzem alucinações, de certo modo. Estranho dizer isso das máquinas, principalmente dos chatbots que usamos no dia a dia. Mas, como Diogo Cortiz (2023) comenta, muitos bots, como o chatGPT, “inventam” eventos que não ocorreram apenas para dar uma resposta ao usuário. 

Para entender como a máquina alucina, o autor explica que os modelos amplos de língua (LLM), como o GPT, funcionam como uma rede neural enorme, que transforma uma sequência de palavras em números e calcula sua ordem e probabilidade de maneira estatística. Ou seja, ele representa as palavras e suas relações de modo matemático. 

A máquina observa a frequência com que uma palavra aparece depois da outra, e quanto mais é treinada mais ela consegue produzir textos semelhantes aos dos seres humanos. Por isso os bots precisam de uma larga base de informação, para poderem soar mais naturais. A partir do feedback, da programação e de atualizações constantes, a máquina consegue conectar as palavras em textos de modo a lembrar uma atividade humana.

 

Mas será que a máquina “pensa” como um ser humano?

 

A resposta é não. Precisamos destacar que a máquina não tem a noção, a experiência do que é aquela coisa representada por uma palavra. O que a máquina faz é associar padrões de palavras e uni-los por meio de uma representação numérica, com uma ampla base de dados.  

Uma das estratégias que a OpenAI utilizou para aprimorar o chatGPT, como Cortiz (2023) destaca, foi a aprendizagem por reforço com feedback humano (Reinforcement Learning from Human Feedback – RLHF). A abordagem consiste basicamente em fazer com que os usuários trabalhem junto com os programadores. Assim, as pessoas dizem qual a melhor resposta, na sua perspectiva, o que permitiu o aprimoramento da máquina. 

No entanto, como o autor ressalta, o bot não entende, por exemplo, os significados das palavras e como eles se aplicam ao contexto. Por exemplo, a máquina representa o verbo “gostar” e a palavra “sorvete”. O bot pode formular a frase “Eu gosto de sorvete” mas não “Sorvete gosto de eu”. É muito difícil ver essa escrita em português, os usuários não a utilizam naturalmente porque ela não faz sentido no dia a dia. A máquina reproduz esse movimento por meio da estatística, por meio dos padrões linguísticos registrados. 

Atualmente, o chatGPT já aprimorou seu modo de funcionamento. Antes, para oferecer uma resposta, ele ligava palavras que faziam sentido, mas podiam não ter acontecido de fato. Ele poderia falar da formação de alguém sem que aquela pessoa tivesse aquela formação de fato. Hoje, com mais preparo, o chatGPT se tornou mais cauteloso nesses aspectos. 

 

Exemplos práticos

 

Por exemplo, quando questionei sobre minha própria formação, o bot respondeu: 

 

“Não tenho informações específicas sobre uma pessoa chamada Heitor Trebien e sua formação educacional, pois meu banco de dados, atualizado até abril de 2023, não inclui informações detalhadas sobre indivíduos privados a menos que tenham ganho destaque público em suas áreas ou tenham realizado algo que os coloque em domínio público.

Para obter essa informação, seria necessário consultar fontes que contêm dados sobre indivíduos, tais como perfis profissionais em redes sociais como LinkedIn, websites institucionais de universidades ou outras plataformas que possam listar a formação acadêmica e experiências profissionais de pessoas específicas.” (chatGPT)

 

Como podemos ver, o chatGPT não une mais qualquer informação, mas separou figuras públicas de não-públicas para, em seguida, sugerir uma forma de encontrar perfis privados, como o LinkedIn. 

 

Cuidados que precisamos ter

 

Como a máquina manipula a linguagem por meio da probabilidade, não há necessariamente um compromisso com a realidade, mas com aquilo que é possível interconectar. Sendo assim, precisamos sempre averiguar como a informação foi construída. Independente de um texto escrito por um humano ou reconstruído por uma máquina, precisamos compreender a informação, questioná-la e aplicá-la segundo nosso contexto, significado e experiência. O pensamento crítico é essencial para o momento que vivemos hoje.

 

Referência da imagem da capa

 

Fonte: imagem gerada por inteligência artificial com prompts do redator. Recursos utilizados: chatGPT e Dall-e.

 

Referência

CORTIZ, Diogo. Entendendo as alucinações do chatGPT. Blog pessoal, 15 fev. 2023. Disponível em: https://diogocortiz.com.br/entendendo-as-alucinacoes-do-chatgpt/. Acesso em: 17 out. 2023.