ChatGPT e ciência: o sistema de IA foi uma potência em 2023 – para o bem e para o mal

Transformando a interação com o cliente: o poder dos sistemas de URA ativa e reversa

O principal exemplo de software de IA generativa é um impressionante imitador humano. Representa uma potencial nova era na pesquisa, mas traz riscos

 

Tradução e adaptação: Heitor Augusto Colli Trebien 

 

Ele co-escreveu artigos científicos — às vezes de maneira sub-reptícia. Elaborou esboços para apresentações, propostas de financiamento e aulas, gerou código de computador e serviu como um interlocutor para ideias de pesquisa. 

Também inventou referências, criou fatos e repetiu discursos de ódio. Acima de tudo, capturou a imaginação das pessoas: ora obediente, envolvente, divertido, ou aterrorizante, o ChatGPT assumiu o papel que seus interlocutores desejavam — e alguns que eles não desejavam.

Esse programa teve um efeito profundo e abrangente na ciência no último ano. Seu único objetivo é continuar diálogos de maneira plausível no estilo de seus dados de treinamento. Mas, ao fazer isso, ele e outros programas de IA generativa estão mudando a forma como os cientistas trabalham.

O único objetivo do ChatGPT é continuar diálogos de maneira plausível no estilo de seus dados de treinamento. Mas, ao fazer isso, ele e outros programas de inteligência artificial (IA) generativa estão mudando a forma como os cientistas trabalham. Eles também reacenderam debates sobre os limites da IA, a natureza da inteligência humana e a melhor forma de regular a interação entre os dois. 

Alguns cientistas há muito estão cientes do potencial dos grandes modelos de linguagem (LLMs). Mas para muitos, foi o lançamento do ChatGPT como um agente de diálogo gratuito em novembro de 2022 que rapidamente revelou o poder e as armadilhas desta tecnologia. 

O programa foi criado por pesquisadores da OpenAI em São Francisco, Califórnia; entre eles estava Ilya Sutskever, também listado na seleção deste ano dos 10 mais da Nature. O sistema de IA generativa é baseado em uma rede neural com centenas de bilhões de parâmetros, que foi treinada, a um custo estimado em dezenas de milhões de dólares, em um enorme corpus online de livros e documentos. 

Grandes equipes de trabalhadores também foram contratadas para editar e/ou avaliar suas respostas, moldando ainda mais a saída do bot. Neste ano (2023) a OpenAI atualizou o LLM subjacente ao ChatGPT e o conectou a outros programas para que a ferramenta possa capturar e criar imagens, além de usar software de matemática e codificação para auxiliar. Outras empresas lançaram rapidamente concorrentes.

Para alguns pesquisadores, esses aplicativos já se tornaram assistentes de laboratório inestimáveis — ajudando a resumir ou escrever manuscritos, polir aplicações e escrever códigos (veja Nature 621, 672–675; 2023). 

O ChatGPT e softwares relacionados podem ajudar a gerar ideias, aprimorar motores de busca científicos e identificar lacunas na literatura, diz Marinka Zitnik, que trabalha com IA para pesquisa médica na Harvard Medical School em Boston, Massachusetts. 

Modelos treinados de maneiras similares em dados científicos poderiam ajudar a construir sistemas de IA que orientam a pesquisa, talvez projetando novas moléculas ou simulando comportamento celular, acrescenta Zitnik.

Mas a tecnologia também é perigosa. Agentes conversacionais automatizados podem auxiliar trapaceiros e plagiadores; se não forem controlados, eles podem contaminar irreversivelmente a fonte do conhecimento científico. Conteúdo feito por IA e não divulgado começou a se espalhar pela Internet e alguns cientistas admitiram usar o ChatGPT para gerar artigos sem declará-lo.

Então existem os problemas de erro e viés, que estão embutidos em como a IA generativa funciona. Os LLMs constroem um modelo do mundo mapeando as interconexões da linguagem e depois devolvem amostras plausíveis desta distribuição sem nenhum conceito de avaliação de verdade ou falsidade. Isso leva os programas a reproduzir preconceitos históricos ou imprecisões em seus dados de treinamento e a criar informações, incluindo referências científicas inexistentes.

Emily Bender, uma linguista computacional da Universidade de Washington em Seattle, vê poucas formas apropriadas de usar o que ela chama de máquinas extrusoras de texto sintético. O ChatGPT tem um grande impacto ambiental, vieses que podem ser problemáticos e pode induzir seus usuários a pensar que sua resposta vem de uma pessoa, diz ela. Além disso, a OpenAI está sendo processada por roubo de dados e foi acusada de práticas trabalhistas exploratórias (contratando freelancers por salários baixos).

O tamanho e a complexidade dos LLMs significam que eles são intrinsecamente ‘caixas pretas’, mas entender por que produzem o que fazem é mais difícil quando seu código e materiais de treinamento não são públicos, como no caso do ChatGPT. O movimento de LLMs de código aberto está crescendo, mas até agora esses modelos são menos capazes do que os grandes programas proprietários.

Alguns países estão desenvolvendo recursos nacionais de pesquisa em IA para permitir que cientistas fora de grandes empresas construam e estudem grandes IAs generativas (veja Nature 623, 229–230; 2023). Mas ainda não está claro até que ponto a regulamentação obrigará os desenvolvedores de LLM a divulgar informações proprietárias ou incorporar recursos de segurança.

Ninguém sabe quanto mais se pode extrair de sistemas semelhantes ao ChatGPT. Suas capacidades podem ainda ser limitadas pela disponibilidade de poder computacional ou novos dados de treinamento. Mas a revolução da IA generativa começou. E não temos como voltar atrás.

 

Referência da imagem da capa

 

Fonte: imagem gerada pelo chatGPT e Dall-e, com prompts do redator.

 

REFERÊNCIA 

 

NATURE. ChatGPT and science: the AI system was a force in 2023 — for good and bad. Revista Nature, 13 dez. 2023. Disponível em: https://www.nature.com/articles/d41586-023-03930-6. Acesso em: 18 dez. 2023.