Vazamento de dados e chat GPT: como a Itália está lidando com isso?

Vazamento de dados e chat GPT: como a Itália está lidando com isso?

No momento, a Itália preferiu restringir temporariamente o uso da tecnologia, pelo chat não ter filtro de idade e não respeitar as leis de proteção de dados do território

 

Redator: Heitor Augusto Colli Trebien

 

O software

 

O Chat GPT tem impressionado e impactado a população e o mercado mundial desde que chegou ao público em 30 de novembro de 2022. A tecnologia, movida à inteligência artificial, consegue produzir e criar diferentes conteúdos textuais, como roteiros de blog, de filmes, de reportagens, além de escrever redações e passar em exames.

O usuário pode pedir diferentes estilos de texto escrito, como informal, formal, piada, literário entre outros. A OpenAI, empresa responsável por esse software, o treinou e desenvolveu entrecruzando os textos produzidos pela humanidade publicados na internet. Ou seja, a máquina tem um potencial e uma força imensa de dados, o que tem preocupado algumas instituições.

 

Vazamento de dados

 

Fonte: Foto 178809453 © Prostockstudio | Dreamstime.com

Na sexta-feira do dia 31 de março, as autoridades nacionais italianas – Garante per la protezione dei dati personali (GPDP) – optaram por limitar o compartilhamento de dados com a empresa OpenAI, com o objetivo de proteger as informações pessoais do público. 

Como apontado pelo Correio Braziliense (2023) e por Zorzi (2023), em 20 de março de 2023 a OpenAI sofreu um data Breach (brecha nos dados – violação de dados) em relação aos dados dos pagamentos de clientes que possuem seu serviço de assinatura. 

A principal crítica direcionada à empresa foi a de não publicar uma nota informativa e guardar dados pessoais importantes com o pretexto de treinar o software. Isto é, o governo italiano criticou a transparência e o modo de uso dos dados pela OpenAI. 

Outro ponto discutido pelo Órgão responsável, segundo o G1 (2023), é que a máquina é voltada para usuários com mais de 13 anos, no entanto, não existe nenhum filtro que coloque em prática essa restrição. Isso pode colocar crianças em contato com respostas não adequadas ao seu nível de desenvolvimento. 

 

Medidas a serem tomadas

 

Segundo a ANSA Brasil(2023), a Garante solicitou que, em 20 dias, a empresa deve comunicar suas medidas adotadas. Ou seja, a OpenAI tem até o dia 30 de abril para cumprir os requisitos da Lei Geral de Proteção de Dados europeia. Caso não o faça, poderá pagar uma multa de até 20 milhões de euros, aproximadamente 21 milhões de dólares, ou ainda 4% do faturamento anual global da empresa. 

A preocupação geral sobre o vazamento de dados teve início quando a Europol (European Union Agency for Law Enforcement Cooperation – Agência da União Europeia para a Cooperação Policial) publicou uma nota no dia 27 de março de 2023 sobre os possíveis usos criminosos de modelos de linguagem de grande porte (large language models), como o chatGPT. 

De modo geral, a nota salienta três principais preocupações:

 

  • Fraude e engenharia social: pela capacidade de produzir textos em padrões humanos, o chat pode ser usado como uma ferramenta de pesca de informações (phishing). Isto é, existe o potencial de enganar pessoas através de textos criados para coletar informações pessoais.
  • Desinformação: o chat, além de conseguir produzir notícias falsas, produz informações de um contexto específico de forma muito rápida. O usuário, por sua vez, compartilha esse dado também de modo rápido e sem esforço. Assim, tem-se o compartilhamento de narrativas sem necessariamente haver um crivo ou filtro dos conteúdos compartilhados.  
  • Cibercrimes: o chat GPT, além de produzir textos, também cria códigos para programações. Isso facilita o trabalho de um criminoso com pouco conhecimento técnico, permitindo que seja produzido um código malicioso (vírus) de um modo mais rápido.

 

O principal objetivo do relatório é de aumentar a conscientização e abrir um diálogo com as empresas de inteligência artificial (IA) sobre os usos maliciosos da tecnologia, para que desenvolvam proteções avançadas pensadas nesses contextos. Para ver o documento original na íntegra, acesse: ChatGPT The impact of Large Language Models on Law Enforcement.

 

Referência da imagem de capa

 

Fonte: Foto 206048714 © Putilich | Dreamstime.com

 

Referências

 

G1. Itália bloqueia ChatGPT após suspeita de violação de regras de coleta de dados. G1, 31 mar. 2023. Disponível em: https://g1.globo.com/tecnologia/noticia/2023/03/31/italia-bloqueia-chatgpt-apos-agencia-de-protecao-de-dados-abrir-investigacao-sobre-privacidade.ghtml. Acesso em: 17 abr. 2023. 

ANSA. ChatGPT poderá ser liberado na Itália se atender exigências até 30/04. ANSA Brasil, 12 abr. 2023. Disponível em: https://ansabrasil.com.br/brasil/noticias/ciencia_e_tecnologia/2023/04/12/chatgpt-podera-ser-liberado-na-italia-se-atender-exigencias_8cd7138a-02cc-4cd8-a700-0c47579b2cf7.html. Acesso em: 17 abr. 2023.

CORREIO BRAZILIENSE. ChatGPT é bloqueado na Itália por não respeitar legislação de dados pessoais. Correio Braziliense, 31 mar. 2023. Disponível em: https://www.correiobraziliense.com.br/tecnologia/2023/03/5084219-chatgpt-e-bloqueado-na-italia-por-nao-respeitar-legislacao-de-dados-pessoais.html. Acesso em: 10 abr. 2023. 

ZORZI, Marco. Bloqueio ao ChatGPT na Itália revela temor com proteção de dados. Terra, 8 abr. 2023. Disponível em: https://www.terra.com.br/noticias/bloqueio-ao-chatgpt-na-italia-revela-temor-com-protecao-de-dados,3e30645e41789287f180f38523042627avtmghhv.html. Acesso em: 10 abr. 2023.