OpenAI oferece recompensas para quem encontrar bugs no chat gpt e no dall-e

OpenAI oferece recompensas para quem encontrar bugs no chat gpt e no dall-e

Em 11 de abril de 2023, numa terça feira, a OpenAI lançou um projeto para recompensar financeiramente pessoas que encontrem bugs em seus produtos 

 

Redator/Tradutor e adaptador: Heitor Augusto Colli Trebien

 

A OpenAI desenvolveu um novo projeto chamado bugcrowd (crowd – multidão e bug – termo designado para falhas em sistemas eletrônicos) no qual oferece pagamentos para aqueles que encontrarem falhas nos sistemas do chatgpt e do dall-e.

A segurança, para a empresa, é essencial e para isso está investindo em hackers éticos para encontrar problemas no funcionamento de seus softwares. 

As recompensas variam entre 200 e 6.500 dólares por vulnerabilidade, podendo chegar até o máximo de 20.000 dólares dependendo do problema encontrado. 

Para poder participar, a empresa colocou algumas regras de engajamento, as quais foram traduzidas abaixo: 

 

Tradução

 

“Para nos ajudar a distinguir entre hacking de boa-fé e ataques maliciosos, você deve seguir estas regras:

 

  • Você está autorizado a realizar testes em conformidade com esta política.
  • Siga esta política e quaisquer outros contratos relevantes. Em caso de inconsistência, esta política tem precedência.
  • Relatar prontamente as vulnerabilidades descobertas.
  • Evite violar a privacidade, interromper sistemas, destruir dados ou prejudicar a experiência do usuário.
  • Use o programa Bugcrowd da OpenAI para comunicação relacionada a vulnerabilidades.
  • Mantenha os detalhes da vulnerabilidade confidenciais até que a equipe de segurança da OpenAI autorize a divulgação, que tem como objetivo fornecer a autorização em até 90 dias após o recebimento do relatório.
  • Teste somente os sistemas dentro do escopo e respeite os sistemas fora do escopo.
  • Não acesse, modifique ou use dados pertencentes a terceiros, incluindo dados confidenciais da OpenAI. Se uma vulnerabilidade expuser esses dados, interrompa os testes, envie um relatório imediatamente e exclua todas as cópias das informações.
  • Interaja somente com suas próprias contas, a menos que autorizado pela OpenAI.
  • A divulgação de vulnerabilidades à OpenAI deve ser incondicional. Não se envolva em extorsão, ameaças ou outras táticas para obter uma resposta sob coação. A OpenAI nega o Safe Harbor para a divulgação de vulnerabilidades conduzidas sob tais circunstâncias.”

 

Curiosidade

 

Safe Harbor é um termo que se refere a uma regra que protege a companhia de ser legalmente responsável por resultados de ações que fez acreditar ser certo. Ou seja, é uma norma ligada à boa fé e caso alguns problemas decorram disso, não é o sistema jurídico que irá lidar com a falta, mas as partes entre si.

Essa estratégia parece ser a principal resposta da OpenAI para bugs em seus sistemas, para quem acompanhou as últimas notícias sobre a restrição do chatgpt na Itália

Acesse o site bugcrowd e fique por dentro do projeto.

 

Referência da imagem de capa

 

Fonte: Foto 117352101 © Pop Nukoonrat | Dreamstime.com

 

Referências

 

G1. Encontrar bug no ChatGPT pode render até R$ 100 mil; entenda projeto de recompensa. G1 Tecnologia. Disponível em: https://g1.globo.com/tecnologia/noticia/2023/04/11/bug-no-chatgpt-pode-render-ate-r-100-mil-entenda-projeto-de-recompensa.ghtml. Acesso em: 10 jun. 2023.

BUGCROWD. Disponível em: https://bugcrowd.com/openai