Em 11 de abril de 2023, numa terça feira, a OpenAI lançou um projeto para recompensar financeiramente pessoas que encontrem bugs em seus produtos
Redator/Tradutor e adaptador: Heitor Augusto Colli Trebien
A OpenAI desenvolveu um novo projeto chamado bugcrowd (crowd – multidão e bug – termo designado para falhas em sistemas eletrônicos) no qual oferece pagamentos para aqueles que encontrarem falhas nos sistemas do chatgpt e do dall-e.
A segurança, para a empresa, é essencial e para isso está investindo em hackers éticos para encontrar problemas no funcionamento de seus softwares.
As recompensas variam entre 200 e 6.500 dólares por vulnerabilidade, podendo chegar até o máximo de 20.000 dólares dependendo do problema encontrado.
Para poder participar, a empresa colocou algumas regras de engajamento, as quais foram traduzidas abaixo:
Tradução
“Para nos ajudar a distinguir entre hacking de boa-fé e ataques maliciosos, você deve seguir estas regras:
- Você está autorizado a realizar testes em conformidade com esta política.
- Siga esta política e quaisquer outros contratos relevantes. Em caso de inconsistência, esta política tem precedência.
- Relatar prontamente as vulnerabilidades descobertas.
- Evite violar a privacidade, interromper sistemas, destruir dados ou prejudicar a experiência do usuário.
- Use o programa Bugcrowd da OpenAI para comunicação relacionada a vulnerabilidades.
- Mantenha os detalhes da vulnerabilidade confidenciais até que a equipe de segurança da OpenAI autorize a divulgação, que tem como objetivo fornecer a autorização em até 90 dias após o recebimento do relatório.
- Teste somente os sistemas dentro do escopo e respeite os sistemas fora do escopo.
- Não acesse, modifique ou use dados pertencentes a terceiros, incluindo dados confidenciais da OpenAI. Se uma vulnerabilidade expuser esses dados, interrompa os testes, envie um relatório imediatamente e exclua todas as cópias das informações.
- Interaja somente com suas próprias contas, a menos que autorizado pela OpenAI.
- A divulgação de vulnerabilidades à OpenAI deve ser incondicional. Não se envolva em extorsão, ameaças ou outras táticas para obter uma resposta sob coação. A OpenAI nega o Safe Harbor para a divulgação de vulnerabilidades conduzidas sob tais circunstâncias.”
Curiosidade
Safe Harbor é um termo que se refere a uma regra que protege a companhia de ser legalmente responsável por resultados de ações que fez acreditar ser certo. Ou seja, é uma norma ligada à boa fé e caso alguns problemas decorram disso, não é o sistema jurídico que irá lidar com a falta, mas as partes entre si.
Essa estratégia parece ser a principal resposta da OpenAI para bugs em seus sistemas, para quem acompanhou as últimas notícias sobre a restrição do chatgpt na Itália.
Acesse o site bugcrowd e fique por dentro do projeto.
Referência da imagem de capa
Fonte: Foto 117352101 © Pop Nukoonrat | Dreamstime.com
Referências
G1. Encontrar bug no ChatGPT pode render até R$ 100 mil; entenda projeto de recompensa. G1 Tecnologia. Disponível em: https://g1.globo.com/tecnologia/noticia/2023/04/11/bug-no-chatgpt-pode-render-ate-r-100-mil-entenda-projeto-de-recompensa.ghtml. Acesso em: 10 jun. 2023.
BUGCROWD. Disponível em: https://bugcrowd.com/openai