O processo movido pelo New York Times contra a OpenAI por violação de direitos autorais tomou um rumo inesperado após a empresa de tecnologia acusar o jornal de contratar alguém para “hackear” o ChatGPT e outros produtos para gerar evidências enganosas que apoiem sua alegação. No entanto, o uso do termo “hackear” pela OpenAI pode ser um exagero.
O NYT processou a OpenAI e a Microsoft em dezembro por usar milhões de seus artigos para treinar seus sistemas sem permissão ou compensação. O processo alega que milhões de peças de notícias protegidas por direitos autorais, investigações aprofundadas, artigos de opinião, resenhas, guias de instruções e muito mais do Times foram usados para treinar os chatbots, que agora competem com o jornal como fonte de informação.
Em um documento apresentado no tribunal federal de Manhattan na segunda-feira, a OpenAI alegou que o Times “pagou a alguém para hackear” seus produtos para gerar 100 exemplos de violação de direitos autorais.
A OpenAI afirma que o Times precisou de dezenas de milhares de tentativas para gerar “resultados altamente anômalos” e que alcançou isso usando “prompts enganosos que violam flagrantemente os termos de uso da OpenAI”.
“Eles só conseguiram fazer isso segmentando e explorando um bug (que a OpenAI se comprometeu a corrigir) usando prompts enganosos que violam flagrantemente os termos de uso da OpenAI”, escreveu o advogado da OpenAI. “E mesmo assim, eles tiveram que alimentar a ferramenta com partes dos próprios artigos que tentavam extrair passagens literais, a maioria dos quais já aparecem em vários sites públicos.”
“Pessoas normais não usam os produtos da OpenAI dessa forma […] No curso normal, não se pode usar o ChatGPT para servir artigos do Times à vontade”, continuou a OpenAI.
A OpenAI não revela o nome do “pistola contratado” que alega ter sido contratado pelo Times para manipular a saída do ChatGPT, nem acusa o jornal de hackeamento real. Isso se parece mais com engenharia de prompts padrão, e o Times concorda.
“O que a OpenAI bizarramente caracteriza como ‘hacking’ é simplesmente usar os produtos da OpenAI para procurar evidências de que roubaram e reproduziram obras protegidas por direitos autorais do Times. E foi exatamente isso que encontramos. Na verdade, a escala da cópia da OpenAI é muito maior do que os mais de 100 exemplos apresentados na queixa”, disse Ian Crosby, sócio da Susman Godfrey e advogado principal da publicação. “Neste documento, a OpenAI não contesta – nem pode – que copiaram milhões de obras do Times para construir e alimentar seus produtos comerciais sem nossa permissão.”
O uso de obras protegidas por direitos autorais no treinamento de IAs generativas levou a inúmeras ações judiciais de autores, artistas e criadores. A OpenAI disse no documento que acredita que as empresas de IA vencerão casos como esses com base no uso justo. Ele observa que o Times “não pode impedir que modelos de IA adquiram conhecimento sobre fatos”.
Leia também: Aplicativos fleeceware se disfarçam como ChatGPT e enganam usuários
Foi noticiado em agosto que o Times estava em “negociações tensas” para chegar a um acordo de licenciamento com a OpenAI e a Microsoft, que permitiria ao primeiro treinar legalmente seu modelo GPT com material publicado pelo Times, algo que o jornal anteriormente decidiu proibir. Mas as conversas fracassaram, levando ao processo atual. A OpenAI já possui um acordo com a Reuters e a Axel Springer para usar o conteúdo delas para fins de treinamento e está em negociação com a CNN, Fox Corp. e Time para fechar acordos de licenciamento.