Tech

Ação judicial do GitHub Copilot: GitHub vence o caso

Lançado em 2021, o GitHub Copilot se tornou uma ferramenta útil para desenvolvedores. É um gerador de código de IA que sugere trechos de código e linhas de preenchimento automático. Desde seu lançamento, o Copilot melhorou drasticamente a produtividade e a qualidade do código dos desenvolvedores.

O GitHub Copilot está envolvido em um processo judicial desde 2022. Um grupo de desenvolvedores entrou com o processo porque acreditava que o Copilot reutilizou código de código aberto existente sem a devida atribuição aos codificadores originais.

Como o processo do GitHub Copilot começou, o que a decisão atual significa e quais são as implicações mais amplas deste caso? Vamos explorar.

Visão geral das reivindicações iniciais e indeferimentos

Em novembro de 2022, um grupo de desenvolvedores entrou com uma ação coletiva contra o GitHub, a Microsoft e a OpenAI. A ação inicialmente compreendia 22 reivindicações. Ela se concentrava principalmente no GitHub Copilot. O GitHub treinou o Copilot em dados de código aberto existentes para fornecer snippets aos usuários enquanto eles codificavam.

Os autores disseram que estavam copiando trechos de código sem dar crédito aos desenvolvedores originais. Os desenvolvedores também invocaram o Digital Millennium Copyright Act. A seção 1202(b)(2) do DMCA e suas subseções abordam a violação de informações de gerenciamento de direitos autorais. Eles acusaram o GitHub de violação de direitos autorais do DMCA ao remover informações importantes de trechos de código, como a fonte do código.

O tribunal rejeitou muitas dessas alegações durante a duração do processo. Em 9 de julho, eles rejeitaram três alegações adicionais em uma grande vitória para os réus.

De acordo com o tribunal, não há evidências suficientes de similaridade de código entre a saída produzida pelo GitHub e o código de código aberto no qual eles treinaram o software program. Portanto, o juiz também decidiu contra quaisquer violações de DMCA.

As recentes modificações do GitHub no Copilot influenciaram significativamente a decisão do tribunal. As mudanças no assistente de programação garantiram que a ferramenta mostrasse variações de trechos de código em vez de cópias exatas.

Além disso, as reclamações incluíam um estudo de IA para enfatizar ainda mais a inevitabilidade do código ser reutilizado pelo GitHub. O tribunal também negou esse argumento, citando provas insuficientes de plágio.

No entanto, o tribunal observou um problema potencial com o filtro de verificação de duplicatas do GitHub Copilot. Os usuários podem desativar esse filtro, que emite avisos de similaridade de código. A desaprovação do tribunal sugere que esse aspecto requer um exame mais detalhado. Esta é uma oportunidade para os desenvolvedores modificarem e reenviarem suas reclamações, focando mais nesse aspecto específico.

As alegações restantes contra o GitHub Copilot

Embora o tribunal tenha rejeitado a maioria das alegações, o caso não acabou. Duas alegações principais permanecem em jogo na ação coletiva do GitHub Copilot:

  • Uma violação de licença de código aberto.
  • Uma quebra de confiança entre o GitHub e os provedores de código-fonte aberto.

Essas alegações criticam o GitHub por usar código de fonte aberta de forma antiética. Elas incluem não reconhecer o uso de dados disponíveis publicamente para treinar o Copilot e não dar crédito aos codificadores originais. Como resultado, o GitHub quebrou seu acordo com seus parceiros.

Ambos os lados também discutiram sobre a conduta um do outro durante o processo de descoberta. De acordo com os desenvolvedores, os réus falharam em fornecer as informações necessárias durante os procedimentos, como e-mails relevantes. Essa acusação pode se tornar importante durante os últimos estágios do caso.

Quais são as implicações mais amplas do processo judicial do GitHub Copilot?

Este processo em andamento levanta questões sobre seu impacto no ecossistema de IA mais amplo. Os resultados dessas alegações restantes provavelmente estabelecerão precedentes para o uso de código-fonte aberto em treinamento de IA.

O sucesso do GitHub em rejeitar muitas das alegações do processo provavelmente encorajará outras empresas a continuar usando IA no desenvolvimento de software program. De acordo com o GitHub, tecnologias de IA como o Copilot ajudam os usuários a codificar de forma mais eficiente, aumentando a produtividade. Mais e mais empresas e desenvolvedores buscarão obter benefícios semelhantes.

Este caso também aumentou a conscientização sobre as leis de direitos autorais. Ele capacitou os desenvolvedores a entender melhor seus direitos. As empresas podem usar novas políticas para garantir que não violem licenças de código aberto.

Por outro lado, essa conscientização aumentada também pode aumentar a desconfiança em ferramentas de codificação de IA. Essa falta de confiança pode levar a repositórios de código aberto menos extensos, à medida que os desenvolvedores removem suas contribuições. A falta de dados suficientes dificultará o aprendizado eficaz para software program de IA.

Projetos de código aberto também podem revisitar seus termos de licenciamento para fornecer diretrizes mais explícitas sobre o uso de seu código em treinamento de IA. Eles podem adotar licenças mais restritivas para proteger suas contribuições.

A decisão também não exonera totalmente o GitHub Copilot, ressaltando a necessidade de estruturas regulatórias mais abrangentes. O estreitamento de potenciais reivindicações de violação de direitos autorais pode encorajar empresas de IA. Essas empresas podem continuar usando código disponível publicamente para fins de treinamento. No entanto, este caso também exige diretrizes mais claras para evitar o uso indevido de dados de código aberto.

A necessidade de leis atualizadas

O processo do Copilot trouxe à tona a questão dos direitos autorais do código gerado por IA. Ele enfatizou a necessidade de leis atualizadas para proteger os direitos dos desenvolvedores originais.

As estruturas legais atuais não conseguem lidar com as complexidades introduzidas pelo conteúdo gerado por IA. Como resultado, as autoridades devem atualizar as leis para garantir a conformidade.

Por exemplo, estabelecer um limite onde similaridade de código além de um certo número não é permitida pode ajudar a proteger os direitos dos desenvolvedores originais. As autoridades também podem tornar obrigatória a exibição da fonte dos dados de treinamento.

Além disso, as autoridades devem common o código público para evitar o uso não licenciado. Exigir auditorias regulares de ferramentas de IA e seus resultados é outra iniciativa viável.

Este processo aumentará o escrutínio do uso de código público no treinamento de IA. À medida que as ferramentas de codificação de IA evoluem, as leis para seu uso também devem evoluir. Esta prática garantirá que a inovação não entre em conflito com a ética e os padrões legais.

Discover o Unite.ai para obter mais recursos sobre GitHub e ferramentas de codificação de IA.

Unite AI Mobile Newsletter 1

Artigos relacionados

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button