No fim de junho, a Microsoft lançou um novo tipo de tecnologia de inteligência artificial que poderia gerar seu próprio código de computador. Chamada de Copilot, a ferramenta foi desenvolvida para agilizar o trabalho de programadores profissionais.
Enquanto eles digitavam em seus laptops, a ação criava blocos de código de computador prontos que eles poderiam adicionar instantaneamente.
- Mais eficiência, menos custos: Inteligência artificial promete revolução tecnológica na indústria do petróleo
- Com ajuda de IA: A start-up que saiu de Lages, em Santa Catarina, para prevenir incêndios florestais na Europa
Muitos programadores adoraram a nova ferramenta ou pelo menos ficaram intrigados com ela. Mas Matthew Butterick, programador, designer, escritor e advogado de Los Angeles, não era um deles. Este mês, Butterick e um grupo de advogados entraram com uma ação contra a Microsoft e outras empresas de tecnologia que projetaram e implantaram o Copilot.
Butterick deu entrada em uma class action, modalidade prevista no direito americano na qual alguém que se sente lesado conclama outras pessoas na mesma situação a aderirem no processo.
Como muitas tecnologias de IA de ponta, o Copilot desenvolveu suas habilidades analisando grandes quantidades de dados. Nesse caso, contou com bilhões de linhas de código de computador postadas na internet. Butterick, de 52 anos, compara esse processo à pirataria, pois argumenta que o sistema não reconhece sua semelhança com um trabalho já previamente existente.
No processo judicial, Butterick alega que a Microsoft e seus colaboradores violaram os direitos legais de milhões de programadores que passaram anos escrevendo os códigos originais nos quais o Copilot se baseia.
Acredita-se que a ação seja o primeiro ataque legal a uma técnica de design chamada “treinamento de inteligência artificial”, que está prestes a refazer a indústria de tecnologia. É uma versão em inteligência artificial de um processo conhecido como machine learning, ou aprendizagem de máquina, na qual os sistemas aprendem ao serem usados a partir de outros sistemas.
Nos últimos anos, muitos artistas, escritores, especialistas e ativistas de privacidade reclamaram que as empresas estão treinando seus sistemas de inteligência artificial usando dados que não lhes pertencem.
- Arte versus tecnologia: Saiba como a inteligência artificial está mudando a pintura, a música e a literatura
E o processo judicial de agora ecoa dilemas que a própria indústria de tecnologia teve que lidar no passado. Nos anos 1990 e 2000, a Microsoft à ascensão do open source (software de código aberto, modelo de programação que pode ser feito de forma colaborativa), vendo-o como uma ameaça existencial ao futuro de seus negócios.
Mas, à medida que a importância do código aberto crescia, a Microsoft incorporou o processo e comprou o GitHub, uma plataforma de hospedagem de código-fonte, na qual programadores constroem, armazenam e compartilham suas linhas de programação.
![O programador e advogado Matthew Butterick, diz estar preocupado com o fato de o trabalho que realizou estar sendo empregado indevidamente em novos sistemas de inteligência artificial — Foto: Tag Christof/The New York Times](https://cdn.statically.io/img/s2-oglobo.glbimg.com/lPqlvD1D-n00CwiVlutFJ07unOk=/0x0:415x470/984x0/smart/filters:strip_icc()/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2022/w/q/FRDu8ZRdOdkNNtDg7SUA/inteligencia-artificial-2-tag-christof-nyt.jpg)
Quase todas as novas gerações de tecnologia – até mesmo os mecanismos de busca on-line – enfrentaram desafios legais semelhantes. Frequentemente, “não há estatuto ou jurisprudência que cubra isso”, explica Bradley J. Hulbert, um advogado de propriedade intelectual especializado nesta área cada vez mais importante da lei.
E há uma crescente onda de preocupação com a inteligência artificial. Artistas, escritores, compositores e outros profissionais temem cada vez mais que empresas e pesquisadores estejam usando seu trabalho para criar novas tecnologias sem seu consentimento e sem fornecer compensação financeira por isso.
As empresas treinam uma ampla variedade de sistemas dessa maneira, incluindo softwares que criam arte, programas de reconhecimento de fala, como Siri e Alexa, e até carros sem motorista.
O Copilot é baseado na tecnologia desenvolvida pelo OpenAI, um laboratório de inteligência artificial com sede em São Francisco, na Califórnia, apoiado por US$ 1 bilhão em financiamento da Microsoft. O OpenAI está na vanguarda do esforço cada vez mais difundido para treinar tecnologias de inteligência artificial usando dados digitais.
Depois que a Microsoft e o GitHub lançaram o Copilot, o CEO do GitHub, Nat Friedman, tuitou que usar o código existente para treinar o sistema era um “uso justo” do material sob a lei de direitos autorais, um argumento frequentemente usado por empresas e pesquisadores que construíram esses programas. Mas nenhuma ação judicial, até agora, testou esse argumento nos tribunais.
- As ambições da Microsoft e da OpenAI vão muito além do GitHub e do Copilot. Eles querem treinar com qualquer dado em qualquer lugar, de graça, sem consentimento, para sempre - disse Butterick.
- Fotografia computacional: Smartphones chegam a novo patamar para a foto perfeita; câmeras com inteligência cognitiva
Em 2020, a OpenAI revelou um sistema chamado GPT-3. Os pesquisadores treinaram o sistema usando enormes quantidades de texto digital, incluindo milhares de livros, artigos da Wikipedia, registros de bate-papo e outros dados publicados na internet.
Ao identificar padrões, o GPT-3 aprendeu a prever a próxima palavra em uma sequência. Quando alguém digitava algumas palavras neste “grande modelo de linguagem”, ele poderia completar o pensamento com parágrafos inteiros de texto. Dessa forma, o sistema poderia escrever suas próprias postagens no Twitter, discursos, poemas e textos jornalísticos.
![O Codex, que pode gerar instantaneamente código de computador a partir de uma solicitação em inglês simples, se tornou o alicerce do Copilot, a nova ferramenta de inteligência artificial da Microsoft — Foto: Jason Henry/The New York Times](https://cdn.statically.io/img/s2-oglobo.glbimg.com/KPHn0faLhTD0FpQ_ycW8R-rOaNI=/0x0:845x531/984x0/smart/filters:strip_icc()/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2022/w/n/AMFEbhRAOgtxWVM1Ayfg/inteligencia-artificial-3-jason-henry-nyt.jpg)
Para surpresa dos pesquisadores que construíram o sistema, este poderia até mesmo escrever programas de computador, aparentemente tendo aprendido com um número incontável de programas postados na internet.
Assim, a OpenAI deu um passo adiante, treinando um novo sistema, o Codex, em uma nova coleção de dados armazenados especificamente com código. Pelo menos parte desse código, disse o laboratório posteriormente em um trabalho de pesquisa detalhando a tecnologia, veio do GitHub.
Esse novo sistema tornou-se a tecnologia subjacente do Copilot, que a Microsoft distribuiu aos programadores por meio do GitHub. Depois de ser testado com um número relativamente pequeno de programadores por cerca de um ano, o Copilot foi lançado para todos os programadores no GitHub em julho.
Por enquanto, o código que o Copilot produz é simples. Ele pode ser usado um projeto maior, mas precisa ser modificado, aumentado e verificado, disseram muitos programadores que usaram a tecnologia. Alguns programadores acham útil apenas se estiverem aprendendo a codificar ou tentando dominar uma nova linguagem operacional.
- Fim do avatar? Meta-humano é a nova tendência da indústria de games
Ainda assim, Butterick teme que o Copilot acabasse destruindo a comunidade global de programadores que construíram os códigos que estão na base da maioria das tecnologias modernas. Dias após o lançamento do sistema, ele publicou um post em seu blog intitulada “Este Copilot é estúpido e quer me matar”.
Depois de reclamar publicamente sobre o assunto por vários meses, ele foi à Justiça. O processo ainda está nos estágios iniciais e ainda não recebeu o status de ação coletiva (class action) pelo tribunal.
Para surpresa de muitos especialistas jurídicos, o processo de Butterick não acusa a Microsoft, GitHub e OpenAI de violação de direitos autorais. Sua argumentação é diferente: a ação alega que as empresas violaram os termos de serviço e as políticas de privacidade do GitHub, ao mesmo tempo em que ferem uma lei federal que exige que as empresas exibam informações de direitos autorais quando fazem uso do material.
Butterick e Joe Saveri, outro advogado por trás da ação, disseram que o processo poderia, no fim, acabar esbarrando na questão dos direitos autorais e resolvendo também este conflito.
![Joe Saveri é um dos advogados envolvidos no processo contra a Microsoft e outras empresas de destaque que projetaram e implantaram o Copilot. — Foto: Tag Christof/The New York Times](https://cdn.statically.io/img/s2-oglobo.glbimg.com/fIm9c2o0MTg8EjR271zXquPo0uE=/0x0:418x523/984x0/smart/filters:strip_icc()/i.s3.glbimg.com/v1/AUTH_da025474c0c44edd99332dddb09cabe8/internal_photos/bs/2022/r/U/JQKiSMT1O0ANNLSXmBSw/inteligencia-artificial-4-tag-christof-nyt.jpg)
Um porta-voz do GitHub respondeu por e-mail que a empresa está “comprometida em inovar de forma responsável com o Copilot desde o início e continuará a desenvolver o produto para melhor atender aos desenvolvedores em todo o mundo”. A Microsoft e a OpenAI se recusaram a comentar o processo.
- Inteligência artificial: Robôs podem ter 'alma' e consciência? Veja o que dizem especialistas
Pela legislação atual, a maioria dos especialistas acredita que treinar um sistema de inteligência artificial com material protegido por direitos autorais não é necessariamente ilegal. Mas isso pode acontecer se o sistema acabar criando material significativamente semelhante aos dados nos quais foi treinado.
Alguns usuários do Copilot disseram que ele gera um código que parece idêntico – ou quase idêntico – a programas existentes, uma observação que pode se tornar um argumento central na ação de Butterick.
Pam Samuelson, professora da Universidade da Califórnia, em Berkeley, especializada em propriedade intelectual e seu papel na tecnologia moderna, lembra que pensadores jurídicos e reguladores exploraram brevemente essas questões legais na década de 1980, antes que a tecnologia de inteligência artificial existisse.
Agora, ela reforça, uma vez que a inteligência artificial se tornou uma realidade, é preciso fazer uma nova reflexão e uma avaliação legal do tema.