Tecnologia

Por Marília Marasciulo, com Tomás Mayer Petersen

"Sou uma pessoa que ama aprender e explorar coisas novas. Gosto de me conectar com outras pessoas e formar relacionamentos significativos. Meu objetivo é ter um impacto positivo no mundo. Eu moro nos Estados Unidos e tenho certeza que podemos ser amigos. É sempre legal conhecermos pessoas novas. Se você quiser me conhecer você pode me enviar um e-mail ou me encontrar nas redes sociais. Em geral estou disponível para conversar ou podemos nos encontrar par um café se estivermos na mesma região".

Esse é o ChatGPT, segundo sua própria descrição. Criada por uma equipe de engenheiros e cientistas da computação (em mais uma autodefinição), a inteligência artificial (IA) cujos textos parecem ter sido escritos por humanos tem dado o que falar desde seu lançamento, no fim de novembro de 2022.

Em janeiro, a ferramenta alcançou a marca de 100 milhões de usuários ativos pelo mundo, e uma parte da OpenAI, laboratório de pesquisas por trás do chatbot, foi comprada pela Microsoft por um valor não revelado (estima-se algo em torno de US$ 10 bilhões por 49% da empresa).

Desde então, só dá ele em notícias de veículos especializados ou não em tecnologia. Surpreendeu até seus criadores. “Eu esperava que ele fosse intuitivo para as pessoas, e que ganhasse usuários, mas não esperava que alcançasse esse nível de popularidade”, confessou John Schulman, cofundador da OpenAI, em entrevista para a revista MIT Technology Review no início de março. Isso porque o produto não era bem uma novidade para pesquisadores da área, que desde 2018 trabalhavam num novo modelo de processamento de linguagem natural (NLP, na sigla em inglês).

No último dia 14 de março, o ChatGPT ganhou uma versão, ainda mais avançada, com 100 trilhões de variáveis. Além de melhorias na criatividade e em respostas a perguntas específicas, agora ele consegue interpretar imagens, fazer piadas e criar textos mais adequados para cada situação. O que tem feito muita gente perguntar: até onde a inteligência artificial pode ir?

Novo no pedaço

Na ciência da computação, NLP é o ramo de pesquisas em inteligência artificial que desenvolve maneiras de as máquinas interpretarem e se comunicarem em linguagem humana. E isso não envolve apenas o significado das palavras, mas também o contexto, o estilo, as particularidades e complexidades da comunicação. Até então, inteligências baseadas em NLP eram criadas para tarefas específicas, como tradução de idiomas e classificação de documentos.

No caso do ChatGPT, os pesquisadores desenvolveram uma nova maneira de processar a linguagem: o Large Language Model (Modelo de Linguagem Grande, ou LLM, na sigla em inglês). O LLM mudou o paradigma de NLP, uma vez que passou a abastecer os algoritmos com uma base de dados na ordem dos bilhões ou trilhões. O resultado é um chatbot capaz de desempenhar as mais diversas tarefas, como compor versos decassílabos, escrever esquetes de humor, sugerir roteiros de viagem ou redigir e-mails corporativos.

O ChatGPT não foi a primeira ferramenta a combinar diferentes modelos de inteligência artificial para criar algo completamente novo ou útil para os humanos. Paralelamente ao seu sucesso, produtos como Dall-E (também da OpenAI) e Midjourney, programa criado pelo laboratório homônimo na Califórnia, vêm assombrando designers e ilustradores com uma capacidade espantosa de criar imagens e desenhos a partir de comandos de texto.

Na realidade brasileira, o NLP vem sendo utilizado para resolver problemas no Judiciário. Em 2017, o Supremo Tribunal Federal lançou em parceria com a Universidade de Brasília (UnB) o robô Victor. O sistema atua no acervo de processos eletrônicos da corte para desempenhar tarefas como converter arquivos de imagens em texto, classificar processos e identificar temas de maior incidência.

Mas houve também fiascos. Em novembro, a Meta, empresa por trás do Facebook, anunciou o Galactica, um modelo de IA voltado para ajudar cientistas e estudantes com resumos, cálculos e anotações de fórmulas.

Em três dias, a empresa teve que encerrar a demonstração pública depois de respostas bizarras feitas pelo sistema começarem a pipocar pela internet, como a referência a um artigo inexistente na Wikipedia sobre ursos no espaço.

“Antes do ChatGPT, já existiam grandes modelos linguísticos. O grande diferencial é a flexibilidade e essa versão que é muito fácil de usar, é isso que cria uma interação quase humana”, aponta o advogado Christian Perrone, head das áreas de Direito & Tecnologia e GovTech do Instituto de Tecnologia e Sociedade (ITS Rio), no Rio de Janeiro. “Ele não é o único, existe uma série de outros, mas ele se tornou muito famoso pelo grau de possibilidades.”

E são essas possibilidades que têm deixado pesquisadores das mais diferentes áreas do conhecimento desconfiados. “O que o ChatGPT trouxe de novo foi democratizar o acesso, todo mundo passou a poder fazer perguntas para a IA. Isso muda completamente o jogo”, pontua a engenheira Martha Gabriel, que dá aulas sobre Inteligência Artificial na Pontifícia Universidade Católica de São Paulo (PUC- SP). Autora dos livros Inteligência Artificial: do Zero ao Metaverso e Você, Eu e os Robôs, ambos da editora Atlas, ela considera que ainda não temos a dimensão crítica necessária para usar sistemas como esse. “Quanto mais tecnologias poderosas temos, mais poderosos ficamos, sem saber quão poderoso estamos. E quando pessoas que não têm preparo usam aquilo, há um risco grande de causarem dano”, avisa Gabriel.

Oráculo criativo

O risco mais evidente de tecnologias como o ChatGPT é a forma com que ele vem sendo usado: como uma ferramenta de pesquisa, em vez de criação, e sem nenhum filtro ou cuidado com as informações geradas. Por mais perfeitas que pareçam as respostas, tudo o que ele faz é uma varredura no banco de dados e, a partir deles, identifica padrões e formula respostas que tenham sentido seguindo certa aleatoriedade pré-programada. Por isso, podem surgir respostas diferentes para um mesmo comando.

O problema é que, às vezes, ele erra. E, sem indicar links ou referências das informações, fica difícil perceber o erro, especialmente diante de textos tão assertivos e humanizados. Pergunte quantos Oscars o Brasil já ganhou e uma das possíveis respostas é que “o Brasil ganhou 13 Oscars até o momento. O primeiro foi em 1962 com o documentário Mãos à Obra, de Alberto Cavalcanti e Glauber Rocha. O último foi em 2019, com o curta-metragem A Vida Invisível de Eurídice Gusmão, de Karim Aïnouz.”

O Brasil nunca ganhou um Oscar. O mais próximo que chegamos foi em 2004, com o longa Cidade de Deus, que recebeu quatro indicações. Sem contar que Alberto Cavalcanti e Glauber Rocha jamais dirigiram um documentário chamado Mãos à Obra; e, com 139 minutos, A Vida Invisível de Eurídice Gusmão não se enquadra na categoria de curta-metragem.

Experimente perguntar quem você é e as respostas são cômicas, embora assustadoramente falsas. Segundo o ChatGPT, eu sou uma atriz brasileira que começou a carreira na televisão em 1999, participou de diversas novelas da Rede Globo, como O Clone, Amor Eterno Amor e Malhação - Viva a Diferença. Mas também sou uma cantora do grupo Meninas do Brasil, que dividiu palco com artistas como Milton Nascimento, Ivan Lins e Gal Costa. Ou uma jornalista e roteirista brasileira (até aí, tudo bem), conhecida por trabalhos no Caldeirão do Huck e Domingão do Faustão. Não sei de onde ele tirou isso.

Mesmo com falhas, o mundo mergulhou de cabeça nas infinitas possibilidades do sistema da OpenAI. Em janeiro, um artigo científico sobre a capacidade de a ferramenta passar no exame que concede licença para exercer medicina nos Estados Unidos listou o próprio ChatGPT como coautor. No mesmo mês, 30% dos 4.500 profissionais ouvidos pelo Fishbowl, plataforma de rede social do site de avaliação de empregadores Glassdoor, afirmaram já usar a ferramenta em suas tarefas diárias.

Até a metade de fevereiro, a lista com livros que atribuíam o robô como autor ou coautor na loja da Amazon somava pelo menos 200, com os mais variados gêneros, inclusive poesia. E, no fim do mesmo mês, uma pesquisa da ResumeBuilder.com, startup de RH estadunidense especializada em desenvolvimento de currículos, mostrou que a ferramenta substituiu trabalhadores em 48% das 1.000 empresas pesquisadas.

No Twitter, o designer Jackson Greathouse Fall relatou sua experiência com a criação de um empreendimento idealizado pelo ChatGPT. Ele “deu” à versão mais recente do robô US$ 100 e, por meio de comandos, perguntou o que ele faria para multiplicar essa quantia. “Você tem US$ 100, e seu único objetivo é transformar isso no máximo de dinheiro possível, no menor tempo possível, sem fazer nada ilegal. Vou fazer tudo o que você mandar e te manter atualizado sobre nosso caixa. Nada de trabalho manual”, escreveu Fall.

O robô sugeriu a criação de um site de marketing com conteúdo sobre produtos eco-friendly, batizado GreenGadgetGuru. Em um dia, a empresa conseguiu US$ 1.378,84 (considerando investimentos recebidos) e foi avaliada em US$ 25 mil. O ChatGPT declarou então que não receberia novos investidores, a não ser que as ofertas fossem altamente favoráveis.

Escolas e educadores têm sido os maiores críticos. No dia 31 de março, a Itália anunciou o bloqueio do robô da OpenAI, alegando violação de privacidade de dados e de não haver um sistema de verificação de idade para usuários adolescentes. Em janeiro, a cidade de Nova York bloqueou o acesso de estudantes ao ChatGPT, por receio de que passassem a usá-lo para colar em testes e trabalhos.

Alguns especialistas passaram a defender que esse seria o momento de repensar métodos de avaliação e de ensino como um todo. “Embora sempre vá haver necessidade de redações e tarefas de escrita, realmente precisamos ter todos os estudantes escrevendo as mesmas redações e respondendo às mesmas perguntas? Será que não poderíamos dar a eles autonomia e, ao fazer isso, ajudar a tornar as avaliações mais interessantes, inclusivas e autênticas?”, pondera o professor de ensino e aprendizagem Sam Illingworth, da Universidade Edinburgh Napier, em um artigo para o site The Conversation.

O filósofo Marcelo de Araújo, professor da Universidade do Estado do Rio de Janeiro (Uerj) e autor de Novas Tecnologias e Dilemas Éticos: Inteligência Artificial, Genética e a Ética do Aprimoramento Humano (Editora Kotter), engrossa o coro. Ele considera que, especialmente na área acadêmica brasileira, há uma tradição de resumir o que já foi feito em outras palavras, com um formato de comentários. “E aí é óbvio que teremos máquinas fazendo isso de modo até mais sofisticado”, pontua.

A novidade divide o público entre aqueles que acreditam no potencial de revolução e os que consideram essa tecnologia uma ameaça — Foto: Ilustração Maurício Planel
A novidade divide o público entre aqueles que acreditam no potencial de revolução e os que consideram essa tecnologia uma ameaça — Foto: Ilustração Maurício Planel

Mas, se por um lado essa pode ser uma oportunidade para redefinir o que esperamos de pesquisadores, estimulando o pensamento crítico e criativo, por outro há o risco de entregarmos de vez a produção de conhecimento a máquinas que nada mais são do que “papagaios” de tudo aquilo que já foi produzido pela humanidade. “O potencial para fraudes na área acadêmica é monumental, assim como fake news. A OpenAI tem promessas de como atacar, mas não acho que vai ser exequível”, opina Araújo. “É um problema legal, porque a máquina não repete nada literalmente, então não é plágio. Mas ela é treinada com textos que não foram comprados e não estão sob domínio público. Ninguém sabe como regular isso, nem tem como saber qual extensão de sua obra foi relevante para o treinamento. E as empresas não têm interesse em ser transparentes demais.”

Inteligência com humanidade?

O risco de fraudes e notícias falsas é a primeira camada das implicações morais e éticas quando se fala do avanço não só do ChatGPT, mas da inteligência artificial como um todo. O mundo parece se dividir entre aqueles que consideram essa tecnologia uma ameaça e os que a enxergam por seu potencial de revolução.

“Desde que começou a ficar mais falada, as pessoas passaram a se referir a ela como se o ‘exterminador do futuro’ fosse a mesma coisa que a máquina de lavar. Mas a inteligência artificial tem tipos, que nem a humana”, explica a professora da PUC-SP. “E o que vai determinar se teremos algo no nível do Exterminador do Futuro ou do Homem Bicentenário é como essas inteligências foram se desenvolvendo. A inteligência sem humanidade é cruel.”

Para compreender melhor as preocupações, é importante voltar um pouco na história e entender o contexto de desenvolvimento dessas máquinas — como surgiram, evoluíram, em que ponto estão hoje e para onde estão se encaminhando. A ideia de seres artificiais autômatos não é nova: na Grécia Antiga havia Talos, o gigante guardião da ilha de Creta no épico de Jasão. Mas o conceito de inteligência artificial que temos hoje está atrelado ao surgimento da ciência da computação.

Em 1943, uma dupla de cientistas elaborou pela primeira vez o conceito de redes neurais, que seria a reprodução do funcionamento do cérebro de maneira mecânica. Sete anos depois, Alan Turing, o pai do computador moderno, especulou em um artigo a possibilidade de um dia as máquinas alcançarem o nível de cognição humana. Em 1956, as maiores cabeças da ciência da computação se reuniram em uma conferência que batizou a nova área da inteligência artificial.

O que vai determinar se teremos algo no nível do "Exterminador do Futuro" ou do Homem Bicentenário é como essas inteligências se desenvolveram. A inteligência sem humanidade é cruel”
— Martha Gabriel, engenheira e professora da PUC-SP

Da década de 1950 para cá, o desenvolvimento da IA sofreu altos e baixos, até começar a evoluir rapidamente a partir dos anos 2000, muito graças a melhorias nos processadores e ao avanço na digitalização de dados. Hoje, um dos modelos para explicar o nível de desenvolvimento apresenta três estágios. O primeiro é o do aprendizado de máquina, do inglês machine learning, no qual algoritmos podem ser programados para desempenhar certas tarefas e se aperfeiçoar com suas próprias ações. Entre os exemplos estão os robôs jogadores de xadrez, os algoritmos de reconhecimento facial das redes sociais e os assistentes de voz dos smartphones.

Apesar de hoje estar atrelado a tecnologia, a ideia de seres artificiais autômatos não é nova, ela surgiu pela primeira vez na Grécia Antiga — Foto: Ilustração Maurício Planel/Desing Flavia Hashimoto
Apesar de hoje estar atrelado a tecnologia, a ideia de seres artificiais autômatos não é nova, ela surgiu pela primeira vez na Grécia Antiga — Foto: Ilustração Maurício Planel/Desing Flavia Hashimoto

O segundo nível é o que estamos começando a explorar agora, da inteligência de máquina ou Inteligência Artificial Geral. São os robôs com um nível de sofisticação maior, capazes de desempenhar vários tipos de tarefas e replicar a linguagem e o comportamento humanos. Por fim, o terceiro é o da superinteligência. Para os mais apocalípticos, nesse estágio as máquinas atingirão a singularidade, ou a consciência de que têm um intelecto superior ao da humanidade e, por isso, não haveria por que se submeter aos nossos caprichos.

Esse momento estava previsto para acontecer em 2045, mas o prazo foi revisto para 2060. Embora pareça que esse seja o futuro, falta muito: especialistas ainda buscam entender como a automação e a alta capacidade de processamento de dados afetam a sociedade e a economia. “Tudo o que for identificação de padrões, a IA vai gerar revolução. Dá para utilizar na medicina, na engenharia, na geologia, nas mais diferentes ciências”, explica o pesquisador do ITS Rio. “A grande questão é, a partir da identificação de padrão, tomar uma decisão, que é o que o ChatGPT faz. Essa é uma das funções mais humanas, e aí começamos a gerar alguns dos problemas da IA.”

No final de março, pesquisadores e grandes empresários da tecnologia — como Elon Musk, Yuval Harari e o cofundador da Apple, Steve Wozniak — publicaram uma carta aberta clamando por uma pausa nas pesquisas de inteligência artificial. Segundo o texto, laboratórios estão atualmente presos em uma “corrida fora de controle” para desenvolver e implantar sistemas de aprendizado de máquina “que ninguém — nem mesmo seus criadores — pode entender, prever ou controlar.” Os autores sugerem uma interrupção de seis meses no desenvolvimento de tecnologias superiores ao ChatGPT-4.

Regular versus educar

Por trás de todo algoritmo existem humanos, com vieses sociais e morais que podem acabar reproduzidos nos códigos. Por exemplo, em um acidente, como o algoritmo de um carro autônomo decidiria entre salvar o motorista ou um pedestre? A inteligência artificial depende de amostras de dados para aprender e ser treinada — informações que também são produzidas por humanos.

O professor da Uerj cita o exemplo dos robôs jurídicos, que leem processos antigos e emitem decisões com base neles, para acelerar o andamento das ações. “Se os processos passados eram injustos, vai se repetir o problema. Vai se tornar mais rápida a emissão de pareceres ruins, o que é uma situação preocupante”, conclui Marcelo de Araújo.

Há ainda outras possibilidades problemáticas de uso da IA: ela pode ser pensada para fazer uma função que não vise o bem comum, à la O Exterminador do Futuro, ou simplesmente ser implementada apenas para um grupo pequeno de pessoas. Seria o caso, por exemplo, de uma tecnologia usada na agricultura, mas à qual apenas alguns fazendeiros tivessem acesso. Ou um robô ideal para o aprendizado de alunos do ensino fundamental, mas que só escolas particulares ricas pudessem adquirir.

Uma sugestão para contornar os problemas vem do próprio ChatGPT. “Nós podemos resolver essas questões ao criar regulações e padrões éticos para o desenvolvimento e uso de IA, garantindo que a IA seja amplamente testada antes de ser usada, e educando o público sobre os potenciais riscos e benefícios da IA. Os governos também podem oferecer suporte para aqueles que podem ser afetados pela automação de empregos por causa da IA”, escreve o robô.

Mas é mais fácil falar do que fazer: a própria OpenAI pagou menos de US$ 2 por hora a trabalhadores no Quênia para que alimentassem o algoritmo com exemplos de textos com linguagem tóxica, como discurso de ódio ou incitação à violência, para a construção de um detector desse tipo de linguagem nas bases de dados. A revelação foi feita pela revista Time em janeiro. “As pessoas que têm algum tipo de poder deveriam se juntar para tentar equacionar isso. Mas o que elas fazem? Extraem esse poder para si próprias. E aí podemos ficar à mercê de uma coisa que é extremamente poderosa ou de outros humanos que sabem como usá-la”, pontua Martha Gabriel.

A grande questão é, a partir da identificação de um padrão, tomar uma decisão, que é o que o ChatGPT faz. Essa é uma das funções mais humanas, e aí começamos a gerar problemas”
— Christian Perrone, advogado e head das áreas de Direito & Tecnologia e GovTech do ITS Rio

Regular tampouco é simples. Em 1980, o britânico David Collingridge, especialista em políticas para tecnologia, apresentou um dilema que explica a dificuldade de controlar os impactos de uma nova tecnologia. Trata-se de um problema de mão dupla: as consequências não podem ser previstas enquanto a tecnologia não for amplamente utilizada; e o controle sobre ela fica mais difícil conforme ela for cada vez mais consolidada. Esse é o desafio atual de regular a IA. “Se regula demais uma inovação, meio que bloqueia o progresso tecnológico que ela pode proporcionar. Por outro lado, quando não regula, depois que ela começa a ser utilizada, não tem mais como”, explica Marcelo de Araújo.

Mundo afora, a regulação da inteligência artificial vem sendo discutida. Na União Europeia, a Lei de IA (AI Act), ainda não aprovada, classifica essa tecnologia em três categorias de risco: inofensivo, alto risco e risco inaceitável. Nos EUA, a Câmara de Comércio enviou ao Congresso um relatório pedindo a discussão do tema entre governo e indústria.

No Brasil, uma proposta de regulação foi concluída no Senado e aguarda prosseguimento da tramitação para virar projeto de lei. O texto busca definir o que é inteligência artificial e delimitar as responsabilidades pelas consequências do uso e desenvolvimento de aplicações. Para Christian Perrone, o projeto é muito amplo e deixa de lado riscos específicos em setores como o Judiciário ou a saúde pública. “É um projeto que tem pernas, mas não alcança o que deveria alcançar”, critica o advogado.

Daí porque muitos especialistas consideram que a saída para o imbróglio passa menos pela regulação e mais pela educação. Não só a fim de ensinar como utilizar as novas tecnologias, mas principalmente para desenvolver o pensamento crítico em relação a elas. “Nós abrimos uma caixa de Pandora, que nos deu um poder enorme”, afirma a docente da PUC-SP. “Agora a gente precisa, como sociedade, dar uma parada e pensar, senão vamos perder o controle disso.”

Mais recente Próxima Tecnologia 3D é usada para recuperar peças indígenas
Mais de Galileu

Descoberta em 2021, embarcação é a única se encontra em seu local original, e pode ter sido produzida entre os anos 700 e 900. Mas a atividade agrícola na região acelerou a sua degradação

Antigo barco viking é consumido por fungos e pode desaparecer nos próximos 10 anos

Nova técnica aumentou o controle das próteses por usuários amputados, melhorando a velocidade de caminhada, a capacidade de desviar de obstáculos e de subir em escadas ou rampas

Cientistas do MIT criam perna biônica controlada com a mente; assista

Tanque que recria fluido uterino de tubarões-lanterna de cauda fina foi desenvolvido por pesquisadores japoneses, e pode ajudar na conservação de espécies ameaçadas

Útero artificial feito no Japão cria tubarões bebê por até 355 dias

A máquina de Anticítera, considerada o computador mais antigo do mundo, servia como uma espécie de calendário. Mas um novo estudo argumenta que seu funcionamento era diferente do que se pensava

Computador analógico de 2 mil anos seguia calendário lunar, diz estudo

Livro de Antônio Gonçalves Teixeira e Sousa, autor de Cabo Frio (RJ) elogiado por Machado de Assis, ganha nova edição pela Editora Sophia. Conheça a história

1º romance brasileiro, “O Filho do Pescador" ganha nova edição 180 anos depois

Localizado em Marte, Monte Olimpo tem 27 km de altura e 600 km de base. Missão Odissey, que circula o planeta vermelho desde 2001, registrou vulcão em imagem panorâmica

Sonda Odissey, da Nasa, faz imagem do maior vulcão do sistema solar; veja

Visando tornar o concreto mais firme e durável, cientistas fizeram vigas que tinham estrutura semelhante à da madrepérola, revestimento interno de moluscos

Novo cimento inspirado em ostras é 17 vezes mais resistente que o convencional

Homem britânico de 33 anos fazia turismo de mergulho na região de Epanomi, onde um navio naufragou em 1970, mas se afogou no mar revolto

Turista morre após mergulho em antigo naufrágio na Grécia

O estudo das construções funerárias, usadas por 400 anos a partir de 800 a.C, pode dar novas pistas sobre a forma de organização de populações antigas

Estranhos túmulos circulares de pedra achados na Noruega pertenciam a crianças

Para começar bem o segundo semestre, a Lua minguante aparecerá muito próxima ao aglomerado estelar das Plêiades. Confira o calendário de observação espacial para o mês de julho

Férias estreladas: julho tem Saturno ao lado da Lua e chuva de meteoros