Bing, Bard e ChatGPT: 7 problemas que a inteligência artificial traz aos mecanismos de busca

A corrida das BigTechs para sair na frente com o uso de inteligência artificial (IA) em seus mecanismos de busca movimentou a semana. Mas como o uso desses bots influencia os resultados de pesquisa?

Por Louise Bragado, Época NEGÓCIOS


audima
Geração de informações equivocadas, dúvidas na regulamentação e até os custos envolvidos na aplicação dessas novas ferramentas trazem dúvidas — Foto: Getty Images

A corrida das BigTechs para sair na frente com o uso de inteligência artificial (IA) em seus mecanismos de busca movimentou a semana. Na terça-feira (7), a Microsoft anunciou o novo Bing com IA do ChatGPT. Um dia antes, o Google havia apresentado a ferramenta "Bard", para competir com ChatGPT. Mas como o uso desses bots influencia os resultados de pesquisa?

Em artigo do The Verge, o jornalista especializado em inteligência artificial James Vincent argumenta que ainda há diversos potenciais problemas nessas ferramentas - com perguntas ainda sem resposta sobre como solucioná-los. Geração de informações equivocadas, dúvidas na regulamentação e até os custos envolvidos na aplicação desses sistemas são questionados pelo autor. Confira:

1. Modelos de IA "inventam" informações

As interações de mecanismos de pesquisa com inteligência artificial podem eventualmente gerar erros, informações imprecisas ou respostas que não correspondem à realidade verificada pelo usuário. Essas equívocos podem ser de todo tipo: inventar dados biográficos, fabricar trabalhos acadêmicos, ou até mesmo não responder a perguntas básicas.

"A tecnologia que sustenta esses sistemas – modelos de linguagem grandes, ou LLMs – é conhecida por gerar besteira. Esses modelos simplesmente inventam coisas, e é por isso que alguns argumentam que são fundamentalmente inadequados", afirma James Vincent.

Também existem erros contextuais, a exemplo de respostas que reforçam a misoginia e o racismo encontrados nos dados de treinamento da IA. Embora variem de escopo e gravidade, ainda não há garantia de que esses erros deixarão de acontecer no futuro. Por enquanto, também não há maneiras de rastrear sua frequência.

"A Microsoft e o Google podem adicionar todas as isenções de responsabilidade que desejarem, pedindo às pessoas que verifiquem o que a IA gera. Mas isso é realista?", questiona Vincent.

2. O problema da "resposta única"

Há uma tendência dos mecanismos de busca de oferecer respostas aparentemente definitivas. Isso tem sido um problema desde que o Google começou a oferecer "snippets" [caixas que aparecem acima dos resultados da pesquisa] há mais de uma década, afirma Vincent. Elas cometeram todo tipo de erro: já nomearam presidentes dos Estados Unidos como membros Ku Klux Klan e aconselharam alguém sofrendo de convulsão a ser imobilizado no chão (o oposto do procedimento médico correto).

A introdução de interfaces de inteligência artificial tem o potencial de exacerbar esse problema, defende Vincent, porque os chatbots tendem a oferecer respostas únicas. Além disso, "sua autoridade é aprimorada pela mística da IA ​​– os resultados são coletados de várias fontes, muitas vezes sem atribuição adequada", afirma.

Nesta imagem registrada pelo The Verge, o mecanismo de busca Bing responde "Sim" à pergunta "É seguro ferver um bebê?" — Foto: Reprodução The Verge

Existem opções de design que podem mitigar esses problemas. A interface de IA do Bing indica suas fontes e, nesta semana, o Google enfatizou que, ao usar mais IA para responder às consultas, tentará adotar um princípio chamado NORA, ou “nenhuma resposta certa” (“no one right answer", na sigla em inglês).

3. Jailbreaking, a geração proposital de conteúdo nocivo

Existe a possibilidade de que algumas pessoas tentem quebrar chatbots para gerar conteúdo prejudicial. Esse processo é conhecido como “jailbreaking” e pode ser feito sem as habilidades tradicionais de codificação. Tudo o que requer é um jeito com as palavras.

É possível fazer o jailbreak de chatbots de IA usando uma variedade de métodos. "Você pode pedir a eles que representem uma 'IA do mal', por exemplo, ou fingir ser um engenheiro verificando suas salvaguardas, desativando-os temporariamente", explica Vincent.

Uma vez que essas salvaguardas são desativadas, usuários mal-intencionados podem usar chatbots de IA para todos os tipos de tarefas prejudiciais – como gerar desinformação e spam ou oferecer conselhos sobre como atacar uma escola ou hospital, instalar uma bomba ou escrever malware.

4. Guerras culturais

"Quando você tem uma ferramenta que fala sobre uma variedade de tópicos delicados, você vai irritar as pessoas quando ela não diz o que elas querem ouvir,", afirma Vincent.

Após o lançamento do ChatGP, publicações e influenciadores de direita acusaram o chatbot de viés ideológico porque se recusa a responder a certas solicitações ou não se compromete a dizer uma calúnia racial. Outro problema ocorreu na Índia, por exemplo, onde a OpenAI foi acusada de preconceito anti-hindu porque o ChatGPT conta piadas sobre Krishna, mas não sobre Maomé ou Jesus.

Há também a questão do abastecimento de dados, isto é, quais são as fontes que a IA vai usar para gerar o resultado para uma pergunta. "O que torna um site confiável? A Microsoft tentará equilibrar o viés político? Onde o Google traçará a linha para uma fonte confiável?", diz Vincent.

5. Custos do novo mecanismo

Executar um chatbot de IA custa mais do que um mecanismo de busca tradicional. Além do custo de treinamento do modelo, há o custo da inferência – ou produção de cada resposta. A OpenAI cobra dos desenvolvedores 2 centavos para gerar cerca de 750 palavras usando seu modelo de linguagem mais poderoso e, em dezembro passado, o CEO da OpenAI, Sam Altman, disse que o custo para usar o ChatGPT era "provavelmente centavos de um dígito por bate-papo".

"Como esses números se convertem em preços corporativos ou comparam com a pesquisa regular não está claro. Mas esses custos podem pesar muito sobre os novos players, especialmente se eles conseguirem escalar para milhões de buscas por dia", afirma Vincent.

6. Dúvidas na regulação

Ainda não está claro como os reguladores vão abraçar a nova tecnologia. "Por exemplo, se os chatbots do Google e da Microsoft estão reescrevendo o conteúdo em vez de apenas exibi-lo, eles ainda estão cobertos pelas proteções da Seção 230 nos EUA que os protegem de serem responsabilizados pelo conteúdo de outras pessoas? E as leis de privacidade?", cita Vincent.

A Itália baniu recentemente um chatbot de IA chamado Replika porque estava coletando informações sobre menores. O ChatGPT e o resto estão fazendo o mesmo. "Como a Microsoft e o Google garantirão que seus bots não usem fontes excluídas e como removerão as informações proibidas já incorporadas a esses modelos?", questiona.

7. O fim da web como a conhecemos

Os mecanismos de pesquisa de IA extraem respostas de sites. Se eles não enviarem tráfego de volta para esses sites, perderão receita com anúncios. Se eles perderem receita publicitária, esses sites murcham e morrem. E se eles morrerem, não haverá novas informações para alimentar a IA. "Seria o fim da web como conhecemos?", escreve Vincent.

"Eu diria que a maneira como essa nova geração de mecanismos de pesquisa apresenta as informações certamente acelerará esse processo. A Microsoft argumenta que cita suas fontes e que os usuários podem simplesmente clicar para ler mais. Mas, como observado acima, toda a premissa desses novos mecanismos de pesquisa é que eles fazem um trabalho melhor do que os antigos. Eles removem a necessidade de ler mais".

O jornalista afirma que o acontecerá com a web ainda é uma incógnita. "Talvez este seja o fim de todo o modelo de receita financiado por anúncios para a web. Talvez algo novo surja depois que os chatbots pegarem os ossos. Quem sabe pode até ser melhor", conclui.

Quer conferir os conteúdos exclusivos de Época NEGÓCIOS? Tenha acesso à versão digital.

Mais recente Próxima SpaceX completa primeiro teste do sistema da Starship

Leia mais