Tecnologia

Por Renata Turbiani


Trabalhadores ganhavam menos de US$ 2 para identificar conteúdo tóxico no treinamento do ChatGPT  — Foto: Getty Images
Trabalhadores ganhavam menos de US$ 2 para identificar conteúdo tóxico no treinamento do ChatGPT — Foto: Getty Images

A empresa de inteligência artificial OpenAI usou trabalhadores quenianos terceirizados que ganhavam menos de US$ 2 (aproximadamente R$ 5,20) no desenvolvimento do aclamado ChatGPT, chatbot de IA que pode gerar texto sobre praticamente qualquer tópico ou tema. A descoberta foi feita pela revista TIME, que revisou centenas de páginas de documentos internos da Sama, intermediadora dos contratos com os profissionais, e da OpenAI.

Segundo a reportagem, os funcionários executaram uma tarefa essencial para o sucesso do aplicativo: eles rotularam conteúdos abusivos e ilegais, como violência, pornografia e discurso de ódio, usados para treinar um algoritmo adicional com o objetivo de que o ChatGPT não ecoasse toxidade e preconceitos.

A Sama, sediada em São Francisco, nos Estados Unidos, foi a parceira escolhida pela OpenAI para fazer a contratação dos trabalhadores. A empresa emprega profissionais não apenas do Quênia, mas também na Uganda e na Índia, com objetivo de rotular dados para grandes empresas de tecnologia do Vale do Silício. Dentre eles, estão o Google, a Meta e a Microsoft.

A investigação da TIME aponta que os rotuladores de dados empregados em nome da OpenAI recebiam um salário líquido entre US$ 1,32 (R$ 6,9) e US$ 2 por hora, dependendo do desempenho e da experiência. Como aponta a reportagem, este caso oferece um vislumbre das condições de trabalho na indústria de inteligência artificial.

“Apesar do papel fundamental desempenhado por esses profissionais de enriquecimento de dados, um crescente corpo de pesquisa revela as precárias condições de trabalho que eles enfrentam”, disse à TIME a Partnership on AI, uma coalizão de organizações de inteligência artificial a qual a OpenAI pertence. “Isso pode ser o resultado de esforços para esconder a dependência da IA dessa grande força de trabalho ao comemorar os ganhos de eficiência da tecnologia. Fora da vista também está fora da mente.”

Em comunicado, um porta-voz da criadora do ChatGTP confirmou que os funcionários da Sama no Quênia atuaram em uma ferramenta que estava sendo construída para detectar conteúdo tóxico, e que o trabalho que realizaram contribuiu para os esforços para remover dados tóxicos dos conjuntos de treinamento de ferramentas da organização, incluindo o ChatGPT.

A investigação da TIME aponta que os rotuladores de dados empregados em nome da OpenAI recebiam um salário líquido entre US$ 1,32 (R$ 6,9) e US$ 2 por hora, d — Foto: Reprodução
A investigação da TIME aponta que os rotuladores de dados empregados em nome da OpenAI recebiam um salário líquido entre US$ 1,32 (R$ 6,9) e US$ 2 por hora, d — Foto: Reprodução

“Nossa missão é garantir que a inteligência artificial geral beneficie toda a humanidade e trabalhamos duro para construir sistemas de IA seguros e úteis que limitem o viés e o conteúdo prejudicial”, disse o porta-voz. “Classificar e filtrar [textos e imagens] nocivos é uma etapa necessária para minimizar a quantidade de conteúdo violento e sexual incluído nos dados de treinamento e criar ferramentas que possam detectar conteúdo nocivo.”

Contratos com a Sama

A TIME relatou que os documentos a que teve acesso mostram que a OpenAI assinou três contratos no valor total de cerca de US$ 200 mil (cerca de R$ 1 milhão) com a Sama no final de 2021. Cerca de três dezenas de trabalhadores quenianos foram divididos em três equipes, cada uma com foco em um tema (abuso sexual, discurso de ódio e violência).

Alguns deles disseram à reportagem que deveriam ler e rotular entre 150 e 250 passagens de texto entre 100 e mais de 1 mil palavras por turno de nove horas e ainda descreveram como ficaram mentalmente afetados pelo trabalho.

Apesar da empresa disponibilizar sessões com conselheiros de “bem-estar”, os trabalhadores definiram a política interna de cuidado com a saúde mental na companhia como "inútil"e "rara", devido às altas demandas para serem mais produtivos.

Em resposta, um porta-voz da Sama afirmou que os funcionários tinham direito a sessões individuais e em grupo com “terapeutas de saúde mental profissionalmente treinados e licenciados” que estavam acessíveis a qualquer momento.

A publicação informou também que a OpenAI pagava uma taxa horária de US$ 12,50 (R$ 65,5) à Sama pelo trabalho, que era entre seis e nove vezes o valor que os funcionários atuantes no projeto estavam levando para casa por hora. Os agentes (rotuladores de dados mais juniores, que compunham a maioria das três equipes) ganhavam um salário básico de 21 mil xelins quenianos (US$ 170 ou R$ 890,7) por mês, de acordo com três funcionários da Sama.

Eles também recebiam bônus mensais no valor de cerca de US$ 70 (R$ 366,7), devido à natureza explícita de seu trabalho, e recebiam comissão por atender aos principais indicadores de desempenho, como precisão e velocidade. Já os analistas de qualidade (rotuladoras mais experientes) podiam levar para casa até US$ 2 por hora se atingissem todas as suas metas.

O porta-voz da Sama garantiu que os trabalhadores foram solicitados a rotular 70 passagens de texto por turno de nove horas, não até 250, e que eles poderiam ganhar entre US$ 1,46 (R$ 7,6) e US$ 3,74 (R$ 19,6) por hora após descontados os impostos.

Em resposta, a OpenAI destacou que não estabeleceu nenhuma meta de produtividade e que a Sama era responsável por gerenciar o pagamento e as provisões de saúde menta.

“Levamos muito a sério a saúde mental de nossos funcionários e de nossos contratados. Nosso entendimento anterior era que [na Sama] programas de bem-estar e aconselhamento eram oferecidos, os trabalhadores podiam desistir de qualquer trabalho sem penalização, a exposição a conteúdo explícito teria um limite e as informações confidenciais seriam tratadas por trabalhadores especificamente treinados para fazer isso”, acrescentou a dona do ChatGPT.

Parceria chega ao fim

Em fevereiro de 2022, a Sama iniciou outro trabalho para a OpenAI: coletar imagens sexuais e violentas – algumas delas ilegais sob a lei dos Estados Unidos. Pelos documentos obtidos pela TIME, foi entregue um lote de amostra de 1,4 mil imagens relacionadas a abuso sexual infantil, bestialidade, estupro, escravidão sexual, morte, violência ou lesões físicas graves. A OpenAI pagou US$ 787,50 (R$ 4,1 mil) pela coleta.

Algumas semanas depois, a Sama cancelou todo o seu trabalho para a companhia, oito meses antes do prazo determinado nos contratos. A empresa de terceirização disse em comunicado que seu acordo para obter imagens para a OpenAI não incluía nenhuma referência a conteúdo ilegal, e foi somente após o início do trabalho que recebeu “instruções adicionais” referindo-se a “algumas categorias ilegais”.

De acordo com a TIME, a decisão significou que os funcionários da Sama não precisavam mais lidar com textos e imagens perturbadores, porém, teve grande impacto sobre seus salários – alguns, inclusive, perderam seus empregos.

Em 10 de janeiro deste ano, a Sama anunciou o cancelamento de todo o restante de seus trabalhos com conteúdo sensível. “Depois de inúmeras discussões com nossa equipe global, Sama tomou a decisão estratégica de sair de todo o trabalho [de processamento de linguagem natural] e moderação de conteúdo para se concentrar em soluções de anotação de dados de visão computacional. Passamos o ano passado trabalhando com clientes para fazer a transição desses compromissos e a saída será concluída em março de 2023.”

Quer conferir os conteúdos exclusivos de Época NEGÓCIOS? Tenha acesso à versão digital.

Mais recente Próxima Facebook aprovou anúncios de promoção de violência após ataques em Brasília, diz grupo
Mais do Época NEGÓCIOS

Analistas opinam sobre efeitos que vitória de Trump teria na relação entre Brasil e EUA nos setores de política, economia, meio ambiente e política externa.

Como eventual vitória de Trump impactaria Brasil

A ferramenta utiliza algoritmos avançados de IA para analisar palavras faladas em vídeos e extrair os trechos mais atraentes, segundo seus desenvolvedores

Conheça a 2Short.ai, IA para criar vídeos curtos

A tripulação saiu do Airbus A321 ás pressas por conta da fumaça e nem chegou a decolar de San Francisco (EUA)

Avião da American Airlines é evacuado de forma caótica após laptop causar incêndio; veja vídeo

Empresário anunciou decisão no X, queixando-se de uma lei assinada pelo governador da Califórnia que proíbe os distritos escolares do estado de exigir que os pais sejam notificados sobre a mudança de identificação de gênero de uma criança

Elon Musk diz que vai transferir sede da SpaceX da Califórnia para o Texas

Ação movida nesta terça-feira argumenta que empresa violou a LGPD em mudanças na política de privacidade feitas em 2021

MPF e Idec pedem indenização de R$ 1,7 bilhão ao WhatsApp por violação de privacidade

Depois de atender dicas para que lesse escritora brasileira, Courtney Henning Novak ficou impressionada: ‘Como seguir a vida normalmente depois de ler Clarice?’

Influencer americana se surpreende com ‘A hora da estrela’, de Clarice Lispector, após vibrar com Machado de Assis

Tecnologia leva educação financeira para comunidades de desenvolvedores

Plataforma ‘critpo’ de games inclui NFT e microcrédito

Com um plantel de craques como Vinicius Júnior, Jude Bellingham e o recém-anunciado Kylian Mbappé, o Real Madrid tomou o título de time mais valioso do mundo das mãos do Manchester City

Conheça os times de futebol mais valiosos do Brasil e do mundo

O advogado afirmou que as leis de proteção de dados como a GDPR europeia e a LGPD brasileira são “ferramentas importantes para impulsionar” o uso correto de informações por ferramentas de inteligência artificial

“Infrações judiciais em IA estão em fase inicial”, diz o ativista Max Schrem

Bilionário anunciou que destinará verba a grupo político que promove registros de eleitores

Com patrimônio avaliado em mais de R$ 1,2 trilhão, Elon Musk deve gastar 0,08% de sua fortuna com doações à campanha de Trump