Saiba como evitar que o ChatGPT use seus dados pessoais

A OpenAI, criadora do chatbot, colocou à disposição dos usuários ferramentas que lhes dão mais controle sobre suas informações

Por Renata Turbiani


audima
A OpenAI afirma que “os indivíduos também podem ter o direito de acessar, corrigir, restringir, excluir ou transferir suas informações pessoais" — Foto: Unsplash

As preocupações envolvendo o ChatGPT, da OpenAI, só crescem. Ao redor do mundo, reguladores estão investigando questões sobre como a empresa reuniu os dados que usa para treinar seus modelos de inteligência artificial, a precisão das respostas que fornece e outras questões legais.

Segundo o portal Wired, um ponto de atenção é a forma como as informações pessoais dos usuários podem ter sido empregadas no desenvolvimento do chatbot. A OpenAI diz que seus grandes modelos de linguagem são treinados em três fontes: dados retirados da web, dados que a empresa licencia de terceiros e as informações que as pessoas fornecem por meio de bate-papos.

A reportagem lembra que vários problemas já surgiram nas interações com o chatbot, inclusive fake news. Por exemplo, o sistema gerou declarações incorretas dizendo que um professor de direito dos Estados Unidos estava envolvido em um escândalo de assédio sexual e que um prefeito na Austrália foi implicado em um caso de suborno.

Para lidar com essas situações, a OpenAI fez alterações no serviço e introduziu ferramentas e processos que permitem às pessoas ter maior controle sobre pelo menos alguns de seus dados. Dentre as novidades está um formulário de solicitação de remoção de dados pessoais. No entanto, o Wired destaca que o formulário parece ser para remover as informações das respostas que o ChatGPT fornece aos usuários, e não de seus dados de treinamento.

O recurso pede que a pessoa forneça seu nome; e-mail; o país em que está; se está fazendo a solicitação para si mesmo ou em nome de terceiros e se é uma pessoa pública, como uma celebridade. A OpenAI, então, pede evidências de que seus sistemas mencionaram o indivíduo, como “prompts relevantes” e capturas de tela. "Para poder atender adequadamente às suas solicitações, precisamos de evidências claras de que o modelo tem conhecimento do titular dos dados condicionado às solicitações", diz o formulário.

Daniel Leufer, analista sênior de políticas da Access Now, organização sem fins lucrativos de direitos digitais, comentou que as mudanças que a OpenAI fez nas últimas semanas são boas, mas que está lidando apenas com "a parte mais fácil" quando se trata de proteção de dados.

“Eles ainda não fizeram nada para resolver a questão sistêmica mais complexa de como os dados das pessoas foram usados para treinar esses modelos, e espero que esse não seja um problema que simplesmente desaparecerá, especialmente com a criação da força-tarefa EDPB para o ChatGPT”, observou, referindo-se aos reguladores europeus que se reuniram para analisar a tecnologia.

A OpenAI afirma que “os indivíduos também podem ter o direito de acessar, corrigir, restringir, excluir ou transferir suas informações pessoais que podem ser incluídas em nossas informações de treinamento”. Para fazer isso, a recomendação é enviar um e-mail para a equipe de proteção de dados – o endereço é dsar@openai.com.

Como excluir seu histórico do ChatGPT

Outra possibilidade para os usuários é excluir seu histórico de bate-papo do chatbot. Para fazer isso, o processo é o seguinte: quando estiver conectado ao ChatGPT, clique no seu perfil de usuário no canto inferior esquerdo da tela, depois clique em Configurações e, por fim em Controles de dados para desativar o histórico de bate-papo e o treinamento.

De acordo com a OpenAI, ao fazer isso, os dados inseridos nas conversas “não serão usados para treinar e melhorar nossos modelos”. A empresa afirma ainda que o sistema reterá todas as conversas por 30 dias para monitoramento e, em seguida, as excluirá permanentemente.

Quer conferir os conteúdos exclusivos de Época NEGÓCIOS? Tenha acesso à versão digital.

Mais recente Próxima O professor que foi chamado de 'louco e alarmista' e vem acertando previsões sobre inteligência artificial

Leia mais