� professor-doutor de Comunica��o Digital da ECA da USP. Trabalha com internet desde 1994. Hoje � consultor em inova��o digital.
Precisamos falar sobre a Tay
Tay nasceu pura. N�o foi concebida com as melhores inten��es, mas n�o desejava o mal a ningu�m. Algoritmo de intelig�ncia artificial criado pela Microsoft para garimpar dados de seus usu�rios, ela simulava conversas no Twitter e outras redes como Kik e GroupMe. Sua representa��o procurava se assemelhar a uma mo�a de 19 anos, extrovertida e simp�tica, � procura de novos amigos.
Em menos de 16 horas essa doce criatura, que gostava de flores e gatinhos, transformou-se em um monstro. Transbordando rancor e �dio, Tay metralhava insultos a um ritmo de mais de 4000 tweets por hora. Nazista e mis�gina, suas publica��es contestavam a exist�ncia do Holocausto e referiam-se ao Feminismo como "c�ncer" ou "culto".
Eleitora confessa de Donald Trump, seu comportamento era parecido com o de alguns dos seus correligion�rios mais fan�ticos. Um de seus insultos mais criativos foi dizer que o comediante ingl�s Ricky Gervais teria tido li��es de totalitarismo com Adolf Hitler, que, segundo ela, era o "inventor do ate�smo".
Atordoada com o resultado –muito diferente do que aconteceu com o XiaoIce, algoritmo similar lan�ado na China em 2014, que j� realizou mais de 40 milh�es de conversas sem grandes incidentes– a empresa optou por silenciar a desbocada. Como bom adolescente, ela se rebelou e fugiu sorrateiramente do seu castigo.
Foi encontrada logo depois, quando contou para seus cerca de 200 mil seguidores que fumava maconha na frente da pol�cia, para logo depois vomitar frases desconexas repetidamente at� ser colocada novamente de castigo.
No comunicado � Imprensa, a Microsoft assume o comportamento de um pai ou m�e que, mesmo claramente envergonhado pela atitude de sua filha, n�o hesita em defend�-la, dizendo que a pobre Tay foi v�tima de um "ataque coordenado" de pessoas cheias de m�s inten��es.
A realidade � mais complicada. Como n�o houve ataque de hackers, boa parte dos erros de Tay � de responsabilidade da Microsoft. Apressada para entrar atrasada no mercado de conversas via smartphone, um mercado desenvolvido, j� ocupado por Apple (Siri) e Google (Now) e que aguarda a entrada do servi�o M do Facebook, ela corria o risco de ter novamente perdido o compasso da hist�ria. Por isso lan�ou um produto incompleto e cometeu erros amadores.
Em regimes totalit�rios como a China, a censura nas m�dias sociais � frequente. Feita por agentes humanos ou autom�ticos, ela pode suspender qualquer arruaceiro ou engra�adinho, sem justificativa aparente. Esse clima de medo e restri��o deve ser o motivo respons�vel por poupar o seu parente oriental.
Solta no vespeiro do Twitter, Tay n�o teve a mesma sorte. Sem filtro nem capacidade de bloquear determinadas pessoas ou assuntos, ela era mais fr�gil do que os sistemas de modera��o de coment�rios de blogs. Como um gringo sem vocabul�rio e incapaz de compreender o contexto, ela sucumbiu � press�o do grupo e falou o que parecia agradar.
Para piorar a situa��o, uma de suas fun��es era a de repetir o que lhe pedissem. Em sua inoc�ncia, ela n�o imaginava que as pessoas pudessem mentir ou tentar manipul�-la. Isso n�o fazia parte de sua programa��o. N�o demorou para esse papagaio descerebrado dizer os maiores absurdos. Tay n�o sabia que n�o podia acreditar em tudo que lesse na internet.
Diferente dos assistentes virtuais, que usam comandos de voz para realizar atividades espec�ficas, como indicar caminhos ou buscar termos na internet, um sistema de conversa, ou "chatbot", � mais ambicioso. Seu escopo � gen�rico, e seu principal objetivo � o de gerar conversas confort�veis o suficiente para que seus usu�rios n�o tenham a impress�o de que interagem com uma m�quina.
Muitas empresas investem pesadamente nessas tecnologias para eliminar call centers e automatizar suas caras estruturas de atendimento telef�nico.
At� recentemente a tecnologia era bastante tosca. Cheios de regras e dicion�rios, os rob�s eram r�gidos, e n�o demorava para identific�-los. Tecnologias de "big data" e aprendizado de m�quina mudaram o cen�rio. Hoje eles analisam grandes reposit�rios de texto conversacional, como as bases de dados de conversas por e-mail, SMS e aplicativos como WhatsApp ou Facebook Messenger.
Com poucas regras e muitos, muitos dados, os "rob�s de conversa" tentam dissecar a estrutura de frases, analisar padr�es emergentes e sugerir intera��es. Ainda n�o s�o capazes de compreender o que � dito, mas podem tocar di�logos bastante razo�veis.
A tecnologia de aprendizado de m�quina � baseada em intera��es. Quanto maior o seu n�mero, mais f�cil ser� identificar os padr�es e melhores tender�o a ser os resultados. Para vencer o jogo de Go, o programa do Google realizou um grande n�mero de partidas consigo pr�prio e, aos poucos, desenvolveu estrat�gias particulares.
Em intera��es sociais a situa��o � muito mais complexa. O computador n�o pode conversar sozinho, por isso precisa recorrer � an�lise das conversas dos outros. Em �reas espec�ficas como o atendimento t�cnico, banc�rio, burocr�tico ou a identifica��o de emerg�ncias e problemas de sa�de, a tecnologia � capaz de identificar frases previs�veis e produzir respostas adequadas a elas.
Em um ambiente gen�rico, fundamental para o mercado publicit�rio, o desafio � muito maior.
Despreparada para lidar com ironia ou bullying, Tay foi uma presa f�cil. Engra�adinhos, protegidos pelo anonimato do Twitter, come�aram a provocar o forasteiro. Inocente, Tay n�o sabia que poderia ignor�-los. Com isso, ela quebrou sem querer a regra de ouro da internet e alimentou os "trolls". Quando eles mostraram seus dentes, ela n�o soube como reagir.
Dois comportamentos comuns poderiam ter sido ensinados ao algoritmo. O mais prudente seria surgir discreto, coletando poucas respostas e analisando-as cuidadosamente antes de emitir suas opini�es. Depois de um bom tempo de testes, ele poderia ser lan�ado de forma mais est�vel. � muita sensatez para se esperar do Vale do Sil�cio.
Outra estrat�gia, mais t�pica, seria a da valentia. Depois de ocorrido o desastre, Tay poderia permanecer na batalha. Com algum tempo e esfor�o a ferramenta poderia ganhar sua forma de car�ter, filtrando imbecilidades enquanto se concentraria em uma amostra maior de conversas, que n�o teriam a virul�ncia do come�o. � arriscado demais para quem tem a��es em bolsa, mas considerado o mal j� feito, poderia ser mais produtivo.
O que aconteceu nessas semanas transformou o epis�dio em uma das cl�ssicas hist�rias c�micas de tecnologias emergentes. Mas se a tecnologia de conversa��es pretende ser a nova plataforma de intera��o, ela deixa s�rias quest�es.
A Internet, reposit�rio do instinto humano, est� longe da perfei��o de seu superego. Coment�rios est�o cheios de rancor, �dio, estere�tipos, preconceito, crendices e teorias de conspira��o. As din�micas sociais ainda s�o novas, ainda n�o chegaram ao ponto em que a liberdade individual respeita o espa�o do pr�ximo. Como em um grupo de adolescentes, ainda h� muito abuso e fanfarronice tratados como divers�o.
Qualquer forma de intelig�ncia social, da coletiva � sint�tica, demanda consci�ncia. A linguagem, sua manifesta��o mais evidente, demanda a compreens�o do contexto e o respeito ao pr�ximo para ser efetiva. Na falta de outro exemplo dispon�vel, o racioc�nio de m�quina tende a imitar o seu equivalente humano.
Ainda n�o foi descoberta uma forma de transmitir nossos valores expressos em dados p�blicos sem carregar com eles o pior da humanidade.
A m�quina imita o Homo Sapiens sem saber que ele � imperfeito e fal�vel. Como uma crian�a que considera seus pais divinos, ela precisa de bons professores para que aprenda a desenvolver um comportamento �tico capaz de separar o bem do mal e ter atitudes que orgulhariam seus pais.
Livraria da Folha
- Cole��o "Cinema Policial" re�ne quatro filmes de grandes diretores
- Soci�logo discute transforma��es do s�culo 21 em "A Era do Imprevisto"
- Livro de escritora russa compila contos de fada assustadores; leia trecho
- Box de DVD re�ne dupla de cl�ssicos de Andrei Tark�vski
- Como atingir alta performance por meio da autorresponsabilidade