O senador Eduardo Gomes (PL-TO), relator do projeto de lei que regulamenta o uso de Inteligência Artificial, irá apresentar o parecer sobre a iniciativa na tarde desta quarta-feira. A previsão é que o texto ainda passe por mudanças. Gomes já avisou que vai receber sugestões de emendas ao texto e deve fazer alterações antes da votação.
- 'Atenção, animais na pista': Inteligência Artificial auxilia no salvamento da fauna silvestre em estradas no Brasil
- Editorial: É retrógrada a oposição ao uso de inteligência artificial nas escolas
Inicialmente a comissão tinha um prazo que ia até o final de abril, mas ela foi prorrogada para o dia 23 de maio. O presidente do Senado, Rodrigo Pacheco (PSD-MG), que é o autor do texto, deseja que o projeto seja aprovado, tanto no Senado, quanto na Câmara, antes da reunião do G20, em novembro.
Eduardo Gomes vai propor que a regulamentação da IA seja feita por um novo órgão ligado ao governo. A ideia é criar um comitê gestor que reunirá representantes de agências reguladoras e do Banco Central.
O entendimento do senador é que a regulamentação não pode ser feita de maneira uniforme para todas as áreas. A iniciativa do Senado tem como um dos nortes a responsabilização das empresas de redes sociais sobre os conteúdos com uso de IA veiculados nelas. Esse ponto provoca resistência de parlamentares identificados com a oposição.
Há também uma disputa de protagonismo com a Câmara em relação ao projeto. A Câmara já havia aprovado um texto que regulamenta a IA, de autoria do deputado Eduardo Bismarck (PDT-CE) e relatoria de Luisa Canziani (PSD-PR), que nunca chegou a avançar no Senado. Caso seja aprovado pelos senadores, há uma movimentação na Câmara para que Canziani seja a relatora do projeto de Pacheco.
Como forma de afastar o discurso de controle e restrição nas redes, Gomes defende a regulação de forma descentralizada, com a participação das agências no comitê, em vez de concentrar o poder de ditar as regras em apenas uma estrutura. O texto prevê a “participação humana no ciclo da inteligência artificial” e “rastreabilidade das decisões como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou jurídica”. A iniciativa estipula ainda que pessoas atingidas “de maneira significativa” por decisões das ferramentas podem requisitar revisão humana.