Texto tramita na Comissão Temporária de Inteligência Artificial do Senado. Segundo o presidente da comissão, senador Carlos Viana (Podemos-MG), o projeto deve ser votado na próxima terça-feira. O senador Eduardo Gomes (PL-TO) leu, nesta quarta-feira (28) a quarta versão de seu relatório sobre o projeto que vai regulamentar o uso de inteligência artificial no Brasil.
O texto tramita na Comissão Temporária de Inteligência Artificial do Senado. Segundo o presidente da comissão, senador Carlos Viana (Podemos-MG), o projeto deve ser votado na próxima terça-feira (3).
A proposta serve para definir os limites e as permissões para o uso da tecnologia, que vai desde uma busca no Google ou a redação de um artigo no ChatGPT até a captura de fugitivos da Justiça.
Caso aprovado na comissão, o texto ainda terá de passar pelos plenários do Senado e da Câmara, e ser sancionado pelo presidente Lula, para virar lei.
Proibições
O relatório estabelece condutas proibidas para as plataformas responsáveis por IA. Entre elas, estão:
???? técnicas subliminares para induzir o comportamento do usuário ou de grupos de maneira que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
???? exploração de vulnerabilidades dos usuários;
???? avaliação, por parte do governo, de cidadão, por meio de seu comportamento social e personalidade, na hora de oferecer serviços e políticas públicas;
???? sistema que produza ou dissemine material de abuso e exploração sexual de crianças e adolescentes;
???? tecnologia que considere ficha criminal e traços de personalidade para supor e prever risco de cometimento de crime ou reincidência;
???? utilização da IA como armas autônomas, que selecionam alvos e atacam sem a intervenção humana.
O uso de identificação biométrica à distância, em tempo real, em espaços públicos será permitido apenas para captura de fugitivos, cumprimento de mandados de prisão e flagrante de crimes com pena de mais de dois anos de prisão. O uso para colher provas em inquéritos policiais também será permitido apenas com autorização judicial e quando não houver outros meios.
Direitos autorais
O texto assegura os direitos autorais de empresas jornalísticas, escritores e artistas. Pelo projeto, as big techs, como Google e Microsoft, precisariam de autorização do autor para usar conteúdos protegidos na hora de gerar respostas.
De acordo com a proposta, as empresas que desenvolvem e aplicam IA teriam de pagar uma remuneração aos autores para poder ter as produções disponíveis em seus bancos de dados.
O texto estabelece que o cálculo da remuneração "considere os princípios da razoabilidade e da proporcionalidade e elementos relevantes, tais como a complexidade do sistema de IA desenvolvido, o porte do agente de IA, o ciclo de realização econômica dos sistemas de IA, o grau de utilização dos conteúdos, o valor relativo da obra ao longo do tempo e os efeitos concorrenciais dos resultados em relação aos conteúdos originais utilizados".
Sanções
O relator manteve uma das propostas vindas de Pacheco, que possibilita a aplicação de multa de até R$ 50 milhões ou 2% do faturamento, em caso de pessoa jurídica, para cada violação cometida pelas empresas de tecnologia.
Outras sanções previstas são:
?? suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de IA
?? proibição de tratamento de determinadas bases de dados
?? proibição ou restrição para participar de regime de sandbox regulatório por até cinco anos
Procedimentos de alto risco
O texto determina atividades de inteligência artificial consideradas de alto risco. Apesar de vedar o sistema de prever crimes com base nos traços físicos e de personalidade, o texto libera o uso de IA, por autoridades, para avaliar a credibilidade de provas da investigação e de repressão de infrações. Segundo o texto, o objetivo seria "prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares".
Também fica autorizado, desde que classificado como de alto risco, o reconhecimento de emoções. Neste caso, fica excluído sistema de autentificação biométrica para confirmar uma pessoa específica, singular.
Entre os procedimentos de alto risco estão:
?? gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional;
?? aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas;
?? controles de trânsito, redes de abastecimento de água e eletricidade;
?? informações para acesso de estudantes a cursos técnicos e universidade;
?? critérios de acesso à concessão de benefícios, como revisão de cadastros no Bolsa Família ou até apuração de fraudes em atestados do INSS;
?? recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho.
Sistema de regulação
O projeto cria um órgão para fiscalizar o uso de IA no Brasil, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). Segundo o texto, o sistema será coordenado pela Autoridade Nacional de Proteção de Dados (ANPD).
Caberá ao SIA regulamentar as inteligências artificiais de alto risco que, por exemplo, impactem negativamente no exercício de direitos e liberdades dos usuários.
O texto prevê ainda a possibilidade de empresas de IA se associarem para criar uma espécie de agência privada para a autorregulação do sistema. De acordo com o texto, a autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:
?? compartilhamento de experiências sobre o uso de inteligência artificial;
?? definição contextual de estruturas de governança;
?? atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e
?? canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado