Laura destaca consensos na regulação, riscos a direitos fundamentais e aprimoramentos do PL e defende soberania digital e inovação responsável.
Em palestra sobre o marco legal da IA, Laura Schertel Mendes elogia mudanças no PL 2338 pela CTIA, como supervisão híbrida e lista de riscos flexível, enfatizando proteção e segurança jurídica para a indústria
Em uma palestra proferida durante o seminário "O Marco Legal da Inteligência Artificial no Brasil - O Caminho Setorial", organizado pela Confederação Nacional da Indústria (CNI), a professora Laura Schertel Mendes, renomada especialista em direito digital, enfatizou a urgência de uma regulação responsável para a inteligência artificial (IA) no país.
Doutora pela Humboldt-Universität zu Berlin, pesquisadora visitante na Goethe-Universität Frankfurt am Main e relatora da comissão de juristas que assessorou o Senado Federal na regulação da IA, Schertel Mendes é também diretora do Centro de Internet, Direito e Sociedade do Instituto Brasileiro de Ensino, Desenvolvimento e Pesquisa (IDP), professora da Universidade de Brasília (UnB), membro do Conselho Nacional de Proteção de Dados e Privacidade da Autoridade Nacional de Proteção de Dados (ANPD) e co-diretora da Associação Luso-Alemã de Juristas (DLJV-Berlim).
Sua apresentação, realizada em um contexto de debates intensos sobre o Projeto de Lei (PL) 2338/2023, destacou consensos emergentes no Congresso Nacional e os riscos da IA para direitos fundamentais, ao mesmo tempo em que celebrou aprimoramentos introduzidos pela Comissão Temporária Interna sobre Inteligência Artificial (CTIA) do Senado.
Schertel Mendes iniciou sua fala parabenizando a CNI pela iniciativa e destacando o progresso nos debates legislativos sobre IA, que se estendem há pelo menos cinco anos. "Temos construído cada vez mais consensos do que dissensos", afirmou, referindo-se às mesas de discussão da manhã do evento, que incluíram parlamentares como os deputados Aguinaldo Ribeiro (relator do PL na Câmara) e Randolfe Rodrigues.
Ela sublinhou o consenso geral de que a regulação não visa obstaculizar a inovação, mas garantir prosperidade e o uso da tecnologia no interesse público, como bem pontuou o deputado Ribeiro: "Regular para prosperar".
Um dos eixos centrais da palestra foi a dissipação de mitos que cercam a regulação da IA. A professora desmontou a ideia de que o desenvolvimento da tecnologia ocorre de forma espontânea, sem intervenção estatal – o "just happen" –, argumentando que a IA depende de recursos escassos como talentos humanos, energia, dados e infraestrutura de governança.
Citando a economista Daron Acemoglu, vencedora do Nobel, ela reforçou que a inovação só gera prosperidade quando regulada para o bem público, analisando mil anos de história industrial. Outro mito combatido foi o de que qualquer inovação automaticamente beneficia a sociedade, sem considerar riscos éticos e sociais.
A palestrante ilustrou os riscos da IA com exemplos concretos de diversas áreas, enfatizando impactos em direitos fundamentais como liberdade, igualdade e privacidade. No judiciário brasileiro, pioneiro no uso de IA – com mais de 80 milhões de processos em curso –, ferramentas como o ChatGPT já auxiliam juízes, mas demandam balizas éticas, como as estabelecidas pela Resolução 615 do Conselho Nacional de Justiça (CNJ), inspirada no PL 2338. Schertel Mendes alertou para o devido processo legal e a necessidade de decisões fundamentadas, evitando abusos.
Na segurança pública, citou um caso trágico na Espanha, onde um algoritmo falhou em prever reincidência de violência doméstica, resultando em morte. Em saúde mental, destacou como ferramentas de IA generativa oferecem conselhos prejudiciais sobre transtornos alimentares, exacerbando vulnerabilidades, especialmente entre adolescentes – um tema que ganhou destaque na opinião pública recente.
Na saúde, referenciou pesquisa da professora Sandra Ávila, da Unicamp, que revelou vieses em sistemas de detecção de câncer de pele, que funcionam bem para peles brancas, mas falham em peles negras devido a bases de dados enviesadas. "O algoritmo não errou; ele refletiu dados restritos e enviesados", explicou, sublinhando a necessidade de dados representativos para benefícios reais.
Outros desafios mencionados incluíram o racismo algorítmico em reconhecimento facial usado pela polícia brasileira, que perpetua desigualdades estruturais e afeta liberdades individuais, e a personalização nociva em redes sociais, que amplifica conteúdos prejudiciais para crianças e adolescentes. Schertel Mendes defendeu que a regulação deve abranger todo o ciclo de vida da IA, considerando dimensões tecnológicas, sociais, econômicas e humanas, e garantindo evidências representativas em decisões baseadas em dados – ecoando o conceito de "garbage in, garbage out".
No cerne do debate, a professora analisou o PL 2338/2023, aprovado por quase unanimidade no Senado em dezembro de 2024 e agora tramitando na Câmara sob relatoria de Aguinaldo Ribeiro e presidência de Luiza Canziani na comissão especial.
Ela o descreveu como um "marco civil da IA", baseado em quatro pilares: proteção de direitos fundamentais (como supervisão humana e não discriminação), segurança jurídica para a cadeia de valor da IA, abordagem baseada em riscos e supervisão híbrida. Diferente de modelos europeu (AI Act) ou americano, o projeto brasileiro prioriza direitos e interlocução com regulações internacionais, fomentando inovação nacional, soberania digital e autorregulação.
Schertel Mendes destacou aprimoramentos introduzidos pela CTIA, resultantes de audiências públicas que ouviram cerca de 100 expositores e diálogos com setores como CNI e FIESP, tornando o texto "mais robusto e maduro":
- Exceção ao âmbito de aplicação: Sistemas em fase de pesquisa e desenvolvimento, antes de entrarem no mercado, foram excluídos da lei, incentivando inovação sem riscos a consumidores.
- Avaliação preliminar como boa prática: Deixou de ser obrigatória, tornando-se uma recomendação, aliviando ônus à indústria sem comprometer governança.
- Regulação baseada em riscos com lista dinâmica: Uma classificação flexível, com presunção relativa, a ser especificada pelas agências reguladoras, permitindo exceções e adaptações setoriais – uma "terceira via" brasileira, mais adequada à realidade nacional e interoperável globalmente.
- Medidas de governança escalonadas: Obrigações proporcionais ao papel de cada agente na cadeia de valor, promovendo accountability e observabilidade para sistemas mais seguros.
- Sistema de supervisão híbrido: Descentralizado, com agências reguladoras como protagonistas na fiscalização e sanções, coordenadas pela ANPD (devido à sua horizontalidade e expertise em dados), evitando "desgoverno" e dialogando com regulações setoriais existentes, como a do CNJ.
- Responsabilidade civil: Remissão aos regimes atuais do Código Civil e Código de Defesa do Consumidor, abandonando a criação de um novo regime objetivo, o que simplifica e integra à legislação vigente.
Encerrando, Schertel Mendes anunciou uma parceria entre o Centro de Pesquisa Direito Internet Sociedade do IDP e a FIESP para uma câmara técnica de inovação, convidando a CNI e especialistas a participarem.
Ela enfatizou a soberania digital como essencial para a independência nacional, citando o Fórum Econômico Mundial, e defendeu investimentos em infraestrutura confiável para gerar confiança pública.
"Não há soberania jurídica sem soberania digital", concluiu, reforçando que a regulação equilibrada é chave para um futuro digital próspero e ético no Brasil.
O seminário da CNI, transmitido ao vivo pelo Youtube, reflete o momento crítico do PL 2338, que avança na Câmara com audiências públicas programadas, como a de 9 de setembro sobre IA no serviço público.
Especialistas veem no projeto uma oportunidade para o Brasil liderar uma regulação inovadora, alinhada a desafios globais.
COMENTÁRIOS