O Projeto de Lei 2338/2023, que estabelece o marco legal da inteligência artificial no Brasil, está parado há mais de um mês na Câmara dos Deputados. Aprovado pelo Senado em dezembro de 2024, o texto enfrenta resistência de parlamentares e do setor privado em pontos cruciais como classificação de sistemas de alto risco e responsabilização de empresas por danos causados por algoritmos.
A paralisação deixa o Brasil em uma posição delicada no cenário global de regulação de IA. Enquanto a União Europeia já implementa seu AI Act desde março de 2024 e os Estados Unidos avançam com diretrizes federais, empresas brasileiras operam em uma zona cinzenta regulatória que pode gerar riscos jurídicos significativos.
O Que É o PL 2338 e Por Que Ele Importa
O PL 2338/2023 propõe o primeiro marco regulatório abrangente de inteligência artificial no Brasil. O texto estabelece classificações de risco para sistemas de IA, define obrigações de transparência para empresas e cria mecanismos de responsabilização por danos causados por algoritmos.
Diferentemente de regulações setoriais já existentes, como as diretrizes do Banco Central para IA no sistema financeiro publicadas em 2024, o projeto pretende abranger todos os setores da economia. A proposta inclui desde sistemas de recomendação em redes sociais até algoritmos de decisão em processos seletivos e diagnósticos médicos.
O impacto econômico é significativo. Segundo relatório da PwC de 2024, 73% das empresas brasileiras não possuem frameworks de governança para IA, deixando o mercado nacional vulnerável tanto a riscos operacionais quanto a futuras sanções regulatórias. A indefinição legislativa também afeta a corrida global por investimentos em IA, onde o Brasil compete por recursos e talentos.
A Cronologia: Do Senado ao Impasse na Câmara
O projeto teve tramitação acelerada no Senado durante o segundo semestre de 2024. A Comissão de Ciência, Tecnologia, Inovação e Comunicação aprovou o texto em novembro, seguida pela aprovação em plenário em dezembro. A relatoria do senador Carlos Viana (PSD-MG) incorporou sugestões de audiências públicas com representantes do setor tecnológico e academia.
Na Câmara, porém, o cenário mudou. Desde janeiro de 2025, o projeto aguarda distribuição para comissões permanentes, mas enfrenta pressão de lobbies empresariais e divergências internas sobre pontos técnicos. A Comissão de Ciência e Tecnologia da Casa, que deve analisar o mérito da proposta, ainda não designou relator.
O Ministério da Ciência, Tecnologia e Comunicações (MCTIC) e a Anatel participam de um grupo de trabalho para definir qual órgão será a autoridade reguladora nacional de IA. Essa indefinição institucional também contribui para a lentidão do processo legislativo, já que deputados questionam a viabilidade prática de implementação das regras propostas.
Os 3 Pontos Mais Polêmicos Que Travam a Votação
Classificação de Risco: Quem Define o Que É IA de Alto Risco
O principal ponto de atrito é o mecanismo de classificação de sistemas de IA em categorias de risco. O projeto estabelece quatro níveis: risco mínimo, limitado, alto e inaceitável. Sistemas de alto risco incluem aqueles usados em recrutamento, concessão de crédito, diagnósticos médicos e segurança pública.
A polêmica está na autoridade responsável por essa classificação. O texto aprovado no Senado delega ao Poder Executivo a regulamentação dos critérios, mas deputados defendem que o Congresso mantenha controle sobre definições que podem impactar milhares de empresas. Representantes do setor tecnológico argumentam que critérios muito rígidos podem inviabilizar a inovação.
A questão se torna mais complexa quando analisamos sistemas de IA generativa como ChatGPT e similares. O projeto não é claro sobre como classificar essas ferramentas, que podem ter aplicações tanto de baixo quanto de alto risco dependendo do uso específico.
Responsabilidade Civil: Quem Paga Quando a IA Erra
O segundo ponto polêmico envolve a responsabilização por danos causados por sistemas de IA. O projeto estabelece responsabilidade objetiva para desenvolvedores e operadores de sistemas de alto risco, ou seja, independente de culpa. Para sistemas de risco limitado, a responsabilidade é subjetiva, dependendo de comprovação de negligência.
Empresas de tecnologia questionam essa divisão, argumentando que a responsabilidade objetiva pode gerar custos excessivos de seguro e compliance. Já organizações de defesa do consumidor defendem regras mais rígidas, citando casos de discriminação algorítmica em sistemas de crédito e seleção de pessoal.
A indefinição sobre responsabilidade compartilhada entre diferentes atores da cadeia de IA também gera insegurança. Em um sistema que envolve desenvolvedores de algoritmos, fornecedores de dados e empresas usuárias, não está claro quem responde por eventuais prejuízos ao consumidor final.
Sandbox Regulatório e a Pressão do Setor Privado
O terceiro ponto de divergência é a criação de um ambiente regulatório experimental (sandbox) para testar sistemas de IA inovadores com regras mais flexíveis. O setor privado pressiona por ampliação desses espaços, enquanto parlamentares temem que exceções muito amplas criem brechas para práticas prejudiciais.
O projeto prevê que startups e empresas de base tecnológica possam solicitar participação em programas piloto com supervisão reduzida. A duração desses programas e os critérios de entrada são aspectos ainda em discussão, com propostas variando de 12 a 36 meses de experimentação.
A pressão empresarial se intensificou após o sucesso de sandboxes regulatórios no Reino Unido e Singapura, que atraíram investimentos bilionários em IA. Representantes da Associação Brasileira de Startups argumentam que regras muito rígidas desde o início podem afastar empresas internacionais do mercado nacional.
Como o Brasil Se Compara à Europa e aos Estados Unidos
O marco brasileiro de IA segue tendência global de regulação, mas com características próprias. A comparação internacional revela diferentes abordagens para desafios similares:
| Aspecto | Brasil (PL 2338) | União Europeia (AI Act) | Estados Unidos |
|---|---|---|---|
| Abordagem | Baseada em risco | Baseada em risco | Diretrizes setoriais |
| Classificação | 4 níveis de risco | 4 níveis de risco | Sem classificação única |
| Responsabilidade | Objetiva para alto risco | Responsabilidade compartilhada | Varia por setor |
| Sandbox | Previsto para startups | Não previsto | Estados individuais |
| Autoridade | A ser definida | Múltiplas autoridades | Agências federais |
A União Europeia aprovou o AI Act em março de 2024 como a primeira regulação abrangente de IA do mundo, estabelecendo multas de até 7% do faturamento global para infrações graves. O modelo europeu influenciou diretamente o projeto brasileiro, mas adaptações foram feitas para a realidade econômica nacional.
Os Estados Unidos optaram por abordagem descentralizada, com diretrizes específicas por setor. O governo Biden publicou em 2023 uma ordem executiva sobre IA segura, mas sem criar legislação federal unificada. Essa diferença permite maior flexibilidade, mas gera inconsistências entre estados e setores.
O Que Empresas Devem Fazer Enquanto a Lei Não Sai
A indefinição regulatória não isenta empresas de responsabilidades. Marcos legais existentes como Código de Defesa do Consumidor e Lei Geral de Proteção de Dados já se aplicam a sistemas de IA, criando obrigações que muitas organizações ignoram.
Empresas devem implementar governança preventiva de IA, incluindo mapeamento de sistemas em uso, avaliação de riscos algorítmicos e criação de processos de transparência. O Banco Central já exige dessas práticas para instituições financeiras desde 2024, servindo como modelo para outros setores.
A documentação é crucial. Empresas precisam registrar decisões de design de algoritmos, fontes de dados utilizadas e processos de validação. Essas informações serão essenciais para demonstrar compliance quando a lei entrar em vigor, além de facilitar auditorias internas e externas.
Investir em equipes multidisciplinares também é fundamental. A conformidade com regulação de IA exige conhecimento técnico, jurídico e ético. Empresas que anteciparem essa necessidade terão vantagem competitiva quando as regras finais forem definidas.
Parcerias com universidades e centros de pesquisa podem acelerar a adequação. Instituições acadêmicas desenvolvem metodologias de auditoria algorítmica e frameworks de IA responsável que podem ser adaptados para uso empresarial.
Qual é a diferença entre o Marco Legal da IA brasileiro e o AI Act europeu?
O AI Act europeu é mais restritivo e já está em vigor, estabelecendo multas de até 7% do faturamento global. O projeto brasileiro é mais flexível com startups através do sandbox regulatório, mas ainda não foi aprovado pela Câmara dos Deputados.
O que acontece se uma empresa usar IA no Brasil antes da aprovação do PL 2338?
Empresas já estão sujeitas a leis existentes como LGPD e Código do Consumidor ao usar IA. A ausência do marco específico não isenta de responsabilidades por danos ou discriminação algorítmica, mas pode gerar insegurança jurídica sobre critérios de compliance.
Sistemas de IA generativa como ChatGPT serão regulados pelo PL 2338?
O projeto não é claro sobre IA generativa. Esses sistemas podem ser classificados em diferentes níveis de risco dependendo da aplicação específica - uso educacional seria baixo risco, mas uso em decisões médicas seria alto risco.
Quem será a autoridade responsável por fiscalizar IA no Brasil?
Ainda não foi definido. MCTIC e Anatel participam de grupo de trabalho para essa decisão. O projeto prevê que o Poder Executivo regulamente essa questão, mas deputados querem que o Congresso participe da escolha.
Pequenas empresas também precisam se adequar ao Marco Legal da IA?
Sim, mas o projeto prevê tratamento diferenciado. Startups podem solicitar participação em sandbox regulatório com regras mais flexíveis. Microempresas terão prazos estendidos para adequação e multas proporcionais ao faturamento.