
O Projeto de Lei 2.338/2023, que busca regulamentar a IA no Brasil, propõe um regime de responsabilidade civil que pode inibir a inovação, ao atribuir ônus excessivo a desenvolvedores e não considerar a corresponsabilidade dos usuários. Para empresários e contadores, essa abordagem gera insegurança jurídica e demanda um equilíbrio maior que contemple as especificidades da IA para um ecossistema tecnológico sustentável.
Desvendando a Responsabilidade Civil na Era da Inteligência Artificial: Desafios e Oportunidades no Cenário Brasileiro
A Inteligência Artificial (IA) permeia cada vez mais aspectos de nossas vidas, do planejamento estratégico de grandes corporações à gestão financeira pessoal. No Brasil, a tentativa de criar um marco regulatório para essa tecnologia, materializada no Projeto de Lei 2.338/2023, representa um passo importante. No entanto, a forma como o projeto aborda a responsabilidade civil por danos causados por sistemas de IA levanta questões cruciais que impactam diretamente o ambiente de negócios e a inovação. Entender as nuances dessa discussão é fundamental para empresas e profissionais que utilizam, desenvolvem ou são impactados pela IA.
O Desafio da Responsabilidade Civil na Era da IA
A rápida evolução da Inteligência Artificial traz consigo um conjunto complexo de desafios legais, especialmente no que tange à atribuição de responsabilidade por eventuais danos. Ao contrário das tecnologias tradicionais, cuja operação e resultados são geralmente previsíveis e determinísticos, os sistemas de IA, sobretudo os que utilizam aprendizado de máquina, exibem características como autonomia, adaptabilidade e, por vezes, opacidade em seu funcionamento. Essa natureza inerentemente dinâmica dificulta a aplicação de regimes de responsabilidade civil preexistentes, formulados para um mundo tecnológico menos complexo. A identificação de quem é o responsável – o desenvolvedor, o operador, o usuário, ou o próprio sistema – em caso de falha ou dano, torna-se uma tarefa árdua, exigindo um novo olhar jurídico que contemple as peculiaridades da IA. A ausência de clareza nesse ponto gera incerteza, o que pode tanto frear o investimento em inovação quanto deixar vítimas desamparadas.
A Proposta Brasileira e Seus Pilares Iniciais
No contexto brasileiro, o Projeto de Lei 2.338/2023 surge como a principal iniciativa para regulamentar a Inteligência Artificial. Em seu Capítulo III, o projeto delineia um regime de responsabilidade civil baseado em dois pilares fundamentais: a responsabilidade objetiva e a solidariedade entre os agentes envolvidos. A responsabilidade objetiva significa que a vítima não precisa provar dolo ou culpa do agente causador do dano, apenas o dano e o nexo causal com a atividade da IA. Já a solidariedade implica que qualquer um dos envolvidos na cadeia de desenvolvimento e operação do sistema de IA (desenvolvedor, fornecedor, operador) pode ser acionado judicialmente para reparar integralmente o dano, seja ele patrimonial, moral, individual ou coletivo. Essa abordagem visa, em tese, a facilitar a reparação para a vítima, simplificando o processo de identificação do culpado em uma cadeia muitas vezes complexa e multifacetada. A ideia é proteger o indivíduo lesado, garantindo que ele consiga indenização sem precisar desvendar a intricada arquitetura técnica e operacional de um sistema de IA.
A Inadequação da Aplicação Subsidiária da Legislação Existente
Apesar da intenção protetiva, o Projeto de Lei revela uma fragilidade significativa ao propor a aplicação subsidiária de diplomas legais como o Código de Defesa do Consumidor (CDC), a Lei Geral de Proteção de Dados (LGPD) e o Código Civil (CC). Embora esses códigos sejam ferramentas jurídicas robustas em seus respectivos domínios, eles foram concebidos em um período anterior à massificação da Inteligência Artificial e não contemplam as especificidades inerentes a essa tecnologia. A mera remissão genérica a esses marcos, sem a positivação de excludentes e atenuantes de responsabilidade próprios para o contexto da IA, cria um vácuo normativo. A dependência de analogias e interpretações casuísticas para preencher essas lacunas pode gerar uma perigosa insegurança jurídica. Isso, por sua vez, pode desestimular o investimento em inovação e o desenvolvimento de novas soluções de IA no país, pois empresas e desenvolvedores operariam em um ambiente de incerteza quanto aos seus riscos legais.
O Problema da “Caixa-Preta” e a Dificuldade do Nexo Causal
Um dos maiores desafios da responsabilidade civil em IA é o chamado problema da “caixa-preta”. Muitos sistemas de aprendizado de máquina operam de forma tão complexa que mesmo seus criadores têm dificuldade em explicar precisamente como uma determinada decisão ou resultado foi alcançado. A autonomia e a capacidade de aprendizado contínuo desses sistemas podem gerar “comportamentos emergentes” – resultados que não foram explicitamente programados e que são difíceis de prever ou explicar. Em tal cenário, a determinação do nexo de causalidade entre a ação do sistema de IA e o dano sofrido torna-se uma tarefa quase impossível utilizando os paradigmas tradicionais. Excludentes de responsabilidade como caso fortuito ou força maior, pensadas para tecnologias mais lineares, são inadequadas para fenômenos probabilísticos e imprevisíveis da IA. A opacidade e a complexidade algorítmica exigem uma abordagem jurídica que reconheça essa natureza intrínseca, em vez de tentar forçá-la a modelos jurídicos obsoletos.
O Risco do Desenvolvimento e o Estímulo à Inovação
Uma lacuna notável no PL 2.338/2023 é a ausência de uma cláusula de excludente de ilicitude baseada no “estado da arte” tecnológico, também conhecida como “risco do desenvolvimento”. Este princípio, presente em jurisdições mais maduras e, de forma limitada, no artigo 14 do CDC, exime o fornecedor de responsabilidade por danos decorrentes de defeitos que não poderiam ser conhecidos ou previstos no momento em que o produto foi introduzido no mercado, dada a base de conhecimento científico e técnico disponível. Ao ignorar essa possibilidade, o projeto impõe um ônus desproporcional aos inovadores, tornando-os responsáveis por riscos que são, por vezes, incognoscíveis na fase de desenvolvimento. Essa ausência representa uma barreira direta ao direito de inovar. Empresas, especialmente as startups e PMEs que impulsionam a inovação, podem se sentir desestimuladas a lançar novas soluções no mercado brasileiro, temendo uma responsabilização objetiva e ilimitada por falhas que escapam ao seu controle. O custo de seguro para cobrir esses riscos também se tornaria proibitivo, criando um ambiente que, ironicamente, favorece apenas grandes corporações com capacidade de absorver passivos significativos.
Incentivos à Boa Governança: Mais que Punição
Um regime de responsabilidade civil eficaz e moderno não deve ser puramente punitivo; ele deve também funcionar como um indutor de comportamentos desejáveis. O PL 2.338/2023 falha ao não estabelecer atenuantes de responsabilidade para os agentes que demonstram diligência e adotam as melhores práticas de governança em IA. Seria fundamental que a legislação previsse a possibilidade de redução da responsabilidade para fornecedores e operadores que comprovadamente investiram em auditorias de impacto algorítmico, implementaram mecanismos robustos de mitigação de vieses, garantiram a transparência sobre o funcionamento dos sistemas e estabeleceram canais de contestação e recurso para os usuários. A ausência desses mecanismos de atenuação transmite uma mensagem distorcida ao mercado: a de que o esforço para desenvolver e operar uma IA de forma ética e segura é juridicamente irrelevante. Um desenvolvedor negligente e um diligente seriam, perante a lei, tratados no mesmo patamar de responsabilidade objetiva. Isso mina a lógica de uma regulação que busca promover a inovação responsável, transformando a governança de IA em um mero exercício burocrático, em vez de um compromisso genuíno com a segurança e a ética.
O Usuário como Agente Ativo: Além do “Afetado”
Outro ponto crítico da proposta legislativa é sua concepção do usuário, tratado genericamente como o “afetado”. Embora essa terminologia seja comum em contextos de proteção, ela é redutora e transmite uma visão passiva do indivíduo na interação com a tecnologia. Na vasta maioria dos casos de uso de sistemas de IA, especialmente os generativos, o usuário é um participante ativo e um agente que faz escolhas. Ele insere comandos (prompts), ajusta parâmetros, interpreta os resultados e, crucialmente, decide como utilizar o output gerado pela máquina. O usuário não é um mero espectador, mas sim um ator central que aplica a tecnologia a contextos específicos, muitas vezes de maneiras não previstas pelo desenvolvedor original.
Ao ignorar essa agência, o PL 2.338/2023 deixa de atribuir qualquer dever ou responsabilidade ao usuário. Um regime de responsabilidade civil equilibrado deveria reconhecer a corresponsabilidade, contemplando a “culpa concorrente” ou mesmo a “culpa exclusiva do usuário” como excludentes ou atenuantes, especialmente em casos de mau uso deliberado, negligência grosseira ou não observância de advertências e instruções claras. Por exemplo, se um profissional utiliza uma IA para cálculos críticos e, ignorando seu dever de verificação, adota um resultado equivocado que causa um dano, seria justo imputar responsabilidade integral apenas ao fornecedor da IA? A lei deveria incentivar a literacia digital e o uso consciente da tecnologia, e a atribuição de responsabilidades é um dos mecanismos para isso. Reconhecer a responsabilidade do usuário é também reconhecer sua autonomia e capacidade de fazer escolhas informadas.
Equilíbrio para um Ecossistema de Inovação Sustentável
A combinação de uma responsabilidade objetiva estrita, sem excludentes específicas para o estado da arte tecnológico, e a ausência de um regime de corresponsabilidade para os usuários, cria um desequilíbrio notável na proposta de lei. O PL 2.338/2023, em sua redação atual, corre o risco de penalizar excessivamente o lado da oferta de tecnologia, desincentivando o desenvolvimento de IA no Brasil, ao mesmo tempo em que isenta completamente o lado da demanda (usuários) de seus deveres, criando um ambiente de risco moral que não favorece nem a inovação, nem o uso responsável da inteligência artificial.
Para que a legislação brasileira sobre IA seja verdadeiramente eficaz e promova um ecossistema de inovação responsável e sustentável, é imperativo que o debate sobre a responsabilidade civil seja aprofundado. É essencial ir além da simples remissão a diplomas legais existentes e construir um regime que contemple expressamente as excludentes de ilicitude, como o risco do desenvolvimento, e os atenuantes de responsabilidade para a adoção de boas práticas de governança. Além disso, é fundamental que o texto legal abandone a visão simplista do usuário como um “afetado” passivo e reconheça sua agência e corresponsabilidade no uso da tecnologia. Apenas com uma distribuição mais equilibrada de deveres e responsabilidades entre todos os atores da cadeia — desenvolvedores, fornecedores, operadores e usuários — será possível criar um marco regulatório que proteja os cidadãos, incentive a inovação e promova uma cultura de uso consciente e ético da inteligência artificial no Brasil.
Converse com seu contador ou consultor jurídico sobre como a evolução da legislação sobre IA pode impactar sua empresa e as oportunidades de inovação.
Referência Bibliográfica:
ROSAS, Eduarda Chacon. A necessidade de um regime específico de responsabilidade civil para a IA. JOTA Jornalismo, 4 dez. 2025. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/elas-no-jota/a-necessidade-de-um-regime-especifico-de-responsabilidade-civil-para-a-ia. Acesso em: 22/12/2025.