Algoritmos sob Lupa: Responsabilidade das Big Techs é Tema Central em Nova Proposta Legislativa
Em meio à crescente influência das plataformas digitais sobre o comportamento coletivo, o poder legislativo brasileiro tem voltado sua atenção à regulação do uso de algoritmos e à responsabilização jurídico-econômica das empresas de tecnologia. A discussão recente evidencia o papel determinante dessas ferramentas automatizadas na disseminação de conteúdo, na formação de opinião e, principalmente, nos atos potencialmente lesivos à esfera pública e à ordem democrática.
Big Techs no centro do debate jurídico-regulatório
O Congresso Nacional avança no debate legislativo sobre a imposição de obrigações concretas às plataformas digitais, especialmente no que diz respeito à transparência algorítmica e à mitigação de riscos associados à manipulação informacional. A proposta em questão propõe não somente a responsabilização por danos causados por conteúdos veiculados, mas também uma verdadeira accountability dos parâmetros computacionais que operam tais sistemas.
De acordo com juristas especializados em Direito Digital, a arquitetura algorítmica tem potencial lesivo equiparável a conteúdos manifestamente ilícitos, o que exige um novo olhar da dogmática jurídica sobre culpa e nexo causal, nos moldes do artigo 927 do Código Civil brasileiro, sobretudo na acepção da responsabilidade objetiva por atividade de risco.
Transparência e Dever de Informação
Um dos dispositivos propõe o dever expresso de transparência das plataformas em relação à lógica de funcionamento dos algoritmos. Nos termos do artigo 6º, inciso III do Código de Defesa do Consumidor, tal dever se adequa ao princípio da informação clara, objetiva e adequada ao consumidor/usuário.
O Projeto de Lei também exige:
- Clareza na exibição das regras de recomendação de conteúdo.
- Auditoria pública e periódica dos algoritmos utilizados.
- Previsão de responsabilização solidária nos casos de falha ou omissão de monitoramento automatizado, especialmente em contextos de desinformação ou radicalização de extremismos.
Avaliação crítica do Judiciário e do Ministério Público
O Poder Judiciário tem sido provocado nos últimos anos a decidir de forma mais ativa frente às externalidades negativas da inteligência algorítmica. Decisões recentes apontam para a adoção de medidas liminares visando à suspensão de contas e à desindexação de conteúdo falso, apoiadas no Marco Civil da Internet (Lei 12.965/2014), em especial artigos 18 a 21, ressaltando a necessidade de equilíbrio entre liberdade de expressão e responsabilização civil das provedoras.
Precedentes relevantes
Em acordão do STJ (REsp 1.660.168/SP), foi reconhecida a obrigação de moderação ativa de conteúdo, principalmente quando ferramentas de automação são utilizadas para amplificar desinformações. Tal precedente aponta para uma potencial responsabilização por omissão, caso comprovada a negligência na operação e supervisão de algoritmos.
Direito comparado e tendências internacionais
Experiências como o Digital Services Act, na União Europeia, servem de inspiração para o arcabouço nacional. A legislação europeia impõe obrigações de transparência de forma rigorosa, prevendo inclusive sanções administrativas severas, cujo valor pode ultrapassar 6% do faturamento global anual da empresa infratora.
Essas normas convergem para a ideia de que o poder das plataformas não pode se desvincular de contrapartidas institucionais no Estado Democrático de Direito. Assim, a regulação algorítmica se converte em um imperativo da contemporaneidade jurídica.
Conclusão: O papel dos operadores do Direito
Advogados, magistrados, membros do Ministério Público e defensores públicos devem se atualizar permanentemente quanto à interface entre Direito e Tecnologia. O debate sobre algoritmos e responsabilidade das plataformas é multifacetado e exige domínio técnico, sensibilidade institucional e capacidade de leitura sistêmica da sociedade digital.
Se você ficou interessado na responsabilidade de plataformas digitais e deseja aprofundar seu conhecimento no assunto, então veja aqui o que temos para ocê!
Por Memória Forense




