Por Admin em Tecnologia - 09/07/2025
A crescente adoção de ferramentas de Inteligência Artificial (IA) no campo jurídico tem revolucionado a prática do Direito, oferecendo oportunidades sem precedentes para pesquisa jurisprudencial, elaboração de peças processuais e análise de contratos. Contudo, essa revolução tecnológica traz consigo um fenômeno preocupante: as alucinações de IA, situações em que sistemas de inteligência artificial geram informações factualmente incorretas, criam citações de jurisprudência inexistentes ou apresentam interpretações jurídicas sem fundamento legal.
No contexto jurídico, onde a precisão, a veracidade e a fundamentação são pilares fundamentais da atuação profissional, as alucinações de IA representam não apenas um risco técnico, mas um verdadeiro desafio deontológico. A confiança depositada nos sistemas automatizados pode levar a consequências graves, incluindo responsabilização disciplinar, danos processuais e violação dos deveres éticos da advocacia.
As alucinações de IA configuram-se como falhas nos modelos de linguagem que resultam na geração de conteúdo aparentemente coerente, mas factualmente incorreto. No âmbito jurídico, essas manifestações podem incluir:
A doutrina jurídica brasileira ainda está desenvolvendo marcos teóricos específicos para a utilização de IA na advocacia. Contudo, os princípios deontológicos tradicionais permanecem aplicáveis. O Código de Ética e Disciplina da OAB, em seu artigo 14, estabelece que o advogado deve "atuar com desembaraço e independência, sendo-lhe assegurada imunidade profissional", o que pressupõe domínio técnico e responsabilidade pelas informações apresentadas.
"O advogado tem o dever de veracidade para com o cliente e para com o Poder Judiciário, não podendo, sob pena de responsabilização disciplinar, apresentar informações que sabe serem falsas ou que não verificou adequadamente." (Artigo 31 do Código de Ética e Disciplina da OAB)
Embora ainda não existam precedentes específicos sobre alucinações de IA, casos internacionais, como o episódio do advogado Steven Schwartz nos Estados Unidos (2023), que apresentou decisões fictícias geradas por IA ao tribunal, demonstram a gravidade das consequências quando profissionais do Direito não verificam adequadamente o conteúdo gerado por sistemas automatizados.
A Lei Geral de Proteção de Dados (LGPD) e o projeto de Marco Legal da Inteligência Artificial em tramitação no Congresso Nacional estabelecem princípios relevantes para a utilização responsável de IA, incluindo transparência, não discriminação e responsabilização. No contexto jurídico, esses princípios ganham especial relevância quando consideramos que decisões baseadas em informações incorretas podem violar direitos fundamentais.
A utilização acrítica de IA no exercício da advocacia pode configurar violação de diversos deveres éticos:
As alucinações de IA podem gerar consequências processuais graves, incluindo:
O uso de IA no Direito levanta questões fundamentais sobre a natureza do conhecimento jurídico e a autoridade das fontes. A capacidade dos sistemas de IA de produzir textos convincentes, mas factualmente incorretos, desafia a tradicional hierarquia das fontes do Direito e exige uma reavaliação dos métodos de pesquisa jurídica.
Recomenda-se a adoção de um protocolo rigoroso de verificação para todo conteúdo gerado por IA:
Para mitigar riscos, advogados devem utilizar preferencialmente:
Escritórios de advocacia e departamentos jurídicos devem implementar:
Do ponto de vista técnico, sugere-se:
As alucinações de IA representam um desafio contemporâneo significativo para a prática jurídica, exigindo dos profissionais do Direito uma abordagem equilibrada entre a inovação tecnológica e a manutenção dos padrões éticos e técnicos da profissão. A adoção de ferramentas de inteligência artificial não pode comprometer os deveres fundamentais de diligência, veracidade e competência técnica que caracterizam o exercício da advocacia.
A solução não reside na rejeição da tecnologia, mas na educação jurídica continuada, no desenvolvimento de protocolos rigorosos de verificação e na criação de uma cultura institucional de responsabilidade tecnológica. É imperativo que os profissionais do Direito compreendam que a IA deve ser utilizada como ferramenta de apoio, jamais substituindo o juízo crítico e a responsabilidade profissional que são inerentes à advocacia.
O futuro da advocacia será, inevitavelmente, permeado pela tecnologia. Contudo, esse futuro só será ético e eficaz se construído sobre bases sólidas de conhecimento, verificação e responsabilidade. A prevenção de alucinações de IA no contexto jurídico é, portanto, não apenas uma questão técnica, mas um imperativo deontológico para a preservação da confiança pública na justiça e na advocacia brasileira.
← Voltar