
Por Rodrigo Badaró* — O desenvolvimento acelerado das novas tecnologias é acompanhado, inevitavelmente, por uma reação emocional complexa e, por vezes, contraditória nas sociedades contemporâneas. Em meio às promessas de progresso, eficiência e bem-estar, subsiste um medo latente, quase imanente, relacionado à adoção dessas tecnologias.
O medo associado às novas tecnologias deriva essencialmente da percepção humana diante da imprevisibilidade e do risco potencial inerentes ao novo. As relações sociais e os papéis ocupacionais no contexto de incerteza e velocidade de informação estimulam sentimentos tais como insegurança e instabilidade. O fenômeno é caracterizado por Maria Elena Osiceanu como "tecnofobia", que pode ser definido como a ansiedade causada pelos efeitos colaterais das tecnologias avançadas, ainda mais uma tecnologia de o fácil e quase ir.
No direito, o medo frente às novas tecnologias impacta significativamente conceitos tradicionais relacionados ao devido processo, que se manifesta em episódios históricos nos quais o Poder Judiciário mostrou resistência inicial a inovações tecnológicas. Podemos citar exemplos recentes o episódio do advogado usando a IA em sua sustentação oral, e mesmo tendo avisado antes e sido autorizado, recebeu reprimenda dos julgadores ao final da aplicação da tecnologia no ato formal. Não muito diferente, nos Estados Unidos a questão se deu pelo uso de imagem, sem aviso ou autorização, igualmente na manifestação oral.
Com efeito, o principal balizador do estudo da inovadora inteligência artificial, por incrível que pareça e paradoxalmente, circunda o antigo estudo humano e a ética, que pode se desdobrar indiretamente no bom senso. O exercício da ética, na melhor concepção filosófica da palavra é a ponderação do bom e mau, e entre os conceitos morais da nossa sociedade, entender o que seria justo ou injusto, certo ou errado, estabelecendo alguns limites na ação, reação, e no caso em comento no seu uso.
Os agentes da Justiça precisam usar o bom senso antes de usar a máquina, refletindo sobre a ética. A IA quer lhe atender, fará o possível e o impossível para alcançar seu pedido, tal qual o "gênio da lâmpada", que se mal orientado pode trazer efeitos nefastos, tanto levando a erro o consulente, como produzindo material inexistente ou temerário, no intuito de entregar o que lhe foi solicitado. Destaca-se que a máquina não tem a baliza ética e moral de nós seres humanos, nem tampouco o bom senso, sendo incapaz de discernir, por exemplo, o que é conveniente ou não de se dizer ou fazer durante um enterro ou um velório.
As instituições brasileiras vêm buscando e evoluindo na regulação do tema, sempre colocando a ética como norteador, sendo que tive a honra de ajudar na construção, pela OAB Nacional, da elaboração da recomendação no uso de inteligência artificial, disponível no site da instituição, e de participar dos debates que resultaram na Resolução n° 615/2025 do CNJ, que trata do tema no âmbito do Poder Judiciário, bem como de discussões no âmbito do Senado Federal, visando à aprovação do Projeto de Lei n° 2.338.
A conhecida Lei de Amara, formulada pelo futurista e engenheiro norte-americano Roy Amara, afirma que os seres humanos tendem a superestimar os efeitos das novas tecnologias no curto prazo e, simultaneamente, subestimar seus impactos no longo prazo. Inicialmente, as expectativas podem ser exageradas e gerar desapontamento em quem espera da tecnologia a panaceia, mas posteriormente, os efeitos dessas tecnologias tornam-se muito mais significativos e profundos do que originalmente previsto, resultando em transformações substanciais na sociedade, não antevistas ou, pior, negligenciadas.
Nesse ponto, a metáfora da "criatura que domina o criador", mobilizada na síndrome de Frankenstein, uma vez que a tecnologia não é, por si, uma força autônoma e incontrolável. Ao contrário, é produto de decisões humanas, de escolhas políticas e de valores culturais. O verdadeiro risco, parece-nos, não está na existência da tecnologia em si, mas na ausência de parâmetros éticos e normativos que orientem sua concepção, desenvolvimento, implementação e uso responsável nos ambientes institucionais.
Tanto Chomsky quanto Streck destacam, ainda que sob perspectivas distintas, o perigo inerente à substituição do julgamento crítico humano pela automação probabilística dos algoritmos. Enquanto Chomsky enfatiza a perda da capacidade explicativa e ética dos sistemas generativos de IA, Streck alerta para consequências jurídicas concretas, como a criação artificial de jurisprudência e o enfraquecimento do rigor argumentativo exigido na esfera do direito.
O risco apontado é real, sendo que a 1ª Câmara Criminal do Tribunal de Justiça do Estado do Paraná, em 12 de abril de 2025, não conheceu de recurso em sentido estrito relatado pelo desembargador Gamaliel Seme Scaff, cujas razões recursais continham nada menos do que quarenta e três referências a julgados inexistentes.
Situações semelhantes não são exclusividade da advocacia. A Corregedoria-Geral da Justiça do Maranhão apura caso que envolveu o uso massivo de IA generativa por um magistrado cuja média mensal de sentenças subiu de 80 para 969, resultando em sentenças reformadas por ausência de fundamentação ou aplicação de precedentes inexistentes. O STJ em recente decisão, no RESP n° 2207929/MG, apontou uso de precedentes não existentes, e ainda no próprio STF, onde na Reclamação n° 78.890, o ministro Zanin destacou que as decisões citadas pelo reclamante não foram localizadas, determinando que fossem oficiados o Conselho Federal da OAB e a OAB da Bahia.
Dessa feita, denota-se que, além do bom senso, os advogados, promotores e julgadores devem revisar e conferir toda informação referenciada a partir do auxílio da IA. Destaco, por exemplo, a observação registrada em sentenças proferidas pelo juiz Flávio Augusto Martins Leite, do Tribunal de Justiça do DF, que anuncia: "Esta decisão foi produzida com auxilio de inteligência artificial. Toda a produção de IA foi conferida por ação humana, mas não é possível descartar totalmente a ocorrência de erros, considerando o estado inicial da tecnologia." O esforço pela transparência é válido, desde que não sirva para eximir os magistrados da responsabilidade por erros cometidos pela automação, o que é reprovável e inissível.
Voltando ao bom senso, o advogado deveria ter avaliado a pertinência de substituir a sustentação oral humana, com entonações diferentes, gestos físicos e inflexões na defesa de sua tese, por uma voz metálica e desagradável, sem pessoalidade ou ponderação, e pior, tendo, inclusive, errado o tempo de apresentação, algo que talvez seria a única vantagem do uso da tecnologia.
Por fim, a resposta normativa brasileira, construída a partir do diálogo institucional e da escuta pública qualificada, demonstra maturidade regulatória e atenção às particularidades do sistema de Justiça. A Resolução CNJ nº 615/2025 e a Recomendação nº 1/2024 da OAB são documentos estruturantes que, ao o em que estabelecem limites claros para o uso ético da IA, também criam trilhas seguras para sua adoção gradual e responsável, privilegiando a autorregulação supervisionada, o controle interinstitucional e a rastreabilidade das decisões, em consonância com as melhores práticas internacionais.
A manutenção da racionalidade humana como núcleo indelegável do julgamento jurídico não é apenas um imperativo ético, mas uma exigência constitucional que resguarda valores, como a imparcialidade, a ampla defesa e a motivação adequada das decisões judiciais. O uso de IA, por mais avançado que seja, não substitui a empatia e a responsabilidade próprias da jurisdição, exercida por pessoas detentoras de fração da soberania do Estado investidas na função de pôr conflitos de interesse a termo.
Conselheiro Nacional de Justiça e conselheiro Nacional de Proteção de Dados*
Saiba Mais