O avanço das tecnologias de inteligência artificial (IA) tem provocado mudanças significativas na forma em que os advogados desempenham suas atividades. Ferramentas como sistemas de IA generativa, capazes de redigir textos, revisar contratos e analisar jurisprudência, já fazem parte da rotina de muitos escritórios. Entretanto, essa inovação não vem sem riscos. A inserção de dados sensíveis em sistemas automatizados, a opacidade de alguns modelos e o potencial de erros ou vieses são desafios que exigem atenção redobrada.
Nesse contexto, a Recomendação 001/2024 do Conselho Federal da Ordem dos Advogados do Brasil (OAB) e o Projeto de Lei 2.338/2023, que institui o Marco Legal da Inteligência Artificial no Brasil, oferecem diretrizes valiosas para orientar o uso ético, seguro e responsável da IA generativa na prática jurídica. A análise conjunta desses documentos permite identificar pontos de convergência essenciais para a advocacia, principalmente no que tange à proteção de dados, à supervisão humana e à responsabilidade profissional.
Confidencialidade e proteção de dados: o compromisso inalienável da advocacia
A recomendação da OAB é categórica: o sigilo profissional não pode ser comprometido pelo uso de IA. Advogados devem evitar inserir dados sensíveis de clientes em sistemas de IA sem garantias explícitas de confidencialidade e segurança. O documento alerta para o risco de que informações processadas por modelos de linguagem sejam armazenadas e, eventualmente, reutilizadas para fins de treinamento, muitas vezes sem o conhecimento ou consentimento do usuário.
Essa preocupação dialoga com os princípios do PL 2.338/2023, que consagra a proteção de dados pessoais, a centralidade da pessoa humana e a autodeterminação informativa como fundamentos para o uso de IA no Brasil.
A distinção entre ferramentas de código aberto e código fechado é um aspecto central dessa discussão. Sistemas de IA generativa de código aberto, por sua natureza, permitem maior transparência no código-fonte, mas podem expor os dados processados a reuso em novos treinamentos, caso não sejam configurados adequadamente. Já sistemas de código fechado, operados por grandes empresas de tecnologia, muitas vezes funcionam como caixas-pretas, dificultando a auditoria e o controle sobre o destino das informações inseridas.
Um advogado que utiliza IA para revisar contratos de fusão e aquisição, por exemplo, precisa avaliar com rigor onde e como as informações estratégicas de seus clientes estão sendo processadas. A ausência de garantias contratuais claras pode gerar riscos significativos de exposição de dados confidenciais, além de possíveis violações à Lei Geral de Proteção de Dados (LGPD).
A adoção responsável de IA em escritórios de advocacia exige mais do que boas intenções: demanda a implementação de políticas internas robustas de governança, com diretrizes claras sobre o uso de IA, restrições de processamento de dados confidenciais, revisão obrigatória das saídas geradas por IA e a definição de procedimentos para avaliar a confiabilidade e a segurança das ferramentas utilizadas.
Supervisão humana: a defesa intransferível do julgamento jurídico
Tanto a Recomendação da OAB quanto o PL 2.338/2023 reforçam que a decisão final sobre questões jurídicas deve ser humana. A IA pode sugerir soluções, mas o juízo crítico, a ponderação dos fatos e a estratégia processual são responsabilidades exclusivas do advogado.
Considere o caso de um advogado trabalhista que utiliza IA para identificar padrões de fraude em ações coletivas. Embora o sistema possa indicar indícios relevantes, cabe ao advogado validar as informações, verificar sua precisão e analisar o contexto. Uma decisão tomada exclusivamente com base em saídas de IA, sem revisão humana, pode resultar em alegações infundadas e expor o profissional a sanções éticas e jurídicas.
No âmbito da prática jurídica, o dever de diligência exige que o advogado compreenda as ferramentas de IA utilizadas, conheça seus riscos e limites e, sobretudo, assegure que as decisões e estratégias sejam fundamentadas em análise humana criteriosa. O uso responsável de IA não exime o profissional de sua obrigação de atuar com zelo, prudência e respeito às normas éticas e legais.
Transparência e consentimento: um pacto ético com o cliente
A transparência no uso de IA não é opcional: é um dever ético e jurídico. A recomendação da OAB orienta que advogados informem seus clientes sobre a utilização de ferramentas de IA, explicando os benefícios, as limitações e os riscos — incluindo a natureza da tecnologia (código aberto ou fechado), o tratamento de dados pessoais e as garantias de segurança aplicáveis.
O consentimento informado, formalizado por escrito, é indispensável para assegurar a conformidade ética e legal do trabalho. Além de informar seus clientes sobre o uso de IA, o escritório deve adotar práticas de comunicação proativa, oferecendo explicações claras e acessíveis sobre os benefícios, limitações e medidas de segurança adotadas para proteger as informações sensíveis. Essa transparência fortalece a confiança e demonstra o compromisso do advogado com a ética profissional e o respeito aos direitos do cliente.
Essa transparência também está prevista no PL 2.338/2023, que assegura o direito à informação prévia, à explicação sobre decisões automatizadas e à contestação dos resultados gerados por sistemas de IA.
Responsabilidade e riscos: a nova fronteira da advocacia
O PL 2.338/2023 introduz um ponto crucial ao estabelecer a responsabilidade objetiva para agentes que operam sistemas de IA de alto risco. Isso significa que o advogado ou o escritório que utiliza ferramentas de IA sem avaliar adequadamente seus riscos pode ser responsabilizado por eventuais danos causados, independentemente de culpa.
Essa nova fronteira impõe a necessidade de implementação de programas de governança de IA nos escritórios, com políticas internas claras, treinamentos periódicos e avaliações de impacto. Além disso, é fundamental negociar contratos robustos com fornecedores de tecnologia, prevendo cláusulas específicas sobre confidencialidade, restrição de uso dos dados para treinamento, garantias de segurança e auditoria periódica das soluções contratadas.
Revisar manualmente todas as saídas geradas por IA antes de apresentá-las em juízo ou de compartilhá-las com clientes não é mera formalidade: trata-se de uma obrigação ética e de um escudo contra riscos jurídicos e reputacionais.
Advocacia e inteligência artificial: liderança com ética, técnica e responsabilidade
A Recomendação 001/2024 da OAB e o PL 2.338/2023 oferecem um caminho para que a advocacia brasileira adote a IA generativa de forma ética, segura e responsável. Contudo, é importante reconhecer que o uso da IA é cada vez mais abrangente e irreversível, enquanto as bases jurídicas que regulam essa tecnologia ainda estão em construção. Esse cenário demanda uma reflexão sistêmica sobre todo o ordenamento jurídico, considerando os direitos fundamentais, a ética profissional, a proteção de dados, a responsabilidade civil, a governança e a segurança da informação.
É fundamental esclarecer que, no contexto da advocacia, a IA é uma ferramenta de apoio à atividade intelectual, e não um substituto para o raciocínio jurídico, a análise estratégica ou a tomada de decisões. A supervisão humana é inegociável, e o advogado permanece como o responsável final pela qualidade, pela ética e pela segurança dos serviços prestados.
Ao adotar práticas sólidas de governança, investir em capacitação contínua e comunicar-se de forma clara e transparente com seus clientes, o escritório de advocacia demonstra sua maturidade digital e sua capacidade de liderar a transformação tecnológica com responsabilidade. A inovação, quando guiada por princípios éticos, fortalece a confiança do cliente e posiciona o advogado como protagonista na defesa dos direitos fundamentais em um mundo cada vez mais digitalizado.
O futuro da advocacia está sendo construído agora. Cabe a cada profissional decidir se será protagonista dessa transformação ou mero espectador de suas consequências.