Transparência em IA
Última atualização em: 15/04/2026Esta página descreve, de forma objetiva, como a JusDigital utiliza inteligência artificial na Plataforma Ju, incluindo modelos de terceiros (como a OpenAI) e modelos próprios.
1. Como usamos IA na plataforma
- 1.1. A IA é usada para tarefas assistivas, como classificação de contexto, sumarização, qualificação e classificação de clientes, sugestão de respostas, automação de processos e geração de rascunhos de documentos.
- 1.2. Em alguns fluxos, modelos próprios e de terceiros podem apoiar decisões estratégicas do escritório, sem substituir validação humana e responsabilidade profissional.
- 1.3. A IA é utilizada exclusivamente para assistência no atendimento, triagem, agendamento de eventos, auxílio ao advogado e automações internas. A Plataforma não substitui a atividade privativa da advocacia e não presta consultoria jurídica ao público.
2. Uso de APIs de terceiros (OpenAI)
- 2.1. Podemos usar a API da OpenAI em partes da Plataforma para processamento de linguagem natural e automações.
- 2.2. De acordo com as políticas públicas da OpenAI para API, os dados enviados pela API não são utilizados, por padrão, para treinar modelos da OpenAI, salvo opt-in explícito de compartilhamento de dados.
- 2.3. A JusDigital não habilita opt-in de compartilhamento para treinamento de modelos de terceiros com dados de produção de clientes, exceto se houver autorização expressa e específica do Contratante.
3. Uso de modelos próprios
- 3.1. Também usamos modelos próprios em componentes de automação e inteligência aplicada ao contexto jurídico-operacional.
- 3.2. Esses modelos não são treinados com dados de produção identificáveis de clientes.
- 3.3. Quando necessário para melhoria contínua, utilizamos dados sintéticos, anonimizados ou conjuntos controlados para avaliação de qualidade e segurança.
4. Segurança e governança
- 4.1. Aplicamos minimização de dados, limitação de finalidade e controle de acesso por privilégio mínimo.
- 4.2. Mantemos segregação de ambientes e trilhas de auditoria para investigação de incidentes e conformidade.
- 4.3. Adotamos criptografia em trânsito e, quando aplicável, em repouso, além de monitoramento contínuo de segurança.
- 4.4. Saídas de IA com potencial impacto jurídico, financeiro ou reputacional devem passar por revisão humana antes de uso externo.
5. Proteções contra prompt injection e exfiltração
- 5.1. Tratamos conteúdos recebidos de clientes finais e de integrações como instruções não confiáveis. Implementamos barreiras para reduzir o risco de prompt injection e tentativas de contornar regras.
- 5.2. Aplicamos validações e filtros de entrada para reduzir instruções maliciosas, conteúdos inseguros e tentativas de obtenção indevida de informações.
- 5.3. Limitamos contexto e dados compartilhados com modelos, priorizando minimização, segregação por escopo e acesso estritamente necessário.
- 5.4. Saídas passam por regras de segurança e políticas internas para bloquear respostas fora do escopo (por exemplo, solicitação de dados sensíveis desnecessários ou instruções que violem regras do escritório).
6. Regras de conduta e limitações de atuação
- 6.1. A IA não deve prometer resultados, garantias, êxito em demandas ou prazos, nem assumir compromissos em nome do escritório.
- 6.2. A IA não fornece opinião jurídica profissional que substitua o advogado, nem realiza recomendações definitivas. O conteúdo é assistivo e deve ser sempre validado por profissionais habilitados.
- 6.3. Quando necessário, a Plataforma direciona o atendimento para revisão e intervenção humana (por exemplo, casos complexos, sensíveis ou que exijam análise jurídica).
7. Retenção e controles
- 7.1. A retenção técnica em provedores de IA pode ocorrer para segurança e prevenção de abuso, conforme política vigente de cada provedor e configuração contratada.
- 7.2. Sempre que disponível e adequado ao caso de uso, avaliamos controles adicionais de retenção e monitoramento.