Transparência em IA

Última atualização em: 15/04/2026

Esta página descreve, de forma objetiva, como a JusDigital utiliza inteligência artificial na Plataforma Ju, incluindo modelos de terceiros (como a OpenAI) e modelos próprios.

1. Como usamos IA na plataforma

  • 1.1. A IA é usada para tarefas assistivas, como classificação de contexto, sumarização, qualificação e classificação de clientes, sugestão de respostas, automação de processos e geração de rascunhos de documentos.
  • 1.2. Em alguns fluxos, modelos próprios e de terceiros podem apoiar decisões estratégicas do escritório, sem substituir validação humana e responsabilidade profissional.
  • 1.3. A IA é utilizada exclusivamente para assistência no atendimento, triagem, agendamento de eventos, auxílio ao advogado e automações internas. A Plataforma não substitui a atividade privativa da advocacia e não presta consultoria jurídica ao público.

2. Uso de APIs de terceiros (OpenAI)

  • 2.1. Podemos usar a API da OpenAI em partes da Plataforma para processamento de linguagem natural e automações.
  • 2.2. De acordo com as políticas públicas da OpenAI para API, os dados enviados pela API não são utilizados, por padrão, para treinar modelos da OpenAI, salvo opt-in explícito de compartilhamento de dados.
  • 2.3. A JusDigital não habilita opt-in de compartilhamento para treinamento de modelos de terceiros com dados de produção de clientes, exceto se houver autorização expressa e específica do Contratante.

3. Uso de modelos próprios

  • 3.1. Também usamos modelos próprios em componentes de automação e inteligência aplicada ao contexto jurídico-operacional.
  • 3.2. Esses modelos não são treinados com dados de produção identificáveis de clientes.
  • 3.3. Quando necessário para melhoria contínua, utilizamos dados sintéticos, anonimizados ou conjuntos controlados para avaliação de qualidade e segurança.

4. Segurança e governança

  • 4.1. Aplicamos minimização de dados, limitação de finalidade e controle de acesso por privilégio mínimo.
  • 4.2. Mantemos segregação de ambientes e trilhas de auditoria para investigação de incidentes e conformidade.
  • 4.3. Adotamos criptografia em trânsito e, quando aplicável, em repouso, além de monitoramento contínuo de segurança.
  • 4.4. Saídas de IA com potencial impacto jurídico, financeiro ou reputacional devem passar por revisão humana antes de uso externo.

5. Proteções contra prompt injection e exfiltração

  • 5.1. Tratamos conteúdos recebidos de clientes finais e de integrações como instruções não confiáveis. Implementamos barreiras para reduzir o risco de prompt injection e tentativas de contornar regras.
  • 5.2. Aplicamos validações e filtros de entrada para reduzir instruções maliciosas, conteúdos inseguros e tentativas de obtenção indevida de informações.
  • 5.3. Limitamos contexto e dados compartilhados com modelos, priorizando minimização, segregação por escopo e acesso estritamente necessário.
  • 5.4. Saídas passam por regras de segurança e políticas internas para bloquear respostas fora do escopo (por exemplo, solicitação de dados sensíveis desnecessários ou instruções que violem regras do escritório).

6. Regras de conduta e limitações de atuação

  • 6.1. A IA não deve prometer resultados, garantias, êxito em demandas ou prazos, nem assumir compromissos em nome do escritório.
  • 6.2. A IA não fornece opinião jurídica profissional que substitua o advogado, nem realiza recomendações definitivas. O conteúdo é assistivo e deve ser sempre validado por profissionais habilitados.
  • 6.3. Quando necessário, a Plataforma direciona o atendimento para revisão e intervenção humana (por exemplo, casos complexos, sensíveis ou que exijam análise jurídica).

7. Retenção e controles

  • 7.1. A retenção técnica em provedores de IA pode ocorrer para segurança e prevenção de abuso, conforme política vigente de cada provedor e configuração contratada.
  • 7.2. Sempre que disponível e adequado ao caso de uso, avaliamos controles adicionais de retenção e monitoramento.

8. Fontes oficiais consultadas (OpenAI)