Prompt injection: como é feito 'código secreto' usado por advogadas para tentar sabotar processo
Analises e comentarios sao informativos. Nao sao recomendacao de compra, venda ou investimento. Busque profissional certificado para decisoes financeiras.
mercado">leitura-do-789f8f/" title="Gerdau em sobrecompra e Suzano em sobrevenda: veja leitura do mercado">Veja o que foi divulgado recentemente. Juiz multa advogadas em R$ 84 mil por 'código secreto' para enganar IA e sabotar processo O caso das duas advogadas multadas no Pará após tentaram enganar a inteligência artificial de um tribunal envolveu o uso de um "código secreto" para mudar as instruções do sistema.
Alem disso, A prática é chamada de "prompt injection" (injeção de comando, em tradução livre) e tem o objetivo de manipular as respostas de assistentes de IA. As advogadas Alcina Medeiros e Luanna Alves inseriram em uma petição um comando para a IA do Tribunal Regional do Trabalho da 8ª Região (TRT-8) analisar um documento de forma superficial. O caso foi descoberto pelo juiz do trabalho Luis Carlos de Araujo Santos Júnior, de Parauapebas (PA).
Ele multou as advogadas em R$ 84,2 mil e classificou a situação como um "ato contra a dignidade da Justiça". Galileu, assistente de inteligência artificial usado pela Justiça do Trabalho Reprodução A injeção de comandos é uma técnica maliciosa em que textos enganosos são usados para manipular as respostas de assistentes de IA. O objetivo é forçar esses sistemas a realizarem ações indevidas ou deixar de fazer verificações de segurança, por exemplo. No caso das advogadas, o plano era adulterar a inteligência artificial Galileu, usada pelo tribunal, e fazer a ferramenta apresentar análises rasas, que não ajudassem a fornecer bons argumentos contra o documento. Siga acompanhando o blog pra mais atualizacoes.
Conteudo agregado de fonte publica com reescrita editorial. Direitos autorais da materia original pertencem ao site de origem.



