Autor
Joel Foster
Publicado
Jan 14, 2026
Categorias
Agreements
Tempo de leitura
4 min

A IA está remodelando a identidade digital e evidenciando fragilidades nos sinais tradicionais de confiança digital, criando novos riscos para organizações e os acordos dos quais dependem.
4 [{"lang":"en-nz","url":"/blog/why-ai-is-reshaping-digital-identity-and-trust/"},{"lang":"fr-fr","url":"/fr/blog/pourquoi-lia-remodele-lidentite-numerique-et-la-confiance/"},{"lang":"es-es","url":"/es/blog/por-que-la-ia-esta-transformando-la-identidad-digital-y-la-confianza/"},{"lang":"vi","url":"/vi/blog/tai-sao-ai-dang-dinh-hinh-lai-dinh-danh-so-va-su-tin-cay/"}]Você também pode ler este artigo em English, Français, Español e Tiếng Việt.
Índice
Compartilhar esta publicação
A IA está mudando a forma como o trabalho é realizado — de modo rápido, profundo e permanente. Processos que antes levavam semanas de esforço manual agora duram horas, graças à automação impulsionada por IA.
Na Lumin, abraçamos essa transformação. Desde simplificar a geração de acordos até otimizar a criação, edição e assinatura de documentos, estamos aplicando IA em todo o fluxo de trabalho documental para ajudar organizações a trabalharem com mais inteligência e rapidez. Mas a IA também traz sua própria gama de desafios.
A IA tornou a fraude em larga escala viável. Deepfakes de vídeo e áudio estão se proliferando, e fraudes em documentos e assinaturas nunca foram tão fáceis de executar. Como resultado, a confiança nos sistemas digitais está se corroendo praticamente em todos os setores, e reconstruí-la exige ir além de suposições sobre identidade e buscar provas verificáveis de com quem realmente estamos interagindo.
As ameaças enfrentadas pelas organizações hoje são muito diferentes das de alguns anos atrás. Antes, fraudadores precisavam de operações complexas para falsificar documentos ou se passar por executivos, mas a IA tornou o engano barato, acessível e muito mais sofisticado.
Em 2024, os consumidores perderam US$27,2 bilhões por fraudes de identidade. As empresas foram igualmente prejudicadas, registrando uma média de US$7 milhões anuais em perdas por fraude de identidade. E o problema está crescendo rapidamente: instituições financeiras relatam um aumento impressionante de 2137% nas tentativas de fraudes com deepfakes nos últimos três anos.
Casos recentes ajudam a entender como esse tipo de fraude pode ocorrer e o impacto gerado. Na Itália, no início deste ano, líderes empresariais foram alvo de chamadas usando uma voz clonada por IA do Ministro da Defesa do país. Os golpistas alegavam que jornalistas italianos haviam sido sequestrados e solicitavam assistência financeira urgente, levando um empresário de destaque a transferir quase €1 milhão.
Em 2024, em Hong Kong, um funcionário de finanças participou de uma videoconferência aparentemente rotineira com o CFO e altos executivos da empresa — todos os outros participantes eram deepfakes gerados por IA. A reunião realista convenceu o funcionário a autorizar 15 transações, totalizando HK$200 milhões para contas fraudulentas.
O impacto da fraude de identidade potencializada por IA vai além das perdas financeiras, comprometendo a confiança nos acordos dos quais as organizações dependem. Quando já não é possível confiar no ponto crítico do acordo — a assinatura de cada parte envolvida — os efeitos repercutem por todo o negócio.
Em transações de alto valor, a ausência (ou insuficiência) de verificação de identidade na assinatura gera grande exposição jurídica:
A ausência de garantia de identidade leva diretamente a mais atrito operacional:
Esse padrão de vulnerabilidade se repete em vários setores:
A IA facilita a criação da fraude de identidade e dificulta sua detecção, fazendo com que a confiança não possa mais depender apenas de sinais superficiais de identidade. A solução não é recuar nos processos digitais, mas reforçá-los com mais segurança.
Esse é um desafio crítico para acordos, onde sequer uma identidade errada pode comprometer compliance, segurança ou resultados financeiros. Em vez de confiar no acesso ao e-mail ou posse de dispositivo como prova, organizações podem adotar métodos criptográficos que conectam uma credencial biométrica verificada diretamente do dispositivo do signatário ao documento sendo aprovado.
Essa abordagem, exemplificada pelo Verified Digital Signing, restaura a confiança em acordos digitais sem adicionar atritos desnecessários. Ela vincula cada aprovação a uma pessoa verificada e conecta de modo criptográfico o signatário, o documento e o momento da assinatura, permitindo que confiança, compliance e eficiência avancem juntos.
Para entender como organizações estão superando a lacuna de segurança de identidade e reconstruindo a confiança em seus fluxos digitais, baixe nosso white paper Garantindo acordos digitais na era da decepção por IA.
Desenvolvido em parceria com a MATTR, referência em TrustTech, o white paper traz exemplos reais, insights do setor e um modelo prático para fortalecer a confiança digital neste cenário de ameaças impulsionadas por IA.

Compartilhar esta publicação