
A inteligência artificial, quando mal utilizada, tem servido como instrumento de apoio para a prática de crimes que já existiam, mas que agora ganham nova dimensão. O estelionato (BRASIL, 1940), previsto no art. 171 do Código Penal, aparece como a infração mais recorrente, uma vez que a vítima é induzida a erro para entregar dinheiro ou informações. A falsidade ideológica (BRASIL, 1940), tipificada no art. 299, ocorre quando declarações falsas são inseridas em documentos para alterar a verdade sobre fatos juridicamente relevantes. Também se destaca a invasão de dispositivo informático (BRASIL, 2012), definida no art. 154-A do Código Penal, em que criminosos acessam sistemas digitais sem autorização. Soma-se a isso a violação de dados pessoais sensíveis, regulada pela Lei Geral de Proteção de Dados (BRASIL, 2018), que protege informações como voz, imagem e biometria.
1. Casos Práticos
1.1 Fraudes contra médicos no Rio Grande do Sul
Um caso emblemático envolveu médicos do Rio Grande do Sul. Criminosos recrutaram pessoas semelhantes fisicamente às vítimas e, com inteligência artificial, alteraram suas feições para enganar sistemas de biometria facial. Assim, abriram contas bancárias e movimentaram valores milionários. A conduta configurou estelionato, falsidade ideológica e invasão de dispositivo informático, demonstrando como a tecnologia potencializa fraudes de difícil detecção (CNN BRASIL, 2025; G1, 2025).
1.2 Golpes via WhatsApp
Outro golpe frequente ocorre no WhatsApp. Mensagens falsas e áudios clonados de familiares são elaborados com auxílio da inteligência artificial, transmitindo credibilidade e urgência. Induzida ao erro, a vítima realiza transferências acreditando estar ajudando alguém próximo. A fraude configura estelionato e, em certas situações, aquilo que interpreto como “falsidade ideológica digital” — uma aplicação do art. 299 do Código Penal ao contexto virtual, em que declarações falsas sustentam o ardil (VEJA, 2024).
1.3 Golpes em trabalhadores em busca de emprego
As fraudes também atingem trabalhadores em busca de emprego. Utilizando inteligência artificial, criminosos criam páginas e documentos digitais em que simulam processos seletivos, exigindo envio de dados pessoais ou pagamentos por taxas fictícias. Trata-se de estelionato, associado à violação da Lei Geral de Proteção de Dados, que veda o tratamento indevido de informações pessoais e sensíveis (DIÁRIO DO COMÉRCIO, 2025).
1.4 Uso de deepfakes e clonagem de voz
O uso de deepfakes e clonagem de voz representa outra modalidade grave. Por meio de vídeos e áudios falsificados, criminosos simulam pedidos de socorro ou criam situações de chantagem. Nessas hipóteses, podem estar configurados o estelionato, a extorsão e a violação dos direitos da personalidade, em especial a imagem e a voz, garantidos pelo art. 5º, X, da Constituição Federal. O combate a essa prática exige perícia especializada para comprovar a adulteração e sua autoria (G1, 2024; MPMS, 2025).
Conclusão e Medidas Preventivas
O cenário demonstra que a inteligência artificial, embora represente um avanço tecnológico relevante, também amplia as possibilidades de fraudes digitais.
A prevenção, portanto, é essencial. Confirmar pedidos de dinheiro por outro canal, desconfiar de ofertas vantajosas, evitar fornecer dados a desconhecidos e utilizar autenticação em duas etapas são medidas simples e eficazes contra esse tipo de crime.
Assim, informação, cautela e atuação firme das autoridades continuam sendo os melhores instrumentos de defesa contra a criminalidade digital impulsionada pela inteligência artificial.
Referências
BRASIL. Decreto-Lei nº 2.848, de 7 de dezembro de 1940. Código Penal. Disponível em: https://www.planalto.gov.br/ccivil_03/decreto-lei/del2848.htm. Acesso em: 15 set. 2025.
BRASIL. Lei nº 12.737, de 30 de novembro de 2012. Dispõe sobre a tipificação criminal de delitos informáticos (Lei Carolina Dieckmann). Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12737.htm. Acesso em: 15 set. 2025.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 15 set. 2025.
CNN BRASIL. Quadrilha que dava golpe em médicos usava IA para burlar biometria facial. 12 ago. 2025. Disponível em: https://www.cnnbrasil.com.br/nacional/sul/rs/quadrilha-que-dava-golpe-em-medicos-usava-ia-para-burlar-biometria-facial/. Acesso em: 15 set. 2025.
G1. Grupo usava IA para produzir rostos falsos de médicos do RS. 12 ago. 2025. Disponível em: https://g1.globo.com/rs/rio-grande-do-sul/noticia/2025/08/12/grupo-suspeito-de-usar-ia-para-produzir-rostos-falsos-de-medicos-do-rs-e-alvo-de-operacao-em-sp-pa-e-es-tres-sao-presos.ghtml. Acesso em: 15 set. 2025.
VEJA. O golpe de WhatsApp que ficou ainda mais convincente com ajuda da IA. 2024. Disponível em: https://veja.abril.com.br/coluna/planeta-ia/o-golpe-de-whatsapp-que-ficou-ainda-mais-convincente-com-ajuda-da-ia/. Acesso em: 15 set. 2025.
DIÁRIO DO COMÉRCIO. Novo golpe digital usa IA para enganar trabalhadores no Brasil. 2025. Disponível em: https://diariodocomercio.com.br/mix/novo-golpe-digital-usa-ia-para-enganar-trabalhadores-no-brasil/. Acesso em: 15 set. 2025.
G1. Eram meu rosto e minha voz, mas era golpe: como criminosos clonam pessoas com inteligência artificial. 28 fev. 2024. Disponível em: https://g1.globo.com/tecnologia/noticia/2024/02/28/eram-meu-rosto-e-minha-voz-mas-era-golpe-como-criminosos-clonam-pessoas-com-inteligencia-artificial.ghtml. Acesso em: 15 set. 2025.
MINISTÉRIO PÚBLICO DO ESTADO DE MATO GROSSO DO SUL (MPMS). Golpes com vídeos gerados por inteligência artificial se multiplicam e ameaçam a segurança digital dos cidadãos. jul. 2025. Disponível em: https://www.mpms.mp.br/noticias/2025/07/golpes-com-videos-gerados-por-inteligencia-artificial-se-multiplicam-e-ameacam-a-seguranca-digital-dos-cidadaos. Acesso em: 15 set. 2025.
