“É daqui a pouco que tudo acaba. Eu te amo, desculpa eu não ser a filha perfeita, mas eu tentei..tô com medo, mas acho qué tchau pra sempre” (Despedida de Julia Rebeca, 17 anos, antes de cometer suicídio pós divulgação de foto íntima)
Introdução
A Lei 15.123/2025 trouxe uma alteração pontual, porém significativa relacionada ao uso da inteligência artificial contra mulheres: aumento de metade da pena para o crime de violência psicológica, conforme a novel redação do parágrafo único do art. 147-B do Código Penal: “A pena é aumentada de metade se o crime é cometido mediante uso de inteligência artificial ou de qualquer outro recurso tecnológico que altere imagem ou som da vítima”.
Não é de hoje que o legislador demonstra preocupação com a prática de condutas criminosas no mundo digital. Apenas nos últimos anos, inúmeras condutas praticadas comumente no ambiente virtual passaram a ser tuteladas pelo Direito Penal: a) invasão de dispositivo informático (art. 154-A do Código Penal, introduzido em nosso ordenamento jurídico pela apelidada “Lei Carolina Dieckmann” no ano de 2021); b) registro não autorizado de cena de nudez ou de intimidade sexual (art. 216-B do Código Penal) introduzido no corpo do codex pela Lei 13.772/2018, c) divulgação de cena de estupro ou de estupro de vulnerável, de sexo ou pornografia, crime popularmente conhecido exposição de imagem íntima não consentida (art. 218-C do CP) também incluído em nosso ordenamento jurídico pela Lei 13.772/2018; d) intimidação sistemática virtual (cyberbullying), incluído no Código Penal Brasileiro pela Lei 14.811/2024 etc. Todavia, esta é a primeira criminalização especificamente relacionada à inteligência artificial.
A atenção do parlamento brasileiro aos comportamentos praticados na rede mundial de computadores ou mediante o uso de dispositivos informáticos encontra consonância na realidade da população brasileira. Dados do IBGE apontam que 94% das pessoas têm acesso à internet, sendo 98,8% pelo celular. Adolescentes e jovens, pessoas em formação, estão expostos a esse mundo dominado por perigos: 84,9% dos das crianças de 10 a 13 anos têm acesso à internet e 96% dos jovens de 20 a 24 anos[1]. Dados da Safernet demonstram que o idioma português é o segundo em números de denúncias por violências e discriminação contra mulheres, totalizando 20.3% dos casos.
O ambiente digital que conectou o mundo em tempos de pandemia, é o mesmo que – infelizmente – tem colocado em risco centenas de milhares de mulheres e meninas e se tornado um campo fértil para a consumação de atos caracterizadores da chamada ciberviolência de gênero (violência de gênero no mundo virtual).
A internet permite a criação de perfis falsos em redes sociais, dificultando a imediata atuação de autoridades ao mesmo tempo em que tem um potencial gigantesco de dano: em poucos segundos, uma imagem, um vídeo, uma informação cai no domínio público e se torna praticamente perpétua perseguindo a vítima onde quer que se encontre. Nesta perspectiva, a inteligência artificial pode ser usada para criar imagens, notícias, perfis que se assemelham em muito às imagens reais (deep fakes), rapidamente propagadas por meio de postagens, mensagens ou compartilhamentos em grupos de WhatsApp ou Telegram. Tem crescido o uso da inteligência artificial para a prática de crimes, como mensagens de phishing (e-mails com golpes) mais sofisticadas, falsificação de identidade e fraudes com deepfakes, disseminação de fakenews e a manipulação de fotos legítimas em conteúdos pornográficos falsos, para fins de extorsão ou de ofensa à integridade psicológica[2].O controle dos referidos atos geralmente ocorre “a posteriori” pelas plataformas digitais, quando a conduta penal já foi visualizada por um imensurável número de usuários, ocasionando danos irreparáveis às vítimas, sobretudo em matéria de violação aos direitos fundamentais à privacidade e à intimidade (art. 5º, inciso X, da Constituição Federal 1988).
A alteração legislativa possui o mérito de trazer – mais uma vez – para o direito uma conscientização e responsabilização mais severa para crimes praticados no ambiente virtual, que se assemelham a crimes instantâneos de danos permanentes ante o fato de que é praticamente impossível excluir definitivamente um conteúdo postado, especialmente diante das inúmeras camadas existentes no mundo virtual (DarkNet, DeepWeb etc). Por outro lado, a alteração legislativa poderia ter abrangido outros crimes comumente praticados contra mulheres no mundo virtual.
Conforme todos estes autores já afirmaram em outros textos, melhor seria uma revisão do corpus iuris protetivo às mulheres e meninas vítimas de violência de forma conglobante, ao invés de alterações pontuais promovidas pelo parlamento brasileiro. O legislador poderia, por exemplo, ter criado uma agravante ou causa de aumento genérica para incidir sobre todas as formas de violência contra a mulher (bem se sabe que atualmente é possível praticar qualquer crime por meio da internet, desde o estupro[3], até a lesão ou mesmo feminicídio, obrigando a vítima a praticar condutas danosas contra ela mesma).
Ademais, o legislador poderia ter estabelecido regras específicas quanto à produção de provas nos crimes digitais e medidas de proteção para vítimas no âmbito virtual, como a exclusão (ou ao menos suspensão) de perfis, monitoração eletrônica digital, proibição de acessar determinados domínios, dentre outras. Apesar da ausência destas inovações, elas estão implícitas nas disposições legais já existentes (como, por exemplo, nas cláusulas genéricas “entre outras” e “sem prejuízo de outras” presentes nos arts. 22, 23 e 24 da Lei Maria da Penha, e arts. 20 e 21 da Lei Henry Borel)[4].
De qualquer forma, a introdução da causa de aumento de pena ao crime de violência psicológica já aparece como importante avanço para a repressão de crimes que podem significar uma morte em vida para muitas mulheres.
Violência Psicológica Digital – Art. 147-B do Código Penal
O art. 147-B do CP, introduzido pela Lei 14.188/2021, define o crime de violência psicológica contra a mulher como:
“Causar dano emocional à mulher que a prejudique e perturbe seu pleno desenvolvimento ou que vise a degradar ou a controlar suas ações, comportamentos, crenças e decisões, mediante ameaça, constrangimento, humilhação, manipulação, isolamento, chantagem, ridicularização, limitação do direito de ir e vir ou qualquer outro meio que cause prejuízo à sua saúde psicológica e autodeterminação.
Pena: reclusão de 6 meses a 2 anos e multa, se a conduta não constituir crime mais grave”.
O tipo penal tutela a liberdade psíquica da mulher, sua integridade emocional e sua autonomia, mesmo fora do âmbito doméstico, em consonância com a Convenção de Belém do Pará.
A Lei 15.123/2025 acrescentou causa de aumento de pena ao art. 147-B:
Parágrafo único: A pena é aumentada de metade se o crime é cometido mediante uso de inteligência artificial ou de qualquer outro recurso tecnológico que altere imagem ou som da vítima.
A proposta busca responder ao uso de deepfakes e outras tecnologias digitais para manipular imagens e sons, geralmente com o objetivo de humilhar, expor ou controlar a vítima. Trata-se de uma forma moderna de humilhação e manipulação, já prevista de forma genérica no caput do art. 147-B, mas agora explicitada como hipótese de majoração da pena.
Embora a base legal estampada no “caput” já permita enquadrar o uso de tecnologia na elementar genérica “qualquer outro meio” de causar prejuízo à saúde psicológica da vítima, a causa de aumento evidencia o agravamento da reprovabilidade da conduta, dada sua potencialidade de difusão em massa, dificuldade de remoção e elevado impacto emocional, inclusive com efeitos permanentes na imagem e vida social da vítima.
O tipo penal refere-se à produção de um conteúdo (imagem, som, montagem) com o uso de sistema de inteligência artificial. Assim, a criação de “memes”, inserção da imagem da vítima, postagem de fotos adulteradas e criação de vídeos falsos hiper-realistas são exemplos de violência de gênero produzidas desse modo.
Todavia, vale lembrar (e alertar) que a violência psicológica não está circunscrita aos âmbitos afetivo, doméstico e familiar. Pode acontecer em escolas, locais de trabalho, atendimento médico ou qualquer outra circunstância em que a mulher seja exposta a uma situação que lhe cause dano emocional relacionada ao fato de ser mulher. Assim, publicar um “ranking” de mulheres sem sua autorização, com uso de imagens editadas (por exemplo, com exibição de seios ou nádegas), expondo-as a constrangimento, poderá configurar a modalidade agravada desse crime.
O crime de violência psicológica difere de todos os outros praticados contra mulheres porque não tem um padrão definido. Muitas vezes, o agressor ataca aquilo que é mais relevante para aquela vítima específica, seus pontos fortes e suas vulnerabilidades. Assim, poderá utilizar a IA para atingir seu trabalho, seus filhos, sua confiança, p. ex. publicando uma imagem ou vídeo produzidos com deepfake com conteúdo de ridicularização da vítima em relação a seu estudo, trabalho ou relações pessoais, para que se sinta incapaz ou seja exposta perante seu círculo pessoal.
O crime de violência psicológica pressupõe “dano emocional”, que é o impacto para a vida da vítima. Esse dano emocional dispensa perícia e pode ser comprovado pelo depoimento da vítima, testemunhas, relatórios de redes de atendimento. Importante mencionar que, caso a publicação cause danos permanentes ou transitórios à saúde mental da vítima, como stress pós-traumático e transtorno de ansiedade, restará configurado o crime de lesão à saúde[5]. Nesse caso, é necessário haver prova pericial para comprovar o nexo de causalidade.
O crime de violência psicológica possui apenas como sujeito passivo a mulher. A criação de deepfakes em relação a vítimas homens não configurará este crime específico, sem prejuízo de outras incidências penais (como os crimes contra a honra ou o crime do art. 216-B – caso envolva cena de nudez ou ato sexual).
Inteligência artificial e qualquer outro recurso tecnológico
O legislador empregou duas expressões para reprimir com mais rigor os crimes digitais contra mulheres: “inteligência artificial” e “qualquer outro recurso tecnológico”.
Não há como se definir de forma exauriente a inteligência artificial, pois se trata de um conceito em constante atualização. Os sistemas que compõem a inteligência artificial podem consistir em uma reprodução de conteúdo existente na internet e na produção de conteúdo, conforme solicitação do usuário e é neste ponto que reside o maior risco.
Em 2021, 193 países aderiram à Recomendação sobre Ética da Inteligência Artificial, que tem sido monitorada pelo Observatório Global da UNESCO, na qual consta uma definição dos “sistemas de IA” como “sistemas que têm capacidade de processar dados e informações de uma forma que se assemelha ao comportamento inteligente e, normalmente, inclui aspectos de raciocínio, aprendizagem, percepção, previsão, planejamento ou controle” (item 2). Neste documento, consta expressamente que os Estados “devem assegurar que os estereótipos de gênero e os vieses discriminatórios não sejam traduzidos em sistemas de IA” (item 90[6]).
Enquanto a inteligência artificial destina-se à produção de conteúdo com elevado grau de automação e síntese criativa pelo programa (usualmente através de comandos – prompts de edição automatizada), o “qualquer outro recurso tecnológico” se refere à criação de imagens ou vídeos falsos com maior intervenção humana de editoração (usualmente com menor nível de realismo, mas ainda assim com elevado potencial lesivo). Essa distinção é uma estratégia legal para escapar à discussão se o programa usado pelo ofensor era ou não uma forma de inteligência artificial, porque o nível criatividade generativa automatizada pelo programa para qualificá-lo como IA nem sempre é muito claro, já que mesmo com o uso dessas ferramentas automatizadas é possível uma progressiva intervenção humana para aperfeiçoar a edição. Em síntese, qualquer manipulação por meio tecnológico de imagem ou som da mulher, que lhe cause dano emocional, poderá configurar o crime.
Alteração de imagem ou som da vítima
O núcleo da conduta típica na modalidade agravada é a alteração de imagem ou som da vítima com recursos tecnológicos (que podem ser de IA ou outros). Portanto, se o ofensor se utiliza de IA para praticar outras formas de humilhação à vítima, diversas da edição de imagem ou som, elas não poderão se inserir na incriminação agravada, retornando ao tipo penal básico de violência psicológica do caput ou recaindo em outros tipos penais.
ATENÇÃO – a coautora deste artigo, Valéria Scarance, discorda da conclusão acima, encampada pelos demais coautores, compreendendo que o núcleo da conduta agravada compreende duas modalidades de violência psíquica virtual: “inteligência artificial” e “outro recurso tecnológico que altere imagem e som”. Segundo a autora, a norma deve ser interpretada de modo a abranger o uso de inteligência artificial para qualquer tipo de agressão psíquica à vítima, desde que produzida/potencializada pelos meios tecnológicos. A restrição apenas à imagem e ao som contraria a realidade dos avanços tecnológicos e reduz a efetividade da proteção penal.
Essa cláusula traz uma correlação com o tipo de IA em análise. Existem cinco tipos de IA, de acordo com sua funcionalidade[7]:
1. IA Descritiva ou Analítica: busca identificar padrões, realizar classificações ou previsões com base em dados históricos. Exemplos: mecanismos de detecção de fraudes, reconhecimento facial, análise de risco.
2. IA Prescritiva: objetiva recomendar ou decidir ações com base em dados analisados. Exemplos: sistemas de recomendação (em consumo, segurança pública ou justiça criminal), algoritmos de seleção automatizada.
3. IA Generativa: cria conteúdo novo (textual, visual, sonoro ou multimodal) a partir de dados anteriores. Exemplos: geração de textos, imagens sintéticas, vídeos hiper-realistas, deepfakes.
4. IA Interativa ou Conversacional: destina-se a possibilitar a interação com seres humanos por meio da linguagem natural ou interface sensorial. Exemplos: assistentes virtuais, chatbots em serviços públicos, robôs de atendimento automatizado.
5. Sistemas Robóticos com IA: destinam-se a operar no mundo físico com autonomia parcial ou total. Exemplos: veículos autônomos, drones de vigilância, robôs industriais e médicos.
Analisando-se as espécies de IA, verifica-se que o tipo agravado se relaciona apenas com uma parte da IA generativa, relacionada a imagens, áudios e vídeos (não a textos). Assim, há diversas outras condutas com uso de IA que não estão abrangidas pela redação do tipo penal. Exemplos: ofensor cria textos difamatórios contra a vítima com uso de IA; criação de bot de internet para o envio automatizado de mensagens ofensivas para a vítima ou para os seus contatos em rede social; criação de phishing com uso de IA para obter informações confidenciais da vítima; envio reiterado de e-mails ou mensagens com uso de bots de IA; programar a assistente de voz para ofender a vítima ou monitorá-la; uso de drones de vigilância para perseguição. Verifica-se que ainda há um largo espectro de áreas passíveis de avanço na intersecção entre direito penal e a inteligência artificial.
Conflito aparente de normas
A nova forma agravada de violência psicológica possui risco de sobreposição normativa com o conteúdo do art. 216-B, parágrafo único, do Código Penal, que estabelece:
Art. 216-B. Produzir, fotografar, filmar ou registrar, por qualquer meio, conteúdo com cena de nudez ou ato sexual ou libidinoso de caráter íntimo e privado sem autorização dos participantes:
Pena – detenção, de 6 (seis) meses a 1 (um) ano, e multa.
Parágrafo único. Na mesma pena incorre quem realiza montagem em fotografia, vídeo, áudio ou qualquer outro registro com o fim de incluir pessoa em cena de nudez ou ato sexual ou libidinoso de caráter íntimo.
A distinção é relevante, em especial porque a pena da violência psicológica digital é substancialmente mais elevada, de um a quatro anos (já considerando a causa de aumento).
Inicialmente, observa-se que há uma zona de não sobreposição normativa nos casos em que a geração de conteúdo novo (fotografias ou vídeos), embora possa implicar humilhação ou ridicularização — como ocorre com certos memes —, não atinge a esfera da dignidade sexual da vítima. A sobreposição normativa, portanto, limita-se às situações em que o conteúdo afeta diretamente essa dimensão da dignidade.
Acreditamos que os princípios da especialidade e da sucessão de normas penais exige reconhecer que, se houver realização de montagem de fotografia, vídeo ou áudio relacionado a cena de nudez ou ato sexual com o uso de recursos tecnológicos, gerando o resultado de produzir dano emocional à vítima, haverá o crime de violência psicológica na modalidade agravada. Trata-se de norma especial e editada em posteridade.
O tipo penal previsto no parágrafo único do art. 216-B do Código Penal não foi revogado e continua aplicável às seguintes situações envolvendo montagens de fotografias, vídeos ou áudios com conteúdo de nudez ou cena de sexo: (i) quando não há uso de recursos tecnológicos avançados, como nos casos de colagens manuais (exemplo: photo collage por recorte e colagem de imagens); (ii) quando há a produção do material, mas sem sua divulgação; (iii) quando o material foi produzido e difundido, mas não chegou ao conhecimento da vítima, nem havia expectativa concreta de que isso ocorresse — inexistindo, portanto, dano emocional[8]; (iv) quando o conteúdo chega ao conhecimento da vítima, mas esta declara expressamente que não sofreu qualquer tipo de abalo emocional.
Concluímos este estudo sobre a alteração legislativa promovida pela Lei 15.123/2025 reconhecendo, mais uma vez, representar um importante avanço na repressão à violência psicológica contra a mulher no ambiente digital, sobretudo diante da crescente sofisticação das agressões praticadas com o uso de inteligência artificial. Ao prever uma causa de aumento de pena para condutas que envolvam a manipulação de imagem ou som da vítima por meios tecnológicos, o legislador reconhece a gravidade dos impactos emocionais gerados por tais práticas — muitas vezes devastadores e irreversíveis.
Entretanto, como demonstrado, a medida ainda é tímida diante da complexidade e da extensão da ciberviolência de gênero. A proteção plena das mulheres e meninas exige um olhar sistêmico, com a revisão e ampliação do arcabouço normativo de forma transversal e integrada. É necessário que o ordenamento jurídico avance não apenas na punição, mas também na prevenção e proteção eficaz das vítimas, com medidas específicas de atendimento, produção probatória e retirada célere de conteúdos lesivos da rede. A inteligência artificial, enquanto ferramenta de potencial emancipador, não pode se tornar instrumento de dominação e humilhação. Cabe também ao Direito Penal, em sua função simbólica e garantista, atuar com firmeza e sensibilidade para impedir que a tecnologia reforce desigualdades históricas e perpetue formas contemporâneas de violência de gênero.
[1] IBGE. Estatísticas sociais. Disponível emhttps://agenciadenoticias.ibge.gov.br/agencia-noticias/2012-agencia-de-noticias/noticias/41024-internet-foi-acessada-em-72-5-milhoes-de-domicilios-do-pais-em-2023. Acesso em 24 abr 2025.
[2] LEOS, Devan. Tendências do crime cibernético com IA e como elas podem prejudicá-lo em 2025. Undetectable IA Pesquisa. 18 fev. 2025. Disponível em: https://undetectable.ai/research/br/crime-cibernetico-de-ia-2025/
[3] No âmbito do Superior Tribunal de Justiça é possível a constatação de precedentes que consideram prescindível o contato físico entre autor e vítima para fins de caracterização dos crimes de estupro ou estupro de vulnerável. Nesse sentido: HC n. 478.310/PA, relator Ministro Rogerio Schietti Cruz, Sexta Turma, julgado em 9/2/2021.
[4] A aplicação de medidas de urgência inominadas pode ser legitimamente fundamentada no poder geral de cautela do juiz. Tal poder permite ao magistrado adotar providências necessárias à efetividade da tutela jurisdicional, mesmo na ausência de previsão legal expressa, desde que estejam presentes os requisitos da plausibilidade do direito (fumus boni iuris) e do perigo de dano ou risco ao resultado útil do processo (periculum in mora). Trata-se de uma manifestação do princípio da efetividade da jurisdição, consagrado nos arts. 297 e 300 do Código de Processo Civil, aplicável subsidiariamente ao processo penal, especialmente em contextos que demandem pronta intervenção judicial para evitar lesões irreversíveis a direitos fundamentais.
[5] Ressaltamos que o transtorno de estresse pós-traumático (TEPT) e transtornos de ansiedade não caracterizam dano emocional “apenas”, mas são reconhecidos como doenças mentais e constam na Classificação Internacional de Doenças (CID) da Organização Mundial da Saúde (OMS).
[6] UNESCO. Recomendação sobre a Ética da lnteligência Artificial (Aprovada em 23 de novembro de 2021). Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000381137_por. Acesso em: 24 abr 2025.
[7] Categorização obtida a partir de questionamento e refinamento ao ChatGPT. Ver ainda: FEUERRIEGEL, Stefan; HARTMANN, Jochen; JANIESCH, Christian; ZSCHECH, Patrick. Generative AI. Business & Information Systems Engineering, v. 66, p. 111-126, 2024. https://doi.org/10.1007/s12599-023-00834-7
[8] Vale registrar que o tipo do crime de violência psicológica em sua modalidade agravada não exige que o ofensor envie o arquivo diretamente para a vítima, mas que tenha o conhecimento de que o arquivo certamente chegaria ao conhecimento da vítima e lhe causaria dano emocional. Exemplo: o ofensor produz a fotografia ou vídeo editados, com conteúdo humilhante, e encaminha para amigos íntimos da vítima, seus familiares, ou ainda se publica abertamente em rede social em contexto em que seria previsível que alguém do círculo da vítima pudesse tomar conhecimento dos fatos e comunicar a vítima, para que viesse a tomar as providências cabíveis.