Pular para o conteúdo

Uso indevido de imagens ‘deepfake’ será considerado crime: 5 anos de prisão

O projeto de lei protocolado pelo deputado Mike Redondo, criminalizará fotos de terceiros à chamada “imagens deepfake” – imagens e vídeos criados usando tecnologia de IA –, com prisão de até 5 anos

Da Redação – Prestes a ser aprovado na Flórida, o projeto de lei “HB 757”, irá condenar pessoas que fizerem uso da Inteligência Artificial para adaptar fotos de terceiros à chamada “imagens deepfake” – imagens e vídeos criados usando tecnologia de IA que parecem mostrar figuras reais e conhecidas da sociedade. Portanto, colocar alguém, sem o seu consentimento, em situação de vulnerabilidade, será considerado crime de terceiro grau – punível com até cinco anos de prisão e multa máxima de US$ 5.000.

O projeto de lei protocolado pelo deputado estadual Mike Redondo (Miami), criminaliza esse tipo de ação. De acordo com analistas legislativos, uma “representação alterada” se refere a imagens produzidas digitalmente que mostram uma “versão realista de uma pessoa identificável”.

Essas imagens podem mostrar a pessoa: tendo partes do corpo nuas de outra pessoa; com partes do corpo nuas geradas por computador, envolvendo-se em conduta sexual que a pessoa nunca cometeu.

Além das penalidades criminais, o projeto de lei permitiria que alguém retratado dessa forma processasse por reparação, incluindo liminares, danos monetários e custas advocatícias.

Embora a proposta possa soar estranha para alguns, o deputado estadual Mike Redondo considera que abordaria uma tendência crescente de “deepfakes”.  Segundo a “WBUR”, a prática se tornou comum, com pesquisas mostrando que mais de 90% dos deepfakes são pornográficos.

“Usar a imagem de alguém sem seu consentimento pode ter efeitos prejudiciais, emocional e fisicamente”, afirma a “WBUR”. “Mas nenhuma lei federal criminaliza a criação ou compartilhamento de pornografia deepfake não consensual nos EUA.”

Durante uma reunião do comitê da Câmara na semana passada, Redondo disse que as mudanças ajudariam a polícia e os promotores a derrubar aqueles que usam tecnologia de IA para criar pornografia infantil simulada.

Esta matéria é um oferecimento da Assureline Insurance

Fonte: Nossa Gente