À medida que o crescimento de Coloff parece imparável, o usuário explicou a Der Spiegel por que ele não sente isso em conflito em usar o aplicativo para gerar nus falsos de um cantor famoso.
“Há fotos suficientes dela na internet como ela”, argumentou o usuário.
No entanto, esse usuário desenha a linha para gerar nus falsos de indivíduos particulares, insistindo: “Se eu soube de alguém que produzia essas fotos da minha filha, ficaria horrorizado”.
Para os meninos que parecem irreverentes ao criar imagens nus falsas de seus colegas de classe, as consequências variaram de suspensões a acusações criminais juvenis e, para alguns, pode haver outros custos. No processo em que o aluno do ensino médio está tentando processar um garoto que usou Canoff para intimidá -la, atualmente há resistência de meninos que participaram de bate -papos em grupo para compartilhar quais evidências eles têm em seus telefones. Se ela vencer sua luta, está pedindo US $ 150.000 em danos por imagem compartilhada, portanto, compartilhar registros de bate -papo poderá aumentar o preço.
Desde que ela e o advogado da cidade de São Francisco entraram com seus processos, a Lei de Take It Down se passou. Essa lei facilita forçar as plataformas para remover nus falsos gerados pela IA. Mas os especialistas esperam que a lei enfrente desafios legais sobre os medos da censura, portanto a ferramenta legal muito limitada pode não suportar o escrutínio.
De qualquer maneira, o ato de Take It Down é uma salvaguarda que chegou tarde demais para as primeiras vítimas de Nudify Apps nos EUA, apenas alguns dos quais estão se voltando para os tribunais que buscam justiça devido a leis amplamente opacas que deixaram claro se a geração de um nu falso era ilegal.
“Jane Doe é uma das muitas meninas e mulheres que foram e continuarão sendo exploradas, abusadas e vitimadas por pornografia não consensual gerada através da inteligência artificial”, observou a queixa do ensino médio. “Apesar de já ter sido vitimado pelas ações do réu, Jane Doe foi forçada a levar essa ação para proteger a si mesma e a seus direitos, porque as instituições governamentais que deveriam proteger mulheres e crianças de serem violadas e exploradas pelo uso da IA para gerar pornografia infantil e imagens nuas não -sensuais falharam em fazê -lo”.