Tech

Os cantos escuros da Web oferecem um vislumbre do futuro nefasto da IA

Quando o conselho de liberdade condicional da Louisiana se reuniu em outubro para discutir a possível libertação de um assassino condenado, convocou um médico com anos de experiência em saúde mental para falar sobre o preso.

O conselho de liberdade condicional não foi o único grupo prestando atenção.

Uma coleção de trolls online tirou capturas de tela da médica de um feed online de seu depoimento e editou as imagens com ferramentas de IA para fazê-la parecer nua. Eles então compartilharam os arquivos manipulados no 4chan, um fórum de mensagens anônimo conhecido por promover assédio e espalhar conteúdo de ódio e teorias da conspiração.

Foi uma das inúmeras vezes em que as pessoas no 4chan usaram novas ferramentas baseadas em IA, como editores de áudio e geradores de imagens, para espalhar conteúdo racista e ofensivo sobre pessoas que compareceram perante o conselho de liberdade condicional, de acordo com Daniel Siegel, estudante de graduação na Universidade de Columbia. que pesquisa como a IA está sendo explorada para fins maliciosos. Siegel narrou a atividade no site durante vários meses.

As imagens e o áudio manipulados não se espalharam muito além dos limites do 4chan, disse Siegel. Mas os especialistas que monitorizam os fóruns de mensagens dizem que os esforços oferecem uma ideia de como os utilizadores nefastos da Internet poderão empregar ferramentas sofisticadas de inteligência artificial para impulsionar o assédio online e as campanhas de ódio nos próximos meses e anos.

Callum Hood, chefe de pesquisa do Centro de Combate ao Ódio Digital, disse que sites marginais como o 4chan – talvez o mais notório de todos – muitas vezes davam sinais de alerta sobre como as novas tecnologias seriam usadas para projetar ideias extremas. Essas plataformas, disse ele, estão repletas de jovens que são “muito rápidos a adoptar novas tecnologias” como a IA, a fim de “projectar a sua ideologia de volta aos espaços convencionais”.

Essas táticas, disse ele, são frequentemente adotadas por alguns usuários em plataformas online mais populares.

Aqui estão vários problemas resultantes das ferramentas de IA que os especialistas descobriram no 4chan – e o que os reguladores e as empresas de tecnologia estão fazendo a respeito.

Ferramentas de IA como Dall-E e Midjourney geram novas imagens a partir de descrições de texto simples. Mas uma nova onda de geradores de imagens de IA é criada com o propósito de criar pornografia falsa, incluindo a remoção de roupas de imagens existentes.

“Eles podem usar a IA apenas para criar uma imagem exatamente do que desejam”, disse Hood sobre campanhas online de ódio e desinformação.

nenhuma lei federal proibindo a criação de imagens falsas de pessoas, deixando grupos como o conselho de liberdade condicional da Louisiana lutando para determinar o que pode ser feito. O conselho abriu uma investigação em resposta às descobertas de Siegel no 4chan.

“Qualquer imagem produzida retratando os membros do nosso conselho ou quaisquer participantes em nossas audiências de maneira negativa, nós definitivamente contestaríamos”, disse Francis Abbott, diretor executivo do Conselho de Perdões e Comitê de Liberdade Condicional da Louisiana. “Mas temos que operar dentro da lei, e se isso é contra a lei ou não – isso tem que ser determinado por outra pessoa.”

Illinois ampliou sua lei governar a pornografia de vingança para permitir que alvos de pornografia não consensual feita por sistemas de IA processem criadores ou distribuidores. Califórnia, Virgínia e Nova York têm também aprovou leis proibindo a distribuição ou criação de pornografia gerada por IA sem consentimento.

No final do ano passado, a ElevenLabs, uma empresa de IA, lançou uma ferramenta que poderia criar uma réplica digital convincente da voz de alguém dizendo qualquer coisa digitada no programa.

Quase assim que a ferramenta foi lançada, os usuários do 4chan circularam clipes de uma falsa Emma Watson, a atriz britânica, lendo o manifesto de Adolf Hitler, “Mein Kampf”.

Usando o conteúdo das audiências do conselho de liberdade condicional da Louisiana, os usuários do 4chan compartilharam clipes falsos de juízes fazendo comentários ofensivos e racistas sobre os réus. Muitos dos clipes foram gerados pela ferramenta da ElevenLabs, de acordo com Siegel, que usou um identificador de voz de IA desenvolvido pela ElevenLabs para investigar suas origens.

ElevenLabs correu para impor limitesIncluindo exigindo que os usuários paguem antes que pudessem obter acesso a ferramentas de clonagem de voz. Mas as mudanças não parecem retardar a propagação das vozes criadas pela IA, disseram os especialistas. Dezenas de vídeos usando vozes falsas de celebridades circularam no TikTok e no YouTube – muitos deles compartilhando desinformação política.

Desde então, algumas grandes empresas de mídia social, incluindo TikTok e YouTube, exigiram rótulos em alguns conteúdos de IA. Presidente Biden emitiu uma ordem executiva em outubro pedindo que todas as empresas rotulem esse conteúdo e instruiu o Departamento de Comércio a desenvolver padrões para marcas d'água e autenticação de conteúdo de IA.

À medida que a Meta se movia para ganhar uma posição na corrida da IA, a empresa abraçou uma estratégia para divulgar o seu código de software aos investigadores. A abordagem, amplamente chamada de “código aberto”, pode acelerar o desenvolvimento, dando aos académicos e tecnólogos acesso a mais matéria-prima para encontrar melhorias e desenvolver as suas próprias ferramentas.

Quando a empresa lançou o Llama, seu grande modelo de linguagem, para pesquisadores selecionados em fevereiro, o código rapidamente vazou no 4chan. As pessoas lá o usaram para fins diferentes: ajustaram o código para diminuir ou eliminar proteções, criando novos chatbots capaz de produzir ideias anti-semitas.

O esforço mostrou como as ferramentas de IA gratuitas e de código aberto podem ser ajustadas por usuários tecnologicamente experientes.

“Embora o modelo não seja acessível a todos e alguns tenham tentado contornar o processo de aprovação, acreditamos que a estratégia de lançamento atual nos permite equilibrar responsabilidade e abertura”, disse uma porta-voz da Meta por e-mail.

Nos meses que se seguiram, foram desenvolvidos modelos de linguagem para ecoar os pontos de discussão da extrema direita ou para criar conteúdos mais sexualmente explícitos. Os geradores de imagens foram ajustado por usuários do 4chan para produzir imagens de nudez ou fornecer memes racistas, contornando os controles impostos por grandes empresas de tecnologia.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button