26 de abril de 2024
Hoje em dia, quase qualquer pessoa pode criar gravações de áudio ou vídeo de celebridades ou pessoas comuns agindo e falando de maneiras que nunca teriam feito, usando um software de inteligência artificial (IA) simples e amplamente acessível. Os direitos das pessoas cujas vozes e imagens estão a ser apropriadas terão de ser protegidos mais seriamente. As grandes empresas tecnológicas uniram-se numa tentativa histórica de impedir o uso indevido da IA nas próximas eleições em todo o mundo.
Deepfakes continuam a se desenvolver e cada vez com melhor qualidade, mais convincentes e mais próximos da realidade. O grande número de eleições em todo o mundo durante 2024 levanta consigo a preocupação com a inclusão de inteligência artificial nestes processos eleitorais, o que pode comprometer a integridade das eleições. A manipulação eleitoral por deepfakes é uma das principais discussões em muitos países do mundo que se preparam para eleições. Cerca de 4 mil milhões de pessoas recorrerão às urnas em mais de 50 países diferentes. Têm sido manifestadas preocupações por académicos, jornalistas e políticos sobre a utilização de conteúdos gerados pela IA em operações de influência política.
No entanto, o conteúdo gerado pela IA também terá um impacto maior na nossa vida social. Recentemente, casos virais foram relacionados a celebridades, mas dada a rapidez com que os deepfakes estão evoluindo, teremos vídeos deepfake de pessoas comuns que não são celebridades ou políticos e não despertam interesse público em seus empregos ou atividades. Esta será uma ameaça muito grave para as sociedades, e é por isso que é muito importante ter iniciativas colectivas contra os truques gerados pela IA.
- Estudos de caso de deepfakes recentes
Deepfakes, ou manipulações não baseadas em IA chamadas “cheapfakes”, não são novas e já existem há algum tempo. No entanto, com o impacto do ChatGPT em levar a IA a um público mais vasto, no último ano, milhares de milhões de dólares foram investidos em empresas de IA. O desenvolvimento de programas que facilitam a sua produção, especialmente deepfakes, multiplicou o uso da inteligência artificial para produzir deepfakes direcionados ao público. Ainda hoje, além da manipulação de vídeo, já houve casos em que é produzido um deepfake de áudio, que é ainda mais fácil de criar.
O caso do áudio deepfake do presidente dos EUA, Joe Biden, que foi distribuído em New Hampshire, instando as pessoas a não votarem nas primárias do estado, atingiu mais de 20 mil pessoas. A pessoa que esteve por trás dessa manipulação e pagou US$ 150 para produzi-la, Steve Kramer, afirmou que fez isso como um ato de desobediência civil para chamar a atenção para os riscos associados à inteligência artificial na política e para chamar a atenção para a necessidade da IA. regulamentos.
Outro grande exemplo que mostrou como os deepfakes podem ser um perigo para a democracia é o áudio deepfake do político eslovaco Michal Simecka. Uma mensagem de voz gravada foi carregada no Facebook 48 horas antes da eleição na Eslováquia, parecendo ser de Simecka discutindo fraude eleitoral com a jornalista Monika Todova. Um exemplo que poderia ter sérias implicações políticas e sociais é o áudio deepfake do prefeito de Londres, Sadiq Khan. No início de novembro de 2023, um áudio falso de Khan se tornou viral quando ele parecia estar insultando o Dia do Armistício (uma celebração para marcar o momento em que a Primeira Guerra Mundial terminou) e exigindo que as marchas pró-Palestina tivessem precedência.
Além dos deepfakes de áudio com protagonistas políticos, os deepfakes de vídeos com celebridades continuam circulando na internet. Por exemplo, existem vídeos deepfakes do famoso ator de Hollywood, Tom Hanks, em que uma versão AI dele promoveu um plano odontológico, ou do famoso YouTuber americano, MrBeast, que parecia estar organizando “o maior sorteio do iPhone 15 do mundo”.
Imagens deepfakes da cantora Taylor Swift que foram publicadas no início deste ano em diversas plataformas de mídia social – X (antigo Twitter), Instagram, Facebook e Reddit – também se tornaram virais. Antes de ser retirado do X, uma imagem deepfake do Swift foi vista mais de 45 milhões de vezes nas cerca de 17 horas em que esteve na plataforma.
- Uma iniciativa coletiva contra truques gerados por IA
O “Acordo Tecnológico para Combater o Uso Enganoso de IA nas Eleições de 2024”, que foi anunciado na Conferência de Segurança de Munique, vê 20 grandes participantes, incluindo Adobe, Google, Microsoft, OpenAI, Snap Inc. e Meta, comprometendo-se a usar corte- tecnologia de ponta para detectar e neutralizar conteúdos nocivos gerados pela IA que visam enganar os eleitores, e também para apoiar esforços para promover a sensibilização do público, a literacia mediática e a resiliência de toda a sociedade. É a primeira vez que 20 empresas diferentes se unem contra os truques gerados pela IA.
As empresas participantes concordaram com oito compromissos específicos para mitigar os riscos relacionados ao conteúdo eleitoral enganoso de IA. Esta iniciativa entre o setor tecnológico e a IA visa direcionar imagens, vídeos e áudio criados pela IA que possam enganar os eleitores em relação aos candidatos, aos funcionários eleitorais e ao processo de votação. No entanto, não exige que tal conteúdo seja completamente banido.
Fontes
editar- ((en)) Audio deepfakes and AI tricks threaten elections around the world — Global Voices, 25 de abril de 2024