07/02/2024 às 14h17min - Atualizada em 07/02/2024 às 14h17min
Meta vai identificar imagens geradas por IA em suas redes sociais
Por Carol Affonso - Comunicação Estratégica para Instagram
@carolonlline
Foto meramente ilustrativa - Reprodução Google c
Intenção da empresa é minimizar proliferação de imagens falsas
A Meta anunciou nesta terça-feira (6) que está desenvolvendo uma ferramenta para identificar qualquer imagem gerada por meio da Inteligência Artificial. Apesar de já acrescentar marcadores nas imagens criadas a partir do Meta IA, lançado em dezembro, o intuito da empresa será de minimizar a proliferação de deepfakes, ainda que gerada por concorrentes, como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.
Nick Clegg, o presidente de assuntos globais da empresa, afirmou que a medida será aplicada no Instagram, Facebook e Threads. “Nós estamos desenvolvendo este recurso agora e, nos próximos meses poderemos aplicar etiquetas em todos os idiomas suportados por cada aplicativo. Seguiremos essa abordagem durante o próximo ano, que ocorrerá uma série importante de eleições ao redor do mundo”, afirmou o executivo.
“Enquanto isso, esperamos aprender mais sobre como são criados e compartilhados os conteúdos gerados por IA, que tipo de transparência as pessoas consideram mais valiosas e como essas tecnologias evoluem”, acrescentou.
Ainda que não seja perfeita, Nick Clegg garante que a intenção da ferramenta será de minimizar os danos do compartilhamento de imagens falsas.
O aumento da IA generativa faz crescer a preocupação de que as pessoas usem essas ferramentas para semear o caos político, especialmente por meio da desinformação. Quase metade da população mundial irá às urnas em 2024.
Além do risco político, o desenvolvimento de programas de IA generativa pode resultar em um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.
Como exemplo estão as "deepfakes" pornográficas de mulheres famosas, um fenômeno que também afeta muitas pessoas anônimas.
Recentemente, Taylor Swift foi alvo que viralizou no X, antigo Twitter. Durante algumas horas, imagens falsas sexualmente explícitas da cantora ficaram disponíveis na plataforma de Elon Musk.
Como medida, a empresa de mídia social suspendeu as buscas pelo termo ‘Taylor Swift’, enquanto todos os conteúdos falsos eram removidos. Porém, antes de sua remoção a "deepfake" da estrela americana foi vista 47 milhões de vezes na rede social X (ex-Twitter), no final de janeiro.
Segundo a imprensa americana, a publicação permaneceu online na plataforma por cerca de 17 horas.
Embora Nick Clegg tenha afirmado que a ferramenta "não eliminará" totalmente o risco de produção de imagens falsas, "certamente minimizará" sua proliferação "dentro dos limites do que a tecnologia permite atualmente".
"Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa a bilhões de pessoas em todo o mundo", garantiu Clegg à AFP.
"Eu espero profundamente que, fazendo isso, tomando esse caminho, iremos incentivar o restante da indústria (...) a trabalhar junto e realmente tentar desenvolver os padrões comuns que precisamos", defendeu o líder da Meta, afirmando estar disposto a "compartilhar" sua tecnologia aberta "da forma mais ampla possível".
Em meados de janeiro, a empresa californiana OpenAI, criadora do ChatGPT, também anunciou o lançamento de ferramentas para combater a desinformação e salientou seu desejo de não permitir o uso de suas tecnologias para fins políticos.
"Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique o processo democrático”, explicou a OpenAI, destacando que seu gerador de imagens DALL-E 3 contém "ressalvas" para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos.
* O Brand-News não se responsabiliza por artigos assinados por nossos colaboradores