Facebook lança banco de dados com 100.000 clipes para ensinar IA a identificar DeepFakes

Os deepfakes atingiram um ponto nevrálgico, tanto para o público como para os investigadores. Há algo de singularmente perturbador nestas imagens geradas pela Inteligência Artificial de pessoas que aparecem para dizer ou fazer algo que não fizeram.

Com ferramentas para tornar os deepfakes agora amplamente disponíveis e relativamente fáceis de usar, muitos também se preocupam com o fato de serem usados para espalhar informações perigosas. Os políticos podem, por exemplo, fazer com que as palavras de outras pessoas sejam postas na boca ou obrigadas a participar em situações em que não tomaram parte.

Esse é, pelo menos, o medo. Para um olho humano, a verdade é que as falsificações profundas ainda são relativamente fáceis de detectar. E, de acordo com um relatório da empresa ciber-segurança DeepTrace Labs, em Outubro de 2019, ainda o mais abrangente até à data, não foram utilizados em qualquer campanha de desinformação. No entanto, o mesmo relatório concluiu também que o número de deepfakes colocados em linha estava a crescer rapidamente, com cerca de 15.000 a aparecerem nos sete meses anteriores. Esse número será agora muito maior.

As empresas de meios de comunicação social estão preocupadas com o facto de os deepfakes poderem em breve inundar as suas instalações. Mas a sua detecção automática é difícil. Para resolver o problema, o Facebook quer usar a IA para ajudar a combater as falsificações geradas pela IA. Para treinar as IAs a detectar vídeos manipulados, está a lançar o maior conjunto de dados de sempre – mais de 100.000 clipes produzidos utilizando 3.426 atores e uma série de técnicas de troca de rostos existentes.

“Os deepfakes não são atualmente um grande problema”, diz o CTO do Facebook, Mike Schroepfer. “Mas a lição que aprendi da forma mais difícil nos últimos anos é não ser apanhado de pés chatos”. Quero estar realmente preparado para muitas coisas más que nunca acontecem e não o contrário”.

O Facebook anunciou também o vencedor do seu Deepfake Detection Challenge, no qual 2.114 participantes submeteram cerca de 35.000 modelos formados no seu conjunto de dados. O melhor modelo, desenvolvido por Selim Seferbekov, engenheiro de aprendizagem de máquinas da empresa Mapbox, conseguiu detectar se um vídeo era Deepfake com 65% de precisão quando testado num conjunto de 10.000 clips anteriormente não vistos, incluindo uma mistura de novos vídeos gerados pelo Facebook e vídeos já existentes retirados da Internet.

Para tornar as coisas mais difíceis, o conjunto de formação e o conjunto de testes incluem vídeos que podem confundir um sistema de detecção, tais como pessoas a darem tutoriais de maquiagem, e vídeos que foram afinados colando texto e formas sobre as caras dos alto-falantes, alterando a resolução ou a orientação, e tornando-os mais lentos.

Em vez de aprender técnicas forenses, como a procura de impressões digitais nos pixéis de um vídeo deixado para trás pelo processo de geração de falsificações profundas, as cinco primeiras entradas parecem ter aprendido a detectar quando algo parecia “desligado”, como um humano poderia fazer.

Para isso, todos os vencedores utilizaram um novo tipo de rede neural convolucional (CNN) desenvolvida por investigadores do Google no ano passado, chamada EfficientNets. As CNNs são normalmente usadas para analisar imagens e são boas para detectar rostos ou reconhecer objetos. No entanto, melhorar a sua precisão para além de um determinado ponto pode exigir um afinação ad hoc. As EfficientNets fornecem uma forma mais estruturada de afinação, facilitando o desenvolvimento de modelos mais precisos. Mas exatamente o que as faz superar outras redes neurais nesta tarefa não é claro, diz Seferbekov.

O Facebook não pretende utilizar nenhum dos modelos vencedores no seu site. Por um lado, 65% de precisão ainda não é suficientemente bom para ser útil. Alguns modelos atingiram mais de 80% de precisão com os dados de treino, mas esta desceu quando confrontados com clips invisíveis. A generalização a novos vídeos, que podem incluir diferentes faces trocadas com técnicas diferentes, é a parte mais difícil do desafio, diz Seferbekov.

Ele pensa que uma forma de melhorar a detecção seria concentrar-se nas transições entre frames de vídeo, acompanhando-as ao longo do tempo. “Mesmo os deepfakes de alta qualidade têm algumas oscilações entre fotogramas”, diz Seferbekov. Os humanos são bons a detectar estas inconsistências, especialmente nas imagens de rostos. Mas apanhar automaticamente estes defeitos de telescópio vai exigir dados de treino maiores e mais variados e muito mais poder computacional. Seferbekov tentou seguir estas transições de imagem, mas não conseguiu. “O CPU foi um verdadeiro gargalo”, diz ele.

O Facebook sugere que a detecção de falsificações profundas também pode ser melhorada utilizando técnicas que vão além da análise de uma imagem ou vídeo em si, como a avaliação do seu contexto ou proveniência.

Sam Gregory, que dirige o Witness, um projeto que apoia ativistas dos direitos humanos na utilização de tecnologias de vídeo, congratula-se com o investimento de plataformas de social-media na detecção de falsificações profundas. O Witness é membro da Partnership on AI, que aconselhou o Facebook no seu conjunto de dados. Gregory concorda com a Schroepfer que vale a pena preparar-se para o pior. “Ainda não tivemos os apocalipses profundos, mas estas ferramentas são muito desagradáveis”.

Quando milhões de pessoas são capazes de criar e partilhar vídeos, confiar no que vemos é mais importante do que nunca. As notícias falsas espalham-se pelo Facebook como fogo selvagem, e a mera possibilidade de falsificações profundas semeia dúvidas, tornando-nos mais propensos a questionar imagens genuínas, bem como falsificações.

Além disso, a detecção automática pode em breve ser a nossa única opção. “No futuro, vamos ver falsificações profundas que não podem ser distinguidas pelos humanos”, diz Seferbekov.

Via: TechnologyReview

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *