“Deepfakes” são arquivos manipulados usando Inteligência Artificial (IA) para enganar as pessoas. Podem ser vídeos, imagens ou sons falsos que parecem reais ou originais. Os cibercriminosos aproveitam o poder desta inteligência para executar ataques cada vez mais sofisticados.
O termo “profundo” vem de “aprendizado profundo” e é combinado com “falso”, que significa “falso”. Portanto, “deepfakes” refere-se ao uso de inteligência artificial e aprendizado de máquina para criar arquivos que parecem autênticos, mas na verdade são enganosos. A impressionante capacidade destes programas de computador em alcançar uma aparência realista baseia-se na sua capacidade de compreender e utilizar os padrões cognitivos do cérebro humano, tornando-os extremamente enganadores.
Os cibercriminosos utilizam esta ameaça para sequestrar informações e obter acesso a dados confidenciais, ou para gerar ataques de desinformação e até manipulação, por exemplo, em processos eleitorais. Isto pode difundir notícias falsas, influenciar a tomada de decisões ou desestabilizar relações, causando desconforto e incerteza, entre outros.
Entre 2021 e 2022, as agências governamentais dos EUA colaboraram para estabelecer um conjunto de melhores práticas empregáveis a adotar na preparação e resposta aos Deepfakes, uma vez que são uma ameaça contínua não só à segurança nacional, mas também à sociedade, ao sistema político ou financeiro.
Quais são alguns detalhes que devem ser levados em consideração para detectar um Deepfake?
- Vídeo curto: quase todos os arquivos falsos duram apenas alguns segundos, pois é um trabalho demorado.
- Falhas: existem pequenas diferenças entre arquivos reais e falsos, como expressões faciais ou movimentos de corte que nos dão um sinal de que pode ser um vídeo manipulado.
- Rostos: O pescoço, o rosto, a boca e os olhos são uma maneira fácil de saber que se trata de um deepfake, já que os arquivos falsos geralmente são close-ups dos rostos, portanto, se você olhar detalhadamente a maneira como fala, seu dentes e a rapidez com que você fecha os olhos aumentam as chances de detectar esses erros.
- Som: os vídeos não sincronizam som e imagem 100% corretamente, por isso o movimento dos lábios não costuma coincidir com o da voz.
- Sombras/iluminação: fotos ou vídeos falsos apresentam uma pequena diferença de iluminação e sombras em relação aos reais, com falhas como bordas borradas ou detalhes não naturais.
A INSSIDE Cybersecurity trabalha continuamente para melhorar os sistemas de segurança. E conta com uma equipa de especialistas que se adapta às mudanças e desafios que surgem no mundo da cibersegurança e da inteligência artificial.
Para mais informações contacte o INSSIDE