Você é daquelas pessoas que precisam “ver para crer”? E se dissermos que está mais do que na hora de rever esse conceito, para não correr o risco de cair em uma armadilha das deepfakes?
É importante ressaltar que, há alguns anos, o usuário que fazia edição de vídeos, áudios ou imagens precisava ter conhecimentos técnicos intrínsecos para manusear esses arquivos. Hoje, com a propagação da Inteligência Artificial (IA), mais pessoas passaram a ter acesso a múltiplas técnicas de edição, o que colaborou para a disseminação de notícias fraudulentas.
Na prática, o termo “deepfake” é proveniente de uma combinação de “deep learning” (aprendizado profundo) e “fake” (falso), consistindo em uma estratégia de associação de imagens ou sons humanos, com base em técnicas de IA, para combinar a fala ou a cena de uma gravação já existente.
O resultado são conteúdos sintéticos, mas muito bem-feitos, como o discurso do presidente ucraniano Volodymyr Zelensky anunciando rendição às tropas da Rússia. Ou o papa vestido em alta costura. Teve também o ex-presidente americano Donald Trump sendo preso de forma truculenta por policiais de Nova Iorque.
Fato é que as deepfakes estão em todo lugar, até na novela Travessia, da TV Globo, em que a protagonista da trama, Brisa, foi transformada, via IA, em sequestradora de crianças, tornando-se, com isso, uma vítima da deepfake. Por isso o tema é tão importante, na opinião de Filipe Bento, CEO da Br24.
“Hoje, o sistema de construção de deepfakes está tão aprimorado que o reconhecimento do que é ‘true’ (verdadeiro) e do que é ‘fake’ (falso) pode se tornar uma tarefa bem difícil. Quando a deepfake nasceu, em 2014, aproximadamente, seu uso era mais complicado, devido à exigência de conhecimentos avançados em tecnologia, contudo, conforme a tecnologia foi avançando, soluções mais fáceis para produzi-las foram surgindo”.
Veja mais: Problema de metade das empresas no Brasil, fake news podem ser fatais às marcas
Alerta para o mercado
As empresas devem se cuidar, pois também estão na mira da prática. As vítimas em potencial são figuras públicas, cuja imagem ou voz está extensamente disponível na web.
“Uma vez vítima, não há muito o que possa ser feito, porque a deepfake tem como característica principal a rápida velocidade de disseminação. Por exemplo: suponha que venha à tona um discurso de xenofobia feito pelo CEO de uma empresa. Até provar que ‘focinho de porco não é tomada’, sua reputação estaria totalmente arruinada. Para piorar o quadro, quando uma pessoa dissemina uma mentira, raramente ela volta atrás explicando que cometeu um engano. Isto seria uma vergonha para este indivíduo, que prefere seguir e continuar sua vida.”
O quadro pode ser ainda mais grave. Uma pesquisa da Accenture Technology Vision 2022, intitulada Meet me in the metaverse, aponta que 65% dos consumidores globais não sabem reconhecer ou identificar vídeos deepfakes ou conteúdo sintético. Por isso a prevenção, segundo Filipe Bento, é o melhor remédio.
“Recomendamos sempre o brand safety, ou segurança da marca, que diz respeito a um conjunto de práticas para proteger as empresas de pessoas e ambientes indesejados. Entre as principais medidas, destaque para fazer uso de tecnologia de adtechs, inclusive de pré-checagem, em que é possível filtrar antecipadamente qualquer desconfiança de tráfego inválido”.
Veja mais: 5 tendências de cibersegurança que ganharão força em 2023
Ele lembra que os embaraços não estão somente relacionados à reputação. Em nome de uma empresa, hackers podem fazer uma verdadeira coleta de informações de seus clientes, prejudicando pessoas e colocando o negócio em situações adversas perante a Lei Geral de Proteção de Dados (LGPD).
“Por isso, é importante contar com soluções estratégicas para a proteção digital tanto da rede quanto dos dispositivos da sua empresa, no tocante a ameaças virtuais; riscos digitais e compliance; backup; continuidade do negócio; e educação digital colaborativa”, ressalta o CEO da Br24, aconselhando cautela das empresas, visto que as deepfakes são o ápice das fake news. “É importante se prevenir desse problema, porque, além de elas terem o potencial de enganar mais facilmente, justamente por serem vídeo ou áudio, elas se propagam mais rapidamente, pelo WhatsApp, por exemplo”, finaliza.