Inteligência artificial é incorporada pelo crime

Imagem do Artigo: Inteligência artificial é incorporada pelo crime

08/03/2024 Cidadania digital, Comunicação, Segurança de informação

O mundo todo ficou sabendo, na manhã de 05 de fevereiro, do que o deepfake é capaz, após a divulgação de uma alarmante notícia divulgada pelo South China Morning Post, informando que uma empresa multinacional chinesa foi vítima de um engenhoso golpe, causando um prejuízo em torno de US$ 25,6 milhões (cerca de R$ 130 milhões). 

Com o uso da Inteligência Artificial (IA), um ou vários criminosos recriaram, digitalmente, vários membros da diretoria da empresa. “O acidente envolveu a recriação digital do diretor financeiro da empresa, ordenando transferências de dinheiro em uma videoconferência onde todos os participantes, exceto a vítima, eram representações falsas de pessoas reais”, noticiou o jornal chinês. 

A polícia chinesa fez uma rigorosa investigação e concluiu que os golpistas utilizaram vídeos e áudios dos personagens recriados virtualmente e que estavam disponíveis publicamente, inclusive em redes sociais.  

Inteligência artificial 

O deepfake usa IA para mudar o rosto de pessoas, capturados através de vídeos, sincronizando movimentos labiais e expressões, com riqueza de detalhes, com o objetivo de obter resultados muito convincentes para quem assiste ao vídeo. A técnica tem sido muito utilizada em vídeos pornográficos, com o uso de rostos conhecidos para extorquir dinheiro de alvos específicos, como celebridades ou pessoas com muito dinheiro. Ou simplesmente propagar a pornografia, inclusive a infantil.  

O risco tem aumentado à medida em que os deepfakes têm sido utilizados por estelionatários. O grande problema é a facilidade de acesso: “Crie conjuntos de dados para usar com modelos de IA que treinam e geram imagens e vídeos. Nossa versão atual permite otimização de rostos. Você pode substituir suas selfies por efeitos malucos dependendo do seu conjunto de dados, desde que haja pelo menos um rosto presente. Com o Deepfake Studio, você pode usar seu dispositivo para treinar e executar inferências ou usar nossos servidores com hardware poderoso que faz o trabalho para você”, promete uma ferramenta do Google. 

Ou seja, é possível passar a criar vídeos falsos de forma gratuita, com direito a tutorial, através de ferramentas ou sites específicos. Além das imagens, também se pode criar voz humana sintetizando a IA, usando algoritmos de aprendizado profundo. Desta forma, pode-se criar conjunto de dados de voz, com padrões de fala, entonações e até trejeitos emocionais, se assemelhando a uma voz conhecida. 

A indústria da fraude 

Os golpistas têm utilizado cada vez mais a IA e, com isso, tornam a fraude uma indústria em franco crescimento. Segundo a Forbes, consumidores norte-americanos relataram à Comissão Federal de Comércio terem perdido US$ 8,8 bilhões (mais de R$ 43 bilhões) para golpistas em 2022. Isso representa aumento de 40% em relação ao ano anterior. Grande parte das perdas ocorreu por fraudes de investimentos, mas o crescimento exponencial de golpes utilizando a IA assusta. 

Uma pesquisa realizada em junho de 2023 com 650 especialistas em segurança cibernética da Deep Instinct de New York aponta que três de cada quatro entrevistados observaram aumento nos ataques, com 85% deles atribuídos ao uso de IA.  

Deepfake e eleições 

De acordo com o site especializado Tecnoblog, a técnica também é utilizada na política. “Nas Eleições 2022, inclusive, já foi identificada a primeira deepfake com a apresentadora do Jornal Nacional Renata Vasconcellos. O vídeo, que apresenta uma edição bem-feita, utiliza a voz da jornalista para mostrar dados de uma falsa pesquisa de intenção de votos.” 

Esses conteúdos acabam chegando a pessoas que não conseguem identificar, imediatamente, as montagens, aumentando o compartilhamento de fake news e a desinformação. 

Como identificar um deepfake 

O Tecnoblog dá algumas dicas para tentar identificar uma fraude: “Ao receber um vídeo duvidoso, pare e assista-o diversas vezes, em todas as velocidades, para ficar mais fácil identificar falhas.” 

“Outro passo importante é se atentar ao rosto da pessoa no vídeo. Verifique a pele, os olhos, as sobrancelhas e a boca, por exemplo. Nessas observações, é possível identificar alguma falha, seja um piscar de olhos mais lento ou uma pele muito lisa, ou enrugada.” 

“Por último, pesquise informações sobre o conteúdo recebido (seja ele vídeo, áudio ou texto), é possível que você se depare com alguma notícia sobre o assunto na internet. Além disso, tente encontrar outra versão da publicação para conseguir comparar as falas e gestos. Resumindo, atenção máxima a todos os detalhes”, ensina o Tecnoblog. 

Bem perto 

Carla desconfiou e pediu para a suposta gerente de sua conta informar a última transação de seu cartão de crédito: a ligação fraudulenta foi encerrada abruptamente  (Arquivo Pessoal)

Os deepfakes estão mais perto da realidade das pessoas do que se pensa. “Recebi uma ligação e percebi que era golpe. Uma mulher se apresentou, falando que era do meu banco. A voz era mesmo de uma funcionária do banco onde tenho conta. Ela me pediu para bloquear com urgência minha conta por causa de fraude detectada e pediu para baixar um aplicativo, o Google Meet, para poder fazer o bloqueio na minha conta, olhando tudo pela câmera. Achei bem estranho e pedi a ela que confirmasse minha última transação no cartão de crédito, por conta de golpe. Ela confirmou todos os meus dados: meu nome, endereço, mas chegou na última compra do cartão, ela não tinha o extrato e desligou a ligação na minha cara. Sempre me preocupo com os golpes. Não coloco nenhum aplicativo com câmera para bloqueio conjunto. Isso não existe”, revela a executiva de negócios Carla Regina dos Reis. 

Ela trabalha há mais de duas décadas em empresas de cartões de crédito e atende clientes em todo o Brasil. No dia da tentativa de golpe, ela achou a voz bem familiar, mas ainda assim achou estranhas as solicitações. “Esse pedido para baixar app com câmera para orientar no cancelamento não existe e permite ao fraudador pegar senha e dados de conta e cartão. No meu caso, outra medida de segurança foi perguntar qual foi o último gasto no cartão ou movimentação da conta”, observa. Por trabalhar com cartão de crédito, a executiva tem por premissa sempre agir com cautela e segurança, sem expor qualquer dado, o que pode ser fatal para seus clientes e, neste caso, para ela mesma.  

Na verdade, a IA é uma ferramenta que pode trazer muitos benefícios para a sociedade moderna. E os deepfakes podem ser utilizados para a criação de vídeos inofensivos e até divertidos. A grande questão é que, se não houver regulamentação e um combate rigoroso às ferramentas mal utilizadas, muita gente vai amargar prejuízos ainda em 2024. Portanto, como diz a velha máxima, “desconfie de tudo, até mesmo de sua sombra.” 

Estelionato virtual é crime 

Ana Paula, especialista em direito digital, recomenda muita cautela e registrar ocorrência na Polícia Civil  (Divulgação)

Para a advogada Ana Paula Siqueira, especialista em direito digital e presidente da Associação SOS Bullying, toda forma de engodo que existe desde 1940 – quando foi publicado o Código Penal Brasileiro – e existirá no futuro, ou seja, quando alguém pense que a pessoa está recebendo informação ou fazendo algo que não está, existe a figura do estelionato. “Isso vale para o presencial, virtual e também vale para os deepfakes”. 

Ana Paula alerta para o próprio conceito da palavra. “Deep é profundo e fake é mentira. Uma mentira profunda, muito bem elaborada. Uma inteligência artificial que é exposta a outros vídeos reais de certa pessoa. A partir deste material, que é verídico, recria a voz, recria expressões faciais e até trejeitos da pessoa”.  

Segundo a advogada, os primeiros deepfakes foram notados na rede social Reddit. “Mas é importante que a gente entenda que, infelizmente, hoje estão muito mais voltados para o caráter pornográfico. Existem diversas ferramentas que são utilizadas para reconhecimento facial, de alta performance. Misturam o deep learning, que é o aprendizado da máquina, associado a uma tecnologia chamada liveness detection, criando um sistema programado para procurar formas de vida, garantindo que o vídeo que você está assistindo é real. Mas para isso é preciso contratar essas ferramentas”, revela. 

Ana Paula avalia que o golpe ocorre também no WhatsApp e o material para criar o deepfake pode ser obtido nas redes sociais. “Ele [golpista] pega essas imagens e vídeos e faz um vídeo fake falando: ‘olha, estou aqui preso, sequestrado. Deposite tantos mil reais nesta conta’. A pessoa desesperada vai e deposita. Não faça isso. Antes de qualquer coisa, precisa entrar em contato com a delegacia especializada em crimes cibernéticos ou com uma delegacia de Polícia para acionar o Grupo Antissequestro e realmente verificar se é um deepfake ou um pedido real de resgate ou socorro. É importante que você ligue, tente falar com a pessoa. Calma. Nesses momentos cruciais, é preciso calma e frieza, senão vai perder dinheiro, saúde, ficar nervoso. Consulte profissionais, como um advogado ou a defensoria pública”, ensina. 

Para a especialista, antes de qualquer medida, é fundamental registrar um boletim de ocorrência para abrir um inquérito. “Um advogado ou defensor público vai entrar com todas as medidas cautelares e preliminares para salvaguardar contas e, eventualmente, entrar com ação de dano moral ou material contra aquele que te causou prejuízo”, conclui Ana Paula.

Fonte: https://www.tribunaribeirao.com.br/site/inteligencia-artificial-e-incorporada-pelo-crime/