A inteligência artificial do Google tem colocado links para sites de golpes e malware nas referências das respostas geradas. Em testes, a ferramenta direcionou usuários a páginas com extensões suspeitas do Chrome, sorteios falsos de iPhone e outras fraudes. E este não é o único exemplo de um serviço que piorou desde a ascensão da IA: o Facebook está ficando cada vez mais cheio de imagens artificiais, também com a intenção de lesar usuários.
O problema do Google foi notado pela consultora de SEO Lily Ray e confirmado pelo site Bleeping Computer. Ele acontece na Search Generative Experience (SGE), recurso do buscador que usa IA generativa para escrever um texto com informações relacionadas ao que o usuário pesquisou. A SGE lista os textos que usou de referência para escrever aquela resposta. É aqui que mora o problema: o Google tem colocado links para páginas maliciosas ou de spam entre as referências.
Talvez você até já tenha visto algumas dessas páginas. Ao fazer uma busca, às vezes elas aparecem entre os resultados, como se fossem sites legítimos. Em alguns casos, até se aproveitam de domínios confiáveis, como de prefeituras ou publicações acadêmicas. Ao clicar, porém, o usuário não encontra nada daquele conteúdo. É como se aquele texto só existisse para o robô do buscador.
O Google, até agora, não achou um jeito de resolver este tipo de ataque nos resultados de pesquisa. Com a SGE, a situação ficou pior: agora, os sites nocivos aparecem também como referências de um texto gerado por IA, dando mais destaque e até credibilidade a eles, o que pode levar mais gente a clicar.
Nos testes do Bleeping Computer, o buscador mandou um pouco de tudo como referência às informações: sites falsos que pedem permissão para enviar notificações, mas só enviam tentativas de golpes; páginas se passando por antivírus; sorteios falsos de iPhone.
Curiosamente, isso aconteceu comigo há alguns dias. Ao pesquisar se era necessário visto para entrar na Inglaterra, o Google gerou uma resposta automática, e apontou o site da Câmara Municipal de Picos (PI) como fonte da informação. Achei estranho e cliquei: fui parar em uma propaganda do “jogo do tigrinho”.
Facebook está cheio de imagens falsas geradas por IA
Enquanto a IA do Google se enrola e recomenda sites não confiáveis, o Facebook também está pior por causa da tecnologia. Diferentemente do buscador, porém, aqui quem está usando ferramentas de IA, como Midjourney e Stable Diffusion, são os próprios golpistas.
Um estudo da Universidade de Stanford (Estados Unidos) analisou 120 páginas que publicaram, no mínimo, 50 imagens geradas por IA cada. Os pesquisadores identificaram que algumas delas agem de modo coordenado. Páginas de spam usam táticas de clickbait para levar usuários a sites de qualidade duvidosa, gerar visualizações e ganhar dinheiro de anunciantes. Já as páginas de golpes tentam vender produtos que não existem ou levam os usuários a dar dados pessoais.
Os pesquisadores observaram também que estas imagens geradas por IA são recomendadas pelo algoritmo do feed do Facebook, fazendo com que elas apareçam até para quem não segue as páginas que publicam este tipo de conteúdo. O estudo relata que muitos comentários nestas imagens dão a entender que as pessoas acreditaram que as imagens eram reais.
Já faz alguns anos que o Facebook vem sendo usado por um público com mais idade, já que adolescentes e jovens migraram para outras redes, como o Instagram e o TikTok. Uma reportagem do site The Daily Beast menciona algumas pesquisas que apontam que adultos e idosos têm mais dificuldades para identificar imagens e áudios criados por IA. Isso faz com que eles sejam os alvos preferidos dos golpistas.
Andrea Henderson, professora da Universidade do Mississippi (EUA), diz que é importante conversar com pessoas de idade mais avançada para informar o que é a IA generativa e quais são os sinais de que uma imagem foi feita usando uma dessas ferramentas. “Precisamos ter mais conversas públicas sobre este assunto, incluindo todas as gerações”, avalia.
Com informações: Bleeping Computer, The Daily Beast
Receba mais sobre Inteligência Artificial na sua caixa de entrada
* ao se inscrever você aceita a nossa política de privacidade