IA pode ajudar a impedir a disseminação de notícias falsas

click fraud protection
  • Novas técnicas de IA podem ajudar a identificar e combater a desinformação online.
  • Deepfakes gerados por IA tornam os golpes de voz e vídeo mais perigosos.
  • A criptografia também pode impedir informações falsas na web.
Um hacker encapuzado usando um smartphone.
Hacker espalhando notícias falsas.

Igor Stevanovic / 500px / imagens Getty

A desinformação é um problema crescente online, mas a ajuda pode estar a caminho graças à inteligência artificial (IA).

Estudos sugerem que as técnicas de aprendizado de máquina e a tecnologia blockchain podem combater o proliferação de notícias falsas. A nova abordagem permite que os criadores de conteúdo se concentrem no combate à desinformação em áreas onde a desinformação tem maior probabilidade de causar danos públicos significativos. Especialistas dizem encontrar métodos eficazes para combater a desinformação é de extrema importância.

"Contamos com a informação para tomar decisões informadas", Manjeet Rege, diretor do Centro de Inteligência Artificial Aplicada da Universidade de São Tomás, disse Lifewire em uma entrevista por e-mail. “Portanto, quando os consumidores não conseguem distinguir entre informações verdadeiras e falsas, eles podem ficar mais suscetíveis a tomar decisões ruins. Com o advento das mídias sociais, as notícias falsas podem se tornar virais rapidamente e potencialmente levar a reações instintivas do público."

A IA está criando ou encontrando notícias falsas?

Um artigo produzido por pesquisadores da Escola de Administração da Universidade de Binghamton aconselhou o emprego de sistemas de aprendizado de máquina para avaliar o dano potencial do conteúdo em seu público e identificar os infratores mais flagrantes. Por exemplo, durante o pico da pandemia de COVID-19, foram identificadas notícias falsas que promoviam tratamentos não verificados em vez de vacinas.

"É mais provável que nos preocupemos com notícias falsas se elas causarem danos que afetem os leitores ou o público. Se as pessoas percebem que não há danos, é mais provável que compartilhem a desinformação", disse Thi Tran, professor de sistemas de informação gerencial que liderou a pesquisa, no comunicado à imprensa. "Os danos vêm se o público age de acordo com as alegações da desinformação ou se recusa a ação adequada por causa disso. Se tivermos uma maneira sistemática de identificar onde a desinformação causará mais danos, isso nos ajudará a saber onde focar na mitigação."

À medida que a IA se desenvolve e se torna mais sofisticada, fica mais difícil para os indivíduos distinguir o que é real e o que não é. Sameer Hajarnis, diretor de produtos da OneSpan, uma empresa de verificação digital, observou em um e-mail.

“Por exemplo, deepfakes gerados por IA tornam o phishing de voz e vídeo muito mais perigoso”, acrescentou. “Os criminosos que usam ataques de engenharia social estão aumentando, e a ameaça representada pelos deepfakes agora é generalizada”.

Em um incidente recente, Martin Lewis, um proeminente defensor do financiamento ao consumidor do Reino Unido, aparentemente endossou uma oportunidade de investimento de Elon Musk. No entanto, mais tarde foi revelado que o vídeo era, na verdade, um deepfake gerado por IA, e a oportunidade de investimento acabou sendo uma farsa fraudulenta, sem nenhum apoio real de Lewis ou Musk.

Parte do conteúdo gerado por IA pode parecer muito realista para um ser humano, mas pode ser identificado como falso com bastante facilidade por um modelo de IA.

Muitas abordagens para combater a desinformação

A abordagem da Universidade de Binghamton não é a única maneira de ajudar a combater notícias falsas. Enquanto IA pode gerar áudio falsificado e vídeos, também pode ser usado para detectar autenticidade, disse Rége.

“Na verdade, parte do conteúdo gerado por IA pode parecer muito realista para um ser humano, mas pode ser identificado como falso com bastante facilidade por um modelo de IA”, acrescentou.

Outro método é fornecer prova de personalidade usando criptografia, especialista em segurança cibernética e membro do IEEE Raposa de Yale disse em uma entrevista por e-mail. Se você deseja gravar um vídeo e colocá-lo nas redes sociais, a melhor coisa a fazer é codificar o vídeo com um chave pública.

"A partir daí, o vídeo tem a chave ou não", acrescentou. "Se tiver a chave codificada, é muito fácil detectá-la em qualquer plataforma, mesmo sem usar IA. Ele pode ser executado em praticamente qualquer dispositivo, em um navegador, etc. Se o vídeo estiver sendo postado em um telefone eleito, ele terá a chave e passará nos testes de verificação."

Uma tecla Fake News em um teclado de computador.
Notícias falsas.

Peter Dazeley / Getty Images

As notícias falsas são um problema político e cultural, bem como uma questão técnica, Subramaniam Vincent, diretor do programa de jornalismo e ética da mídia no Markkula Center for Applied Ethics em Universidade Santa Clara, disse em um e-mail.

"Será necessária colaboração e construção de consenso entre os atores da indústria de IA e empresas de mídia de notícias, e também gerando um novo impulso para a cultura democrática na política e nas eleições a montante da tecnologia", ele adicionado. “Tudo isso tornará mais fácil combater a reação inevitável que os malfeitores criam quando as ferramentas de IA são usadas para detectar, rotular e interromper a distribuição de notícias falsas. A IA é um elemento poderoso, mas não o único, na maior confusão de uma batalha pela democracia na América e em outros lugares."