Notícias

OpenAI interrompe com sucesso a desinformação iraniana nas redes sociais

OpenAI encerra campanha iraniana que usou indevidamente o ChatGPT para criar artigos falsos

A OpenAI anunciou a interrupção bem-sucedida de uma campanha liderada pelo Irã que usou o ChatGPT para criar notícias falsas e postagens em mídias sociais. A organização, conhecida como Storm 2035, espalhou mensagens polarizadoras em cinco sites direcionados ao público dos EUA.

Aqui está o que sabemos

A empresa identificou e bloqueou contas que espalhavam desinformação sobre tópicos como a eleição presidencial dos EUA, direitos LGBTQ+ e a guerra em Gaza. A operação também incluiu contas no X e no Instagram, que, no entanto, não conseguiram atingir um impacto significativo, pois a maioria das postagens recebeu visualizações e curtidas mínimas.

A OpenAI avaliou a ameaça no nível 2 na escala da Brookings Institution, o que indica o impacto limitado da campanha.

O conteúdo incluía notícias falsas sobre Donald Trump e Kamala Harris, as Olimpíadas, Venezuela, direitos latino-americanos e independência escocesa. A campanha também adicionou comentários sobre moda e beleza, possivelmente para aumentar a autenticidade.

O caso surge após relatos de um ataque cibernético iraniano às campanhas de Harris e Trump, que incluiu phishing. O FBI disse que não havia evidências de um ataque à campanha de Harris na época.

Fonte: Bloomberg

Embora a operação da Storm 2035 tenha sido inibida, o uso de tecnologia avançada por atores estatais para disseminar desinformação permanece uma preocupação crescente. As técnicas utilizadas por esses grupos frequentemente incluem a criação de conteúdo que parece autêntico e relevante, o que torna a identificação de notícias falsas mais desafiadora para o público em geral.

Os especialistas em segurança cibernética alertam que as campanhas de desinformação podem ser projetadas para capitalizar em momentos de tensão ou polarização social, como eleições ou crises políticas. Neste contexto, a OpenAI, ao tomar medidas contra as contas associadas, não apenas protege a integridade das informações, mas também defende a confiança em plataformas digitais.

Além disso, a intervenção da OpenAI levantou questões sobre a responsabilidade das grandes empresas tecnológicas no monitoramento e na regulação do uso de suas ferramentas, como o ChatGPT. A colaboração entre empresas e governos pode ser fundamental para combater a desinformação e assegurar que ferramentas poderosas não sejam mal utilizadas.

Os algoritmos de inteligência artificial têm a capacidade de gerar conteúdo de alta qualidade que pode ser difícil de distinguir de informações legítimas. Isso contextualiza a importância de desenvolver métodos eficazes de detecção e verificação de informações, especialmente quando se lida com temas sensíveis que podem influenciar a opinião pública.

A situação também destaca a necessidade de literacia digital entre os cidadãos, para que possam identificar e questionar a autenticidade das informações que encontram online. Campanhas educativas que informem os usuários sobre como discernir conteúdo verdadeiro de falso podem ser essenciais para fortalecer a resiliência da sociedade contra a manipulação informativa.

Por outro lado, a atenção do público e dos media em relação a este tipo de desinformação pode criar um efeito de boomerang, onde, ao tentarem desmascarar conteúdos falsos, acabam por dar mais visibilidade a essas narrativas. Assim, a abordagem deve ser cuidadosa e ponderada, evitando amplificar mensagens indesejadas.