A OpenAI disse que interrompeu uma campanha de influência iraniana que usou o ChatGPT para criar notícias falsas e postagens em mídias sociais visando americanos.
Aqui está o que sabemos
A empresa identificou e bloqueou contas que criaram conteúdo para cinco sites que se passavam por veículos de notícias e espalhavam mensagens polarizadas sobre questões como a campanha presidencial dos EUA, os direitos LGBTQ+ e a guerra em Gaza.
A operação, apelidada de Storm 2035, estava ligada ao governo iraniano e incluía uma dúzia de contas no X e uma no Instagram. A OpenAI observou que a operação não recebeu suporte significativo, pois a maioria das postagens não recebeu curtidas, repostagens ou comentários.
A operação também incluiu criação de conteúdo sobre a presença de Israel nas Olimpíadas, política venezuelana, direitos das comunidades latino-americanas e independência escocesa. A OpenAI enfatizou que a operação tentou jogar para ambos os lados do governo dos EUA, mas não recebeu apoio de nenhum dos lados.
Fonte: IA aberta
A OpenAI detalhou que os conteúdos gerados por esta campanha eram sofisticados, utilizando linguagem e narrativas apropriadas para engajar o público-alvo. Algumas das postagens procuraram explorar divisões políticas existentes nos Estados Unidos, com o intuito de exacerbar tensões sociais. A empresa sublinhou a importância de identificar e agir contra esse tipo de desinformação, que pode ser muito prejudicial em contextos eleitorais.
De acordo com fontes internas da OpenAI, a detecção desta atividade irregular foi possível graças às avançadas tecnologias de monitorização e análise de dados que a empresa implementou. Isso inclui algoritmos que pesquisam padrões de comportamento em redes sociais, permitindo assim uma resposta rápida a campanhas potencialmente nocivas. Como parte desta abordagem proativa, a OpenAI também colabora com especialistas em segurança cibernética e investigadores de desinformação.
Esta operação não é única, pois o uso de plataformas de inteligência artificial para gerar conteúdo tem vindo a ser uma preocupação crescente entre as autoridades e organismos de regulação. Há, de facto, um número crescente de exemplos em que tecnologias semelhantes têm sido utilizadas para manipular a opinião pública, seja para fins políticos, económicos ou sociais.
Além disso, a OpenAI frisou que a luta contra a desinformação é um esforço contínuo, e que se compromete a manter a transparência e a responsabilidade em relação aos seus produtos e serviços. Em resposta ao incidente, a empresa também anunciou que irá reforçar as suas diretrizes e práticas para evitar que suas ferramentas sejam utilizadas para atividades fraudulentas ou enganosas no futuro.
O impacto da desinformação gerada por inteligência artificial não se limita apenas à política. Questões como a saúde pública, a segurança e os direitos humanos podem ser afetadas pelas narrativas propagadas através de conteúdos manipulados. Assim, é fundamental que as empresas de tecnologia, junto com os governos e a sociedade civil, trabalhem em conjunto para mitigar os riscos associados.
A OpenAI também planeia realizar uma série de workshops e seminários com o objetivo de educar o público e os utilizadores sobre a desinformação e como reconhecê-la. A sensibilização é vista como uma peça chave na armadilha contra a desinformação, especialmente num momento em que mais pessoas estão a confiar em plataformas digitais para obter notícias e informações.
Num mundo cada vez mais interligado, onde a informação circula à velocidade da luz, é crucial manter um diálogo aberto sobre as implicações éticas e sociais da inteligência artificial e da sua utilização. E, à medida que as tecnologias continuem a evoluir, as medidas de segurança e responsabilização precisarão acompanhar esse avanço.