Marisa Maiô é uma apresentadora que não existe, no comando de um programa de auditório que não é real, mas que já alcançou milhares de seres humanos, de acordo com o número de visualizações de seus vídeos em redes sociais. Gerada por ferramenta de inteligência artificial hiper-realista, a produção extrapolou o feed das plataformas, inspirou imitações no mundo real, revelou pelo menos uma sósia de carne e osso, virou notícia e serviu de garota-propaganda para uma grande marca brasileira.
São muitas as misturas e combinações em torno de um conteúdo que nasceu como sátira, graças ao talento do criador de conteúdos Raony Phillips, num exemplo de como as fronteiras da informação estão cada vez mais turvas. Nesse caso, vemos como as tecnologias podem ser aliadas da criatividade, resultando em um material debochado, provocativo e engraçado.
Mas, como outras ferramentas, as IAs também são usadas de forma maliciosa, com o propósito de manipular opiniões ou mascarar golpes —situações em que a confusão entre o que é ou não real pode causar diversos prejuízos. Daí a necessidade de encará-las de maneira sempre crítica.
Entender como as IAs são treinadas, como respondem a comandos, seu potencial e seus problemas, incluindo o impacto ambiental, não é algo reservado para programadores e cientistas da computação. Toda a sociedade ganha ao desenvolver um conjunto de habilidades para analisar criticamente os vídeos, as imagens e os textos que chegam até nós a todo instante, o que pode ser fomentado com iniciativas de educação midiática.
Ficou para trás o tempo em que era possível distinguir material gerado por IA a partir de uma lista de checagem que se apegava, essencialmente, a aspectos técnicos. Não é mais suficiente avaliar, por exemplo, se o movimento dos lábios está sincronizado com o som ou se o contorno de mãos e outras extremidades do corpo é irregular em uma imagem ou vídeo. Tecnologias cada vez mais sofisticadas tendem a eliminar essas pistas visuais completamente, demandando um exame crítico do contexto, de como nossas emoções podem estar sendo manipuladas e, em última instância, uma postura permanentemente atenta.
Entender o que está em jogo também contribui para discussões mais assertivas sobre como regular as IAs e o que cobrar das empresas que as desenvolvem ou por onde suas produções circulam.
Esta semana, o Oversight Board da Meta, uma espécie de conselho supervisor independente, criticou a postura inicial do Facebook de manter na plataforma uma publicação que usava imagens do ex-jogador Ronaldo manipuladas por IA para anunciar um jogo online. O post original, denunciado por um usuário, só foi removido após o Oversight Board ser acionado.
Na decisão, o conselho também alertou que os conteúdos falsos gerados por IA "estão aumentando globalmente, incluindo os que envolvem figuras públicas para promover campanhas políticas fraudulentas e golpes financeiros".
A educação midiática precisa estar no radar —e na prática— de todos nós.