Natalia Viana
Diretora Executiva da Agência Pública
Se você gosta de navegar na web para encontrar conteúdo que te distraia, informe sobre uma marca ou te deixe a par das últimas notícias ou fofocas, é bem possível que esteja lendo conteúdo feito por robôs. E isso não significa que você é diferente de qualquer pessoa. Hoje, uma parcela significativa dos textos, vídeos e até da música consumida online é produzida por Inteligência Artificial (IA).
Em outubro de 2025, um estudo da empresa de Graphite, que desenvolve códigos usando IA, demonstrou que a quantidade de conteúdo em texto produzido por ferramentas como Chat GPT em inglês já tinha ultrapassado os conteúdos humanos.
Analisando 65 mil URLs publicadas entre janeiro de 2020 e maio de 2025, selecionadas randomicamente, os pesquisadores conseguiram detectar quais eram provenientes de IA. No total, eram 52%, contra 48% de textos feitos por seres humanos.
Outros dados reforçam esse quadro. Outra empresa que trabalha com IA, Originality, levantou 8.795 postagens no Linkedin de janeiro de 2018 a outubro de 2024, e detectou um aumento de 189% em posts escritos por IA desde o lançamento do Chat GPT. No final de 2024, 54% dos posts longos na Plataforma eram escritos por IA. Mais uma vez, o estudo foi feito com textos em inglês
No site Medium, uma espécie de blog que também é popular aqui no Brasil, a quantidade de conteúdo gerado por IA aumentou de menos de 2% para 37% entre 2022 e 2024, de acordo com um estudo da Universidade de Hong Kong publicado em 2025.
A proliferação de conteúdo feito por IA tem sido, inclusive, uma dor de cabeça para plataformas, que tentam barrar novas criações. O Spotify impôs novas regras em setembro do ano passado que incluem filtros mais potentes contra spam e proibição de imitação de artistas, além de exigir que os músicos sejam transparentes se usarem IA.
Trata-se de um problema grave e, talvez, impossível de solucionar. Uma reportagem do Guardian apontou que 10% dos canais que mais crescem no Youtube publicam apenas vídeos feitos por IA. Meses depois, em novembro, o TikTok revelou que há mais de 1 bilhão de vídeos sintéticos – criados por robôs – na plataforma, resultado do lançamento de ferramentas que deixaram trivial criar um vídeo com IA, como o Sora, da Open IA, e o Veo 3, do Google. Para tentar barrar essa enxurrada, o TikTok prometeu permitir que os próprios usuários decidam quanto conteúdo sintético querem ver. Mas quem vai gastar tempo lendo as letrinhas miúdas e fazendo gerenciamento dessas permissões?
O novo fenômeno já tem até nome em inglês, “AI slop”, ou seja, conteúdo sintético de baixa qualidade. Inicialmente referente à mistura de restos de comida que se usa para alimentar porcos, o termo tem o mesmo sentido de “spam”, aquelas correntes de email, ou lixo eletrônico. Não à toa, a palavra “slop” foi escolhida como a palavra de 2025 pelo dicionário Merriam-Webster e pela Sociedade do Dialeto Americano.
Por aqui, vou traduzi-la como “gororoba de IA” e vou usar assim daqui pra frente.
Por mais que as Big Techs insistam que conteúdo checado, apurado e feito por humanos-jornalistas não tem valor a ponto de merecer pagamento por direitos autorais – como demonstramos na investigação A Mão Invisível das Big Techs-, existe uma variável em todas as redes sociais e programas de busca que é inestimável: a confiabilidade.
As pessoas navegam no Google, TikTok e no Youtube porque acreditam que estão vendo informações que são reais. Claro, todo mundo sabe que há uma minoria de mentiras, em especial aquelas que contradizem a sua visão de mundo.