Por Álvaro Bufarah (*)

Há um novo som no ar − e, ironicamente, ele não vem de uma voz humana. Em setembro de 2025, a startup norte-americana Inception Point AI, fundada por Jeanine Wright (ex-Wondery), anunciou que pretende transformar o mercado de audiocasts em uma indústria de produção em massa. A promessa: gerar milhares de episódios por semana, a menos de um dólar cada, com narradores, roteiros e personalidades totalmente artificiais

A ideia parece saída de um episódio de Black Mirror, mas já é uma operação real: mais de 5.000 programas estão ativos sob a Quiet Please Podcast Network, com 3.000 novos episódios semanais e 10 milhões de downloads acumulados em apenas um ano

O modelo é direto: inteligência artificial identifica temas populares via Google e redes sociais, gera roteiros com ferramentas como OpenAI, Claude, Gemini e Perplexity, e distribui o conteúdo narrado por 184 agentes de IA personalizados, entre eles personagens como Claire Delish, uma chef de IA, e Oly Bennett, um comentarista esportivo digital. Tudo produzido por uma equipe de apenas oito pessoas.

A fundadora Wright defende o modelo com fervor: “Quem chama isso de lixo de IA é um ludita preguiçoso”, declarou ao The Hollywood Reporter. Para ela, não se trata de substituir humanos, mas de explorar nichos negligenciados: boletins de pólen, biografias locais, previsões meteorológicas − o conteúdo hipersegmentado que dificilmente justificaria uma equipe tradicional

Mas o que está em jogo vai além da eficiência. O audiocast − híbrido entre podcast e áudio programático − começa a operar sob a lógica de um mercado automatizado, onde a escuta é o produto e o som, uma variável de escala.

Esse movimento acompanha uma tendência mais ampla no setor de mídia. Segundo a Deloitte Media Trends 2025, 72% das empresas de conteúdo planejam automatizar parte da produção nos próximos dois anos, e 41% já utilizam IA para edição ou locução básica. No Spotify, por exemplo, o uso de vozes sintéticas em anúncios cresceu 215% entre 2023 e 2025, enquanto o custo médio de produção caiu quase 70%.

A consultoria PwC Global Entertainment Outlook 2025 reforça: o mercado global de áudio digital deve movimentar US$ 41 bilhões até 2027, impulsionado pela personalização algorítmica. Plataformas como Aflorithmic, Play.ht e ElevenLabs consolidam esse novo ecossistema, criando um catálogo de “personalidades sonoras” prontas para aluguel − um mercado paralelo de vozes sob demanda.

Por outro lado, um estudo do Reuters Institute (2024) alerta para o risco da “inflação de conteúdo indistinguível”: quanto mais automatizada a produção, maior a dificuldade do ouvinte em diferenciar o que é editorial, promocional ou meramente sintético.

(Crédito: DALL-E, IT BOLTWISE)

No modelo da Inception Point AI, lucrar não depende de audiência massiva. Um episódio pode se pagar com apenas 20 ouvintes, graças ao custo ultrabaixo. Isso gera o que o pesquisador Nick Couldry chamaria de data colonialism: transformar a atenção e o comportamento humano em insumo de um maquinário de automação. Cada clique, cada escuta, vira matéria-prima para novos episódios “otimizados” − criados para performar bem, não para comunicar melhor.

O perigo não está em usar IA para criar, mas em não criar mais nada fora dela. A própria Wright admite que metade dos “personagens” de sua rede são puramente artificiais, mas sua meta é “fazer com que pareçam mais humanos do que os humanos”.

A automatização da voz levanta questões éticas e estéticas. O Stanford HAI Report 2025 destaca a necessidade de rótulos claros para conteúdos gerados por IA − um tipo de “rotulagem sonora”, equivalente às advertências em vídeos deepfake. A União Europeia avança nesse sentido: o AI Act, aprovado em 2024, exigirá que produções automatizadas revelem sua origem quando usadas comercialmente.

Enquanto isso, experimentos de audio deepfake detection da MIT CSAIL mostram que 83% dos ouvintes não percebem diferença entre vozes humanas e sintéticas em áudios de até 90 segundos. O desafio, portanto, não é técnico: é ético e editorial.

O rádio nasceu como uma arte de presença; o podcast, como uma arte de intimidade. O audiocast de IA propõe algo novo − e perigoso: a arte da replicação. O que antes era voz humana agora é fluxo de dados. A criação deixa de ser um ato para virar um processo.

E talvez seja inevitável. O conteúdo em escala não é apenas uma ambição de startups, mas uma resposta ao comportamento de consumo fragmentado. Queremos sempre mais − e mais rápido. A IA responde a esse desejo com perfeição industrial.

Mas o preço do “tudo agora” é o silêncio da autoria. O som continua − mas a voz, essa, corre o risco de se diluir.

 

Fontes de Referência

  • Castnews − “O futuro do audiocast é a produção em massa por IA, segundo nova startup” (2025).
  • The Hollywood Reporter − “AI startup Inception Point bets on mass-produced audiocasts” (Caitlin Huston, 2025).
  • Deloitte Media Trends 2025 − Automação e IA na produção audiovisual.
  • PwC Global Entertainment & Media Outlook 2025-2029.
  • Reuters Institute Digital News Report 2024.
  • Stanford HAI Report 2025 − Ethics of Generative Audio.
  • MIT CSAIL Deepfake Audio Detection Study (2024).
  • ElevenLabs e Play.ht − Relatórios corporativos 2024–2025 sobre crescimento da produção sintética.
Álvaro Bufarah

Você pode ler e ouvir este e outros conteúdos na íntegra no RadioFrequencia, um blog que teve início como uma coluna semanal na newsletter Jornalistas&Cia para tratar sobre temas da rádio e mídia sonora. As entrevistas também podem ser ouvidas em formato de podcast neste link.

(*) Jornalista e professor da Fundação Armando Álvares Penteado (Faap) e do Mackenzie, pesquisador do tema, integra um grupo criado pela Intercom com outros cem professores de várias universidades e regiões do País. Ao longo da carreira, dedicou quase duas décadas ao rádio, em emissoras como CBN, EBC e Globo.

" "
0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments