Por Álvaro Bufarah (*)

No estúdio, a luz vermelha não mente: o programa está no ar. Mas, numa tarde recente, a voz que encheu a faixa FM não saiu de uma garganta − veio de um modelo sintético treinado para soar como ela. Na BandNews FM, durante a licença médica de Reinaldo Azevedo, a emissora optou por converter textos do comentarista em áudio com um clone de voz, autorizado por escrito, produzido em parceria com o braço digital do Grupo Bandeirantes (Vibra) e tecnologias como a ElevenLabs. Houve protocolo, transparência e teste − e também reação do público: aprovação, curiosidade e um reparo recorrente, o “faltou o tom de indignação” que só o original sustenta. A notícia, primeiro apurada pelo Estadão, virou um pequeno rito de passagem do rádio brasileiro rumo a uma convivência prática entre ética editorial e IA.

Quase em paralelo, o mercado sinalizou que o “próximo passo” já está aqui. Em poucas semanas, duas plataformas lançaram geradores de novas vozes por prompt: a ElevenLabs, com o Voice Design v3, e a Wondercraft, com um recurso semelhante − não para clonar timbres conhecidos, mas para descrever timbres que não existem e obtê-los em segundos, com controles de idade, sotaque, intenção e até “som de rádio antigo”. O objetivo declarado: acelerar produção, ampliar possibilidades criativas e permitir a marcas e criadores desenvolverem identidades sonoras originais, multilíngues e ajustáveis ao contexto.

Entre um caso e outro, abre-se a fenda que interessa: se a clonagem autorizada resolveu um problema factual (um jornalista sem voz entregar sua análise, sem enganar a audiência), o design de vozes por prompt reescreve a gramática do quem fala − e, por consequência, do quem responde. O rádio sempre foi uma arte de presença, timbre e trajetória. A IA traz uma estética de disponibilidade infinita, moldável. O benefício é objetivo (continuidade, escala, acessibilidade, personalização); o risco, também (confusão identitária, banalização do timbre, erosão do traço humano que ancora a credibilidade).

No episódio da BandNews, a emissora explicitou o uso da tecnologia, fez governança e preservou a autoria intelectual do comentário − não houve “fantasma”: houve uma ponte entre um texto e um público, com o consentimento do dono da voz. É um modelo de uso responsável e, por ora, raro. A audiência percebeu diferença? Sim. O “quase igual” não basta quando a assinatura emocional do comunicador é parte do valor entregue; ainda assim, o experimento conseguiu manter o contrato de confiança que sustenta o rádio de opinião.

Já os geradores por prompt contam a outra metade da história: vozes que nunca existiram, mas agora existem − e podem representar marcas, personagens, narradores. É o sonho do diretor de criação (brief preciso, entrega imediata) e o pesadelo do regulador (como demarcar o que é sintético? quem responde por danos? como evitar a “aproximação indevida” de um timbre real?). As próprias empresas destacam que o objetivo não é imitar celebridades, e sim criar identidades originais; na prática, a riqueza de controle (emoção, ritmo, sorriso na voz) aproxima o resultado de zonas cinzentas de confusão perceptiva.

(Crédito: Voicefy)

Há, portanto, três linhas de cuidado que o setor não pode terceirizar aos algoritmos:

  1. Transparência editorial: avisar o ouvinte quando um conteúdo usar voz sintética; documentar consentimentos; registrar cadeia de produção. O caso da BandNews indica um caminho: autorização expressa, protocolos internos e comunicação pública do experimento.
  2. Governança de identidade sonora: marcas e veículos que criarem “vozes de marca” por IA precisam de guias de uso, watermarking quando possível e trilhas de auditoria. As plataformas, por sua vez, já oferecem controles finos e modos distintos (realista vs. personagem), o que ajuda a separar jornalismo de entretenimento − mas exige política clara de cada emissora.
  3. Curadoria humana: a síntese pode ler, mas quem assina a intenção continua sendo gente. No rádio opinativo, o timbre carrega ethos; no jornalismo, credibilidade é inseparável da responsabilidade. O uso mais promissor da IA é o que não substitui o jornalista − apenas dá continuidade, acessibilidade e escala ao trabalho dele.

Se a primeira crônica foi sobre uma voz conhecida “voltando” de licença com ajuda de silício, a segunda é sobre milhões de vozes inéditas nascendo de frases bem escritas. Entre elas, o rádio reencontra sua vocação: ser presença. A tecnologia resolve o gargalo da produção; a editoria resolve o da confiança. O desafio não é técnico − é de projeto. Sem projeto, a IA vira truque; com projeto, vira linguagem.

No fim das contas, o teste decisivo segue no ar: não é “se parece”, é “se convence”. Porque o ouvinte − este velho especialista em timbre, silêncio e subtexto − continua sendo, apesar de tudo, o nosso melhor algoritmo.


Fontes:

ZYDIGITAL − “Inteligência artificial dá voz a Reinaldo Azevedo durante licença médica na BandNews FM” (28 set. 2025), com detalhes sobre autorização, protocolos internos, uso da ElevenLabs/Vibra e reações de audiência. zydigital.com.br

ZYDIGITAL − “Plataformas de IA lançam recursos para criar novas vozes através de prompts” (14 set. 2025), com especificações do ElevenLabs Voice Design v3, modos Realistic e Character, e lançamento do recurso equivalente na Wondercraft. zydigital.com.br

ElevenLabs Introduces Voice Design − A ElevenLabs lançou o recurso Voice Design, permitindo gerar vozes únicas a partir de prompts textuais (idade, sotaque, tom, etc.). MarkTechPost

ElevenLabs now lets you create a custom voice from a text prompt − Reportagem no Tom’s Guide sobre a funcionalidade de criar vozes customizadas textualmente. Tom’s Guide

Friend or Faux: The Ethics of AI Voice Training and Why It Matters − Análise sobre consentimento e os dilemas éticos da clonagem de voz. Kits AI

Ethics in AI: Making Voice Cloning Safe − Aborda práticas recomendadas como consentimento explícito, compensação e controle ético. respeecher.com

Why Broadcasters Are Freaking Out About AI Voice Cloning − Radiodifusores comentam os cuidados éticos e técnicos ao usar clonagem de voz. Podcraftr

People are poorly equipped to detect AI-powered voice clones − Estudo que demonstra a dificuldade das pessoas em distinguir vozes reais de vozes geradas por IA; 80% das vezes atribuem a voz clonada à pessoa original. arXiv

Álvaro Bufarah

Você pode ler e ouvir este e outros conteúdos na íntegra no RadioFrequencia, um blog que teve início como uma coluna semanal na newsletter Jornalistas&Cia para tratar sobre temas da rádio e mídia sonora. As entrevistas também podem ser ouvidas em formato de podcast neste link.

(*) Jornalista e professor da Fundação Armando Álvares Penteado (Faap) e do Mackenzie, pesquisador do tema, integra um grupo criado pela Intercom com outros cem professores de várias universidades e regiões do País. Ao longo da carreira, dedicou quase duas décadas ao rádio, em emissoras como CBN, EBC e Globo.

" "
0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comentários
Inline Feedbacks
View all comments