Por Álvaro Bufarah (*)
Há pouco tempo ainda discutíamos se a inteligência artificial seria capaz de compor como um humano. Hoje a pergunta se inverteu: será que nós, humanos, ainda conseguimos reconhecer o que é nosso?
Uma pesquisa realizada pela Ipsos para a plataforma francesa Deezer jogou luz sobre esse impasse contemporâneo: 97% das pessoas não conseguem mais diferenciar música inteiramente gerada por IA de músicas criadas por artistas reais. O dado parece ficção científica – mas já nasce velho, de tão rápido que o fenômeno avança. Em oito países, incluindo o Brasil, a incapacidade de perceber a diferença não apenas surpreendeu: desconfortou mais da metade dos entrevistados.
É como se nossos ouvidos, treinados por décadas de sobrecarga sonora, tivessem finalmente sucumbido a uma sutileza sintética que imita com perfeição o que antes considerávamos único, humano, irrepetível.
Os resultados revelam desconforto, mas não evitam um paradoxo: ao mesmo tempo em que 51% temem uma “explosão de músicas de baixa qualidade” e quase dois terços acreditam que a IA diminuirá a criatividade, o consumo de faixas feitas por IA cresce a uma velocidade vertiginosa.
Segundo a Deezer, em janeiro de 2025, uma em cada dez músicas tocadas diariamente era gerada por IA. Dez meses depois, esse número chegou a 40% do catálogo diário – cerca de 40 mil músicas por dia.
E aqui mora uma ironia de mercado: as pessoas não querem ser enganadas, mas continuam clicando.
A viralização do “grupo” The Velvet Sundown no Spotify ilustra esse movimento. Sem rosto, sem história, sem bastidores, o projeto atraiu milhões de plays antes de admitir que não passava de código. A música mais popular, com mais de 3 milhões de execuções, fez mais sucesso do que boa parte dos artistas independentes que lutam para pagar suas contas.

É uma revolução silenciosa – e profundamente industrial.
O ecossistema de streaming, que há dez anos parecia dominado por artistas independentes e suas estratégias caseiras de distribuição, hoje se tornou o laboratório definitivo da música sintética.
Plataformas como Suno, Udio, Stable Audio e a Jukebox da OpenAI transformaram a criação musical em um processo tão rápido quanto redigir uma mensagem. Em minutos, qualquer pessoa produz um single com arranjos impecáveis, harmonias coesas e uma voz nunca antes existente.
E não se trata apenas de hobby:
- A Suno já afirmou possuir modelos capazes de compor músicas completas de forma inteiramente autônoma.
- A Udio, financiada por ex-executivos do Spotify, tornou-se referência entre produtores digitais.
- A Google DeepMind anunciou modelos multimodais que geram música a partir de imagens, sentimentos ou breves descrições.
A estética da IA não apenas imita: ela aprende padrões, gera infinitas combinações e cria um mercado paralelo de músicas prontas para trilhas, vídeos, jingles e até artistas sintéticos – tudo sem contrato, sem desgaste emocional, sem imprevistos.
Se por um lado o público confessa desconforto – 80% querem rótulos claros informando quando uma faixa é gerada por IA –, por outro, a aceitação plena do produto sintético pressiona a indústria a se reorganizar.
Em resposta ao caso Velvet Sundown, o Spotify anunciou esforços para um código voluntário de transparência, alinhado aos debates que correm na União Europeia e nos EUA sobre rotulagem obrigatória de conteúdo gerado por IA.

Mas é tarde para conter a maré. O que está em disputa não é apenas a autoria: é a ideia de autenticidade.
Se o público não nota a diferença… existe diferença?
É uma pergunta que incomoda criadores, produtores e plataformas, mas que precisa ser enfrentada com honestidade.
A música sempre foi tecnologia. Dos instrumentos ancestrais à síntese eletrônica, da fita magnética ao autotune, toda inovação foi recebida com algum grau de desconfiança. Mas a IA inaugura uma etapa qualitativamente distinta: não é mais uma ferramenta, mas um agente criativo.
A promessa de abundância – trilhas infinitas, músicas sob demanda, artistas que nunca dormem – convive com um temor real:
- Sobrevivência econômica dos artistas.
- Erosão da cultura autoral.
- Homogeneização estética.
- Uso indevido de vozes e estilos de artistas reais.
Em 2024, por exemplo, a polêmica envolvendo Drake e o deepfake de voz criado pelo modelo Ghostwriter reacendeu debates globais sobre direito de imagem sonora. No Brasil, casos de clones vocais de artistas sertanejos começaram a surgir em plataformas de anúncios, criando disputas jurídicas inéditas.
A música, antes refúgio da expressão humana, agora precisa conviver com sua própria sombra algorítmica.
Talvez o maior risco não seja a IA criar música demais, mas criarmos um mundo no qual não sabemos mais quem estamos aplaudindo.
No entanto, o cenário também guarda uma oportunidade: quanto mais a IA se torna competente, mais valorizamos o que ela não consegue imitar – imperfeições, hesitações, respirações, a assinatura invisível do humano.
Se a IA pode compor como nós, talvez seja hora de nós compormos como nunca.
Fontes de pesquisa
Fonte primária fornecida pelo usuário
- AFP / CBS News. “As pessoas não conseguem mais diferenciar música gerada por IA de algo real, mostra pesquisa.” (12 nov. 2025).
Fontes adicionais
- Deezer. Relatórios oficiais sobre conteúdo gerado por IA e políticas de rotulagem. 2024–2025.
- Ipsos Global. AI & Music Consumer Report. 2024.
- Spotify Newsroom. Position on AI-generated music and transparency commitments. 2024–2025.
- The Verge. “AI music is exploding – and reshaping the streaming ecosystem” 2024.
- Wired Magazine. “Your playlist is now synthetic” 2024.
- MIT Technology Review. “Why AI-generated songs are flooding streaming platforms” 2023.
- Financial Times. “Music labels push for regulation of AI voice-cloning models” 2024.
- BBC News. “Ghostwriter AI, the Drake deepfake and the future of music ownership” 2023.
- IFPI – International Federation of the Phonographic Industry. Music Consumer Study 2024.
- Google DeepMind. AudioLM and Lyria model announcements. 2023–2025.
- Suno Inc. Product releases and roadmap updates. 2024–2025.

Você pode ler e ouvir este e outros conteúdos na íntegra no RadioFrequencia, um blog que teve início como uma coluna semanal na newsletter Jornalistas&Cia para tratar sobre temas da rádio e mídia sonora. As entrevistas também podem ser ouvidas em formato de podcast neste link.
(*) Jornalista e professor da Fundação Armando Álvares Penteado (Faap) e do Mackenzie, pesquisador do tema, integra um grupo criado pela Intercom com outros cem professores de várias universidades e regiões do País. Ao longo da carreira, dedicou quase duas décadas ao rádio, em emissoras como CBN, EBC e Globo.










