Você está na página 1de 14

Machine Translated by Google

Veja discussões, estatísticas e perfis de autor para esta publicação em: https://www.researchgate.net/publication/341251492

Criação Musical por Exemplo

Documento de Conferência · Maio de 2020

DOI: 10.1145/3313831.3376514

CITAÇÕES LER

29 904

3 autores, incluindo:

Emma Frid Celso Gomes

KTH Instituto Real de Tecnologia / IRCAM Universidade de Aveiro

39 PUBLICAÇÕES 285 CITAÇÕES 137 PUBLICAÇÕES 1.695 CITAÇÕES

VER PERFIL VER PERFIL

Alguns dos autores desta publicação também estão trabalhando nos seguintes projetos relacionados:

Projeto Clay Ver projeto

uso de argilas em aplicações médicas Ver projeto

Todo o conteúdo desta página foi enviado por Emma Frid em 08 de maio de 2020.

O usuário solicitou aprimoramento do arquivo baixado.


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

Criação Musical por Exemplo


Emma Frid Laboratório de Zeyu Jin
Sound and Music Computing, KTH Inteligência Criativa Celso Creative Intelligence Lab,
Royal Institute of Gomes , Adobe Adobe Research
Technology Research São Francisco, EUA
Estocolmo, Suécia Seattle, EUA cegomes@adobe.com zeyin@adobe.com
emmafrid@kth.se

RESUMO a música não está documentada corretamente, postar músicas com o tipo
Vídeos online curtos se tornaram a mídia dominante nas plataformas de licença errado, por exemplo, no Youtube, também pode resultar em
sociais. No entanto, encontrar músicas adequadas para acompanhar os multas consideráveis e remoção do vídeo. Além disso, as soluções
vídeos pode ser uma tarefa desafiadora para alguns criadores de vídeos, existentes para pesquisa de música são baseadas principalmente em
devido a restrições de direitos autorais, limitações nos mecanismos de consultas de palavras-chave com foco em gênero (por exemplo, "cinemático"
pesquisa e experiência necessária em edição de áudio. Uma possível e "pop") ou emoções (por exemplo, "triste" e "energético"). Portanto, os
solução para esses problemas é usar a geração de música AI. Neste artigo, criadores de vídeo podem ter que percorrer uma grande seleção de músicas
apresentamos um paradigma de interface de usuário (UI) que permite aos para encontrar uma faixa apropriada. Como as tags de palavra-chave
usuários inserir uma música em um mecanismo de IA e, em seguida, podem ser mais ou menos representativas de uma música, o processo de
regenerar e misturar interativamente a música gerada por IA. Para chegar encontrar uma música adequada pode facilmente se tornar tedioso. Além
a esse design, realizamos estudos de usuários com um total de 104 disso, a música de estoque geralmente vem com uma duração fixa que
criadores de vídeo em vários estágios de nosso processo de design e pode não corresponder ao vídeo desejado. Existem bibliotecas de áudio
desenvolvimento. Os estudos de usuários apoiaram a eficácia de nossa que permitem ao usuário baixar várias faixas com duração e instrumentação
abordagem e forneceram informações valiosas sobre a interação humano- diferentes, mas esses serviços de música costumam ser bastante caros.
IA, bem como o design e a avaliação de interfaces de iniciativa mista na Consequentemente, a variedade de material musical disponível para
prática criativa. criadores de vídeo é um tanto limitada, resultando em uma paisagem
sonora homogênea.
Palavras-chave do autor
Avanços recentes em aprendizado de máquina e inteligência artificial (IA)
Geração Musical; Inteligência artificial; Iniciativa Mista
abrem a possibilidade de gerar música com som profissional para produção
Interação; Composição algorítmica
de vídeo. Estão disponíveis várias soluções existentes que requerem vários
níveis de envolvimento humano no processo de geração de música. De um
Conceitos de
lado do espectro, existem geradores de música AI que podem criar partes
CCS •Computação aplicada ÿ Computação de som e música;
musicais de alta qualidade de áudio (consulte, por exemplo, [3, 71]). No
•Computação centrada no ser humano ÿ Design centrado no
entanto, essas ferramentas geralmente exigem aprendizado de máquina e
usuário; Design de interação;
habilidades de programação para operar.
Existem também geradores de música processual (ver, por exemplo, [54])
INTRODUÇÃO
que fornecem interfaces que permitem a personalização de composições
Vídeos curtos, como trailers, vlogs, comerciais, anúncios de eventos e geradas por computador, mas essas ferramentas requerem um
tutoriais fornecem experiências envolventes e de ritmo acelerado aos conhecimento substancial de teoria musical. Embora existam exemplos de
consumidores de conteúdo. No entanto, do lado do criador , obter e editar interfaces que fornecem geração autônoma de música por IA e um alto
música para essa mídia pode ser um desafio para alguns, especialmente nível de personalização e controle (ver, por exemplo, Orb Composer [30]),
para aqueles sem experiência em áudio. Devido a restrições de direitos tais aplicativos podem ter o custo de uma curva de aprendizado mais
autorais, muitos criadores de vídeo dependem de músicas que podem ser acentuada. Do outro lado do espectro, existem exemplos de serviços
baixadas de bibliotecas de estoque ou de domínio público. Uma prática desenvolvidos para não-músicos e aqueles sem experiência em
comum é usar música protegida por direitos autorais como espaço reservado programação e IA (ver, por exemplo,
e, em seguida, procurar músicas que tenham a mesma funcionalidade. Aiva [68] e Boomy [21]). No entanto, essas ferramentas permitem
Esse processo é demorado e os usuários podem não encontrar as músicas principalmente que os usuários especifiquem um conjunto limitado de
de que gostam. Se a fonte de parâmetros ou palavras-chave para geração de música, resultando no
mesmo tipo de problemas descritos para pesquisa de música, veja acima.
A permissão para fazer cópias digitais ou impressas de todo ou parte deste trabalho para uso
pessoal ou em sala de aula é concedida sem taxa, desde que as cópias não sejam feitas ou Neste artigo, exploramos uma nova solução de interface que conecta
distribuídas com fins lucrativos ou vantagens comerciais e que as cópias contenham este aviso e a
soluções de IA com usuários não especialistas, equilibrando entre
citação completa na primeira página . Os direitos autorais dos componentes deste trabalho
pertencentes a terceiros que não a ACM devem ser respeitados. Abstraindo com crédito é permitido. automação e controle, tornando a geração de música direta e facilmente
Para copiar de outra forma, ou republicar, postar em servidores ou redistribuir para listas, requer acessível. Apresentamos um novo paradigma de interface de usuário (UI)
permissão específica prévia e/ou uma taxa. Solicite permissões de permissions@acm.org.
CHI '20, 25 a 30 de abril de 2020, Honolulu, HI, EUA. ©
para criação de música que permite aos usuários fornecer uma música de
2020 Association for Computing Machinery. exemplo como entrada para um sistema de música AI.
ACM ISBN 978-1-4503-6708-0/20/04 ...$15,00.
http://dx.doi.org/10.1145/3313831.3376514

Papel 387 Página 1


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

Essa abordagem, que aqui chamamos de "criação de música por isto; serviços de cronometragem com base no contexto; mostrar
exemplo", permite que criadores de vídeo criem e personalizem música informações contextualmente relevantes; corresponder às normas
gerada por máquina sem passar pelo processo de especificar palavras- sociais relevantes; mitigação de preconceitos sociais; apoiando
chave abstratas (como clima e gênero) ou aprender interfaces de eficiente invocação, dispensa e correção; serviços de escopo em caso
composição complicadas. Em vez disso, o usuário fornece uma peça de dúvida; deixando claro por que o sistema fez o que fez; lembrando
musical como entrada para a geração da música. interações recentes; aprender com o comportamento do usuário;
Esta referência pode ser qualquer música, incluindo música com direitos atualizando e adaptando com cautela; encorajar feedback granular;
autorais. Um analisador extrai recursos musicais da(s) música(s) transmitir as consequências das ações do usuário; fornecendo
fornecida(s) e opera um gerador de música AI para criar um conjunto de controles globais e notificando os usuários sobre mudanças. Neste
versões alternativas que atendem à mesma funcionalidade do exemplo estudo, empregamos as diretrizes descritas acima para avaliação de nosso protótipo.
fornecido. As faixas geradas possuem vários recursos musicais associados
a elas, como andamento, linha de base, acordes e melodia. Os usuários Criatividade Computacional
podem então misturar e combinar esses aspectos musicais e/ou adicionar As novas tecnologias estão mudando drasticamente a natureza dos
mais músicas de referência para ter uma variedade maior de aspectos processos criativos. Hoje, os computadores estão se tornando cada
musicais para combinar. vez mais ferramentas essenciais na prática criativa. O termo
“criatividade computacional ” refere-se ao estudo da construção de
O projeto final do sistema descrito neste artigo foi verificado por
software que exibe comportamento que pode ser considerado criativo em humanos [1
extensos estudos de usuários, apresentados nas seções subsequentes.
Vários livros sobre computadores e criatividade foram publicados, veja
Identificamos três contribuições para a área de IHC no contexto deste
trabalho: por exemplo [13, 48]. A pesquisa em criatividade computacional tem
explorado sistemas generativos autônomos em uma ampla gama de
1. Um paradigma de interface de usuário (UI) para criação de música, áreas, como matemática, poesia, pintura e composição musical [18].
informado por uma abordagem de design O termo "generativo" neste contexto refere-se a técnicas de design
centrado no usuário 2. Um protótipo de sistema que provou permitir com generativo que usam codificação algorítmica de conhecimento de
sucesso que os usuários criem músicas em colaboração com um domínio para automatizar partes de um processo de design [74]. O
sistema de música AI design generativo envolve considerar o computador como um parceiro
3. Insights e descobertas de estudos de usuários que podem informar o colaborativo no processo de design capaz de gerar ideias e estimular
design de interações de iniciativa mista [4] e pesquisas sobre interação soluções em resposta a modelos de condições de design e desempenho
humano-IA na prática criativa [64]. Devido à natureza dos sistemas de design generativo, tem sido
sugerido que os sistemas de prototipagem generativa devem atuar
No presente estudo focamos principalmente em criadores de vídeo que
como ferramentas de brainstorming para produzir prompts criativos,
são iniciantes musicais ou músicos amadores. No entanto, o paradigma
ou seja, designs preliminares, que podem ser posteriormente refinados
de UI proposto pode ser empregado em vários contextos de interação de
usando fluxos de trabalho de design humano [74].
iniciativa mista.
Nos últimos anos, algoritmos de aprendizado de máquina foram
FUNDO adotados como ferramentas musicais criativas, motivando uma nova
Interação Humano-IA linha de algoritmos conhecida como aprendizado de máquina interativo
[27]. Foi levantada a hipótese de que o aprendizado de máquina irá
As técnicas de IA podem ser usadas para gerar novas ideias,
confundir a linha entre o consumo de música e a criação de música [5].
produzindo novas combinações de ideias familiares, explorando o
No entanto, várias preocupações relacionadas à automação da
potencial de espaços conceituais e fazendo transformações que
criatividade também foram levantadas. Por exemplo, alguns expressam
permitem a geração de ideias anteriormente impossíveis [12]. Neste
ceticismo sobre o potencial criativo do software de computador, pois
estudo, focamos nas interações de iniciativa mista entre um sistema
acreditam ser impossível simular o pensamento criativo usando
de computador e um ser humano. A interação de iniciativa mista
algoritmos ou sistemas de processamento de informações [67]. Outros
refere-se a “uma estratégia de interação flexível em que cada agente
descreveram a criatividade como algo “misterioso” que é “aparentemente
(humano ou computador) contribui com o que é mais adequado no
impossível de ensinar” [61]. Por outro lado, também foram apresentados
momento mais apropriado” [4]. Essa dualidade pode ser
contra-argumentos baseados na ideia de que os humanos são, em
compreendida da seguinte maneira: a IA (computador) tenta modelar
algum nível, apenas capazes de fazer o que fomos projetados ou
a maneira como um humano pensa, a fim de criar um sistema que
programados pela evolução para fazer [61]. Curiosamente, alguns
possa realizar ações inteligentes, enquanto a pesquisa de IHC se
afirmam que a criatividade não está além do estudo científico e que a
concentra em projetar interfaces de computador que alavancam um
pesquisa sobre criatividade computacional pode contribuir para a
usuário humano a fim de auxiliar o usuário na execução de ações inteligentes [74].
compreensão da criatividade humana, permitindo-nos produzir
A crescente presença da inteligência artificial no campo da Interação programas onde o software atue como um colaborador criativo ao
Homem-Computador levanta muitas questões sobre design e avaliação invés de uma mera ferramenta [18].
de sistemas envolvendo humanos e IA.
Um conjunto de diretrizes para interação humano-IA foi publicado AI Music
recentemente em [7]. Neste trabalho, foram apresentados 18 princípios A composição algorítmica, ou seja, a criação de música por meio do
grosseiramente categorizados por quando eles podem ser aplicados uso de algoritmos, é um campo motivado por “estender o pensamento
durante a interação com os usuários (inicialmente, durante a interação, musical por meio de abstrações formalizadas” [49]. Envolve a
quando algo está errado e ao longo do tempo). Diretrizes incluídas: automação parcial ou total dos processos de composição musical
deixar claro o que o sistema pode fazer e quão bem ele pode fazer através do uso de computadores [26]. A área foi estudada

Papel 387 Página 2


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

extensivamente por mais de cinquenta anos [8] e amplamente discutido Faixa sonora [42] e SmartSound [37]. Até este ponto, pouco trabalho
dentro das comunidades de New Interfaces for Musical Expression (NIME) se concentrou na geração automática de música com base em
[57] e Computer Music (veja, por exemplo, [56, 51, 60] para uma visão conteúdo de vídeo, mas há exemplos de pesquisa com foco na
geral). Curiosamente, a música algorítmica foi descrita como uma recomendação de trilhas sonoras com base no mapeamento de
ferramenta de composição que modela a criatividade como um algoritmo [33]. características acústicas e visuais de baixo nível em um espaço
Contribuições notáveis incluem o projeto “Experiments in Musical emocional [72, 63, 39, 40 ] e edição automática de vídeos gerados
Intelligence” (EMI) de David Cope [19], que se concentrou na emulação pelo usuário em vídeos profissionais compatíveis com música,
de estilos de compositores específicos, e a peça “Analogique” de Iannis usando recomendação de trilha sonora [41].
Xenakis [75], que fez uso de cadeias de Markov. Visão geral da história e
Quando se trata de geração de música baseada em computador baseado
princípios da composição algorítmica são apresentados em [47, 20, 50].
em aprendizado profundo, dois tipos principais de sistemas podem ser
Embora o trabalho sobre modelagem de música usando redes neurais
distinguidos: 1) sistemas autônomos de criação de música voltados para
tenha sido publicado em 1988 [11], avanços mais recentes no campo do
a criação de música original para comerciais e documentários (por exemplo,
aprendizado profundo abriram caminho para uma série de novos métodos
Amper Music [52] e Jukedeck [36]), e 2) ambientes baseados em
para geração de música (consulte [14] para uma visão geral). .
computadores que auxiliam músicos humanos (por exemplo,
FlowComposer [59] e OpenMusic [9]) [14]. Até onde sabemos, existe
Os atuais sistemas de aprendizado profundo para geração de música apenas uma solução de software usando IA para gerar música para
concentram-se amplamente na geração autônoma; pouco trabalho vídeo: Muzeek [32]. Existem, no entanto, sistemas que permitem a
neste domínio ainda abordou questões relacionadas ao controle criação de música para vídeo sem usar métodos de IA, como o
humano e interação [14]. A importância dos processos de design Filmstro [28]. Além disso, algumas soluções de software fornecem
centrados no usuário tem sido enfatizada no contexto do aprendizado recursos para personalizar a duração da música, algo muito útil para
de máquina interativo [10]. Quando se trata de avaliação de sistemas fins de vídeo (consulte, por exemplo,
de geração de música, o foco tem sido tradicionalmente comparar SonicFire [44] e Audition [1]). Entretanto, até o momento, nenhum
resultados musicais usando testes de Turing, em vez de melhorar a dos sistemas citados permite ao usuário selecionar uma música de
interação humana com IA; se os sons gerados soam como (ou são referência para guiar o processo de geração musical, que é o foco
preferidos) a saída humana, a máquina teve sucesso [8]. do trabalho apresentado neste artigo.

A música algorítmica levanta questões sobre a musicalidade da Embora a ideia de design por exemplo tenha sido empregada em outros
música gerada pelo sistema e a estética do material gerado pela IA domínios de pesquisa, por exemplo, no uso de modelos em design e
em geral (ver, por exemplo, [46]). Mesmo que os modelos generativos fabricação [62], ela ainda não foi amplamente adotada no domínio da
de hoje sejam bastante sofisticados, eles geralmente não incluem música. Trabalhos anteriores empregando tal método em um contexto
um elemento de reflexão ou avaliação; não é incomum que esses musical incluem o trabalho apresentado em [23], gerando performances
sistemas dependam de designers humanos para presidir questões solo expressivas de alta qualidade de baladas de jazz com base em
de estética [2]. Essa discussão está relacionada ao conceito de exemplos de performance humana, e o sistema MorpheuS, gerando
música funcional, chamada Muzak [35], que tem sido frequentemente novas peças musicais baseadas em ritmos, padrões repetidos, e perfis
criticada por não ter valor estético e também resultar na perda de de tensão de uma peça de exemplo [29].
encomendas por parte dos compositores. Afirmações semelhantes
às vezes são feitas para a música de IA. Uma discussão sobre PRESTUDIOS
música algorítmica para consumo em massa e produção universal
foi apresentada em [38]. Curiosamente, em um estudo recente sobre Questionário
AI versus música de estoque conduzido em 626 criadores de vídeo, Método
os usuários não tinham preferência entre AI versus música gerada Inicialmente, realizamos um estudo formativo para entender melhor
por humanos para edição de vídeo [53]. Algumas tentativas de as necessidades dos usuários no fluxo de trabalho de adição de
desenvolver métricas para a evolução de resultados musicalmente música a vídeos. O estudo foi concebido como um questionário on-
satisfatórios de composições musicais geradas por computador foram feitas line
(ver,anônimo distribuído aos criadores de vídeo (criando vídeos do
por exemplo,
[15]). A necessidade de uma avaliação mais sistemática da Youtube ou vlogs) por meio da plataforma User Testing [70], um
metacriação musical foi enfatizada, por exemplo, em [2]. Mais sistema de estudo de usuários on-line de origem coletiva. Um total
investigações neste campo são necessárias. Queremos enfatizar de 30 participantes (17 F, 13 M) completaram a pesquisa. A idade
que o objetivo do trabalho atual não é substituir o papel do compositor, média foi de 33,9 anos (mediana 26,5, min 19,0, máx 72,0 anos). A
mas tornar a música de IA mais acessível a não músicos por meio maioria dos participantes (n=26) era dos Estados Unidos, 2 do
do HCI. Canadá e 2 do Reino Unido. A triagem do usuário foi feita com base
no tipo de criação de conteúdo (vlogs e vídeos do Youtube) e se os
Trabalho Relacionado - AI Music for usuários adicionaram música aos seus vídeos usando bibliotecas de estoque ou ou
Usuários que compõem ou produzem música para seus próprios
Video Quando se trata de som e música para filmes, as produções
vídeos não podem participar.
profissionais de vídeo geralmente contam com compositores para criar
música de fundo e artistas de Foley [6] para criar efeitos sonoros. Para O questionário consistia em perguntas de múltipla escolha com
conteúdo publicado em plataformas sociais, várias bibliotecas de música foco no uso de áudio no contexto da criação de vídeos e
de estoque fornecem serviços de download para música de fundo. perguntas abertas sobre o mesmo tema. As questões de múltipla
Exemplos incluem Marmoset [43], Epidemic Sound [66], Musicbed [55], escolha foram analisadas por meio de métricas de frequência
Audio Jungle [45], Premium Beat [65], Bensound [69], (contagem/número total de participantes). Perguntas abertas foram analisadas

Papel 387 Página 3


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

usando análise temática de conteúdo [73] com contagem de categorias; O workshop começou com uma apresentação do projeto, incluindo
respostas de texto livre foram inicialmente codificadas em diferentes pesquisas anteriores e relacionadas, grupo de usuários pretendido
categorias com base em palavras-chave. As respostas relacionadas a (iniciantes com formação musical limitada) e demonstrações de
palavras-chave semelhantes foram agrupadas e a ocorrência da sugestões de design (maquetes) da interface. Exemplos de soluções
respectiva categoria de palavra-chave foi calculada. As categorias mais de interface propostas incluem GUIs de tela que permitem desenhar
frequentes são apresentadas na seção Resultados abaixo. O música usando traços ou seleções em uma grade para gerar música
questionário e os dados estão disponíveis como material suplementar. em uma linha de tempo de vídeo. As seguintes questões foram
apresentadas como pontos de discussão: 1) possíveis estratégias de
Resultados interação para a criação musical, 2) métodos para definir as funções
Os participantes descreveram que usaram uma ampla gama de desejadas de uma ferramenta de criação musical, 3) recursos
diferentes soluções de software para edição de vídeo e áudio. Os musicalmente relevantes extraídos do vídeo e 4) usando métodos de
softwares mais utilizados foram iMovie (10/30) e Adobe Premiere Pro design iterativos e centrados no usuário no contexto do projeto atual.
(8/30). No total, 22 participantes descreveram que usaram música A sessão durou 1 hora (15 minutos foram dedicados à introdução do
para todos os aspectos de seus vídeos ( música de fundo, introdução/ projeto). O feedback e as discussões foram transcritos pelo primeiro
final e clipes no meio), enquanto 8 participantes a usaram apenas autor, que resumiu a discussão ocorrida, extraindo citações que
como música de fundo. Em média, os participantes afirmaram poderiam ser relevantes para o desenvolvimento posterior do protótipo.
precisar de 4,67 músicas novas para seus vídeos por mês. Eles
usaram uma grande variedade de gêneros musicais em seus vídeos,
mas a maioria afirmou que raramente ou nunca usou efeitos sonoros
(19/30). A maioria dos participantes usou bibliotecas de música Resultados Várias ideias interessantes surgiram durante a sessão de
gratuitas (24/30), enquanto apenas alguns usaram bibliotecas de brainstorming. Uma conclusão que pode ser tirada é que precisávamos
música premium pagas (4/30) ou pagas isentas de royalties (2/30). de um entendimento mais aprofundado do fluxo de trabalho do
A biblioteca de música mais utilizada foi a YouTube Audio Library usuário. Assim, foi realizado um segundo estudo com criadores de
[76] (21/30), mas foram mencionados um total de 20 serviços diferentes. conteúdo em vídeo , conforme descrito na próxima seção. Outro
Os participantes afirmaram que não usavam música algorítmica ponto de discussão interessante foi que pode ser proveitoso focar
(12/30), não tinham certeza se sua música era algorítmica ou não principalmente na modificação de aspectos de alto nível da música,
(10/30) ou não sabiam o que significa o termo música algorítmica em vez de aspectos de baixo nível, uma vez que o grupo de usuários
(8/30). pretendido consiste em novatos musicais. Por exemplo, os usuários
podem saber qual emoção a música deve transmitir, mas não estar
Identificamos três temas com base nas descrições do fluxo de
interessados em sintonizar frequências ou definir estruturas rítmicas.
trabalho do usuário ao adicionar música aos vídeos. Os participantes
Permitir “orquestração de diferentes camadas da música” foi
mencionaram editar a duração de um vídeo ou cortar e sincronizar a mencionado no mesmo contexto.
música com o vídeo (12/30), adicionar música como etapa final na
edição do vídeo (11/30) e ajustar o nível de áudio da música (5/30 ). Uma sugestão levantada foi o desenvolvimento de um sistema que
Curiosamente, foram discutidos três grandes desafios encontrados permitisse a mixagem de alguns aspectos da música, dando assim
na busca e mixagem de músicas para vídeos : procurar uma peça liberdade e controle criativo aos usuários, sem exigir conhecimentos
musical/encontrar uma música adequada (principalmente em termos musicais prévios. Curiosamente, o participante que também era criador
de duração, mas também de humor) (15/30), licença/direitos autorais/ de vídeos descreveu: “Muitas vezes quando estou editando vídeos para
ter que compra de música (9/30) e processos de edição demorados mim ou para outras pessoas, quando se trata da partitura, geralmente
(alteração de andamento/BPM, corte e corte, mudança de tom, alguém fica tipo 'eu quero algo que soe assim' , e então eles me dão
mudança de duração, sincronização com vídeo, ajuste de volume ) um exemplo de outro vídeo. Então, eu sinto que poder dizer (...) eu
(7/30). Quando questionados sobre o que facilitaria o processo de quero uma música assim, e daí você pode pegar essa geração (...)
edição musical, foram mencionadas as seguintes sugestões: 1) uma esses blocos de construção que são gerados a partir de um tipo de
grande biblioteca de músicas (9/30); melhor pesquisa/filtragem/ música ou música que você escolhe." Essa participante também
rotulagem de música (8/30); uma ferramenta completa, ou seja, uma mencionou que algumas pessoas com quem ela trabalhava cantarolavam
biblioteca de sons dentro da ferramenta de edição, incluindo recursos uma melodia para descrever a música que queriam para o vídeo.
de pesquisa e download (5/30); música livre de royalties sem
problemas de direitos autorais (5/30); facilitar os ajustes de corte/ Outro participante disse: “Posso imaginar que você insere sua
duração (4/30); música grátis (4/30) e melhores interfaces de usuário (3/30).inspiração por meio de exemplos [links, sons, imagens]... quais são
as partes de que gosto e posso gerar algo com base nisso?” Com
Método do Workshop de base nessa ideia, os participantes discutiram ter um moodboard ou
um “Pinterest of Songs” como ponto de partida para a geração
Brainstorming Sabendo da necessidade da música no contexto da musical.
criação de vídeos, realizamos um workshop informal com pesquisadores
do HCI para buscar orientação para o design da interface do sistema Cenários de Interação
idealizado para geração de música. Um total de 21 pesquisadores (8 Método
mulheres, 13 homens) participaram. Eles estavam todos trabalhando A fim de explorar possíveis direções de design, um estudo de usuário
no mesmo laboratório em uma grande empresa de tecnologia (esta foi adicional com criadores de conteúdo de vídeo foi realizado usando
a única parte do estudo que envolveu pesquisadores em vez de um questionário online. Foi demonstrado que a prototipagem
criadores de vídeo reais, embora um dos pesquisadores também fosse um criador de vídeo).
paralela, ou seja, a geração de vários protótipos que podem receber

Papel 387 página 4


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

Vantagens Desvantagens mencionado. Um resumo das vantagens e desvantagens para o


A) fazer música rapidamente (14) sem falta de personalização (18) respectivo cenário de interação é apresentado na Tabela 1.
direitos autorais ou taxas (11) saída muito semelhante à entrada Curiosamente, a estratégia de interação mais comumente preferida foi
simples/direto (12) (5) som não original/único (5)
B) personalização/controle criativo (23) criação de seleção ruim ÿ resultados ruins (11)
B), o método no qual a música foi gerada com base em uma seleção
remixes/músicas híbridas (18) sons únicos/ muito complexo/consumidor de tempo de músicas, combinada com uma interface de grade que permite a
novos/pessoais (16) (8) requer habilidades
usuário para misturar e combinar diferentes propriedades (tempo,
C) bom se uma música ficar grudada na sua cabeça (16) musicais (7) requer habilidades
fácil/rápido (8) musicais (14) dúvida se daria certo instrumento e humor) da música AI gerada (n = 31, 51,7%). A segunda
você pode especificar tempo/tom (7) (11) requer ideia de melodia (9) opção mais preferida foi A), ou seja, fornecer uma música de exemplo
Tabela 1. Vantagens e desvantagens do respectivo cenário, onde A) geração (n=17, 28,3%). A grande maioria dos participantes preferiu fornecer
de música com base em uma música de exemplo, B) geração de música com uma música conhecida como referência de exemplo, em vez de usar
base em uma seleção de músicas de exemplo e mistura de camadas/ uma música genérica. A opção menos preferida foi C) assobiar ou
propriedades dessa música e C) geração de música com base em cantarolar
cantarolar uma melodia de entrada (n=12, 20,0%).
ou assobiando uma melodia. Os números entre parênteses correspondem
ao número de participantes que mencionaram o respectivo tema. No geral, o cenário B) foi o preferido devido ao seu alto nível de controle
criativo e capacidade de personalização, possibilidade de selecionar
feedback em paralelo, leva a melhores resultados de design [24].
várias referências de entrada e criar remixes ou músicas híbridas, além
Com base nas ideias da sessão de brainstorming, definimos três
de permitir a criação de sons únicos, novos e pessoais. Um participante
possíveis cenários de design para geração de música e os avaliamos
afirmou o seguinte sobre este cenário de interação: ”O fluxo de trabalho
com criadores de vídeo. Cada cenário tinha um método de entrada
em si é fácil de entender e quase divertido de certa forma, dando a
diferente para geração de música: A) geração de música com base em
você mais controle de um processo amplamente automatizado. Faz
uma música de exemplo, B) geração de música com base em uma
você se sentir ajudando no processo de criação, em vez de depender
seleção de músicas de exemplo, permitindo ao usuário misturar
apenas da máquina.” Em geral, houve muitos comentários positivos
camadas/propriedades da música gerada e C) música geração baseada
sobre a grade interativa apresentada neste cenário de interação, que
em cantarolar ou assobiar uma melodia. O questionário do Cenário de
permitiu aos usuários selecionar humor, andamento ou instrumento
Interação foi distribuído no User Testing, usando métodos de triagem
para a respectiva faixa. Um sujeito declarou: “Decidir quais partes de
semelhantes aos do questionário anterior. Um total de 60 criadores de
quais faixas geraram e, em seguida, juntar tudo é legal. Eu nunca vi
vídeo (37 F, 23 M) participaram do estudo.
nada assim antes, onde ela gera [música] por si mesma, em vez de ter
A idade média foi de 30,9 anos (mediana 30,0, min 18,0, máx 63,0
que criá-la você mesmo.”
anos). Em termos de experiência musical, 26 não tocavam nenhum
instrumento musical nem cantavam, 25 eram músicos amadores e 9
eram músicos com vários anos de prática. A maioria dos participantes
era dos Estados Unidos (47/60), seguido do Reino Unido (9/60), Canadá
RESUMO DAS CONCLUSÕES
(3/60) e Bélgica (1/60).
Os três estudos descritos nas seções anteriores levaram às seguintes
Inicialmente, os participantes foram questionados sobre quais aspectos conclusões:
musicais eles consideravam na busca de músicas para seus vídeos.
• Os principais desafios dos usuários estão relacionados a encontrar música,
Nossa hipótese é que essas informações podem ser relevantes para o
direitos autorais e edição apropriados (principalmente duração e
design da interface, bem como para a seleção de parâmetros de
volume) • Os usuários se beneficiariam de ter acesso a uma biblioteca maior
controle para geração de música. Em seguida, os diferentes cenários
de música, melhores ferramentas de pesquisa e melhor classificação de
de interação foram apresentados na forma de videoclipes curtos,
música e um tudo-em-um ferramenta de edição de música
juntamente com instruções descritivas e exemplos de música para o
e vídeo • Os usuários não usam música algorítmica ou não sabem o que é
respectivo fluxo de trabalho. Os vídeos, assim como o questionário
é
online apresentado junto com eles, estão disponíveis como material
• Os usuários novatos podem querer se concentrar principalmente
complementar. A fim de reduzir o risco de efeitos de transferência, a
nas propriedades de
ordem de apresentação foi aleatória para que todas as condições (ou
seja, ordem dos cenários) ocorressem para 10 participantes cada. Para
nível superior da música • Os usuários podem se beneficiar ao
fornecer exemplos, ou quadros de humor, de músicas que
cada cenário, os participantes descreveram as potenciais vantagens e
lembram o som que estão buscando • Os usuários desejam criar
desvantagens do respectivo modelo. No final, os participantes foram
música em colaboração com uma IA , mantendo assim um
convidados a selecionar qual cenário eles preferiam. Para os cenários
certo nível de liberdade
de interação A e B, também perguntamos aos participantes se eles
criativa, personalização e controle • Os usuários preferem ter a
prefeririam fornecer exemplos de música na forma de músicas genéricas
capacidade de fornecer ao sistema de música vários
(isto é, desconhecidas) ou bem conhecidas.
exemplos de músicas conhecidas • Uma interface de grade que
A análise dos dados de texto livre foi feita usando métodos
permite misturar e combinar diferentes aspectos de faixas
semelhantes aos do questionário anterior.
geradas por IA pode ser uma solução potencial para personalização de músi

SISTEMA
Resultados Os participantes afirmaram que consideram
principalmente emoção/humor (56,7%), gênero (18,3%) e andamento Processo de
(13,3%) na busca por música. Curiosamente, aspectos como design Usamos uma abordagem de design centrada no usuário; as
instrumentos e composição (por exemplo, estrutura temporal, como decisões foram informadas por estudos de usuários e baseadas em
introdução, ponte, refrão e outro), bem como a progressão de acordes, eram menosde
métodos comuns
design centrados no usuário e prototipagem iterativa. Uma visão geral do

Papel 387 Página 5


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

Figura 1. Visão geral do design de interface para diferentes iterações do protótipo. As interfaces 1 e 2 fizeram uso de uma metáfora de desenho
para geração de música. Este paradigma de interação foi rejeitado, uma vez que nenhum dos estudos iniciais parecia apoiar tal abordagem. O
cenário preferido do estudo do Cenário de Interação foi a interface número 3. Além de permitir que o usuário insira uma música na geração de
música, esta GUI também incluiu uma interface de grade para personalização. A primeira versão do aplicativo desenvolvido é apresentada na interface 4.

diferentes versões do protótipo do sistema são visualizadas na Figura para detalhes [16]). A saída é um conjunto de faixas, ou elementos
1. No total, 104 criadores de vídeo participaram desse processo de musicais, que podem ser misturados e combinados para criar uma
design; participantes do questionário (n=30), participantes do cenário música para um vídeo por meio de seleções em uma grade. A grade
de interação (n=60), avaliadores (n=12) e avaliadores especialistas possui diferentes botões para seleção de melodia, pads, baixo e bateria
(n=2) recrutados de uma grande empresa de tecnologia. Nenhum dos para a respectiva faixa gerada por computador e permite ao usuário
criadores do vídeo era membro do laboratório de pesquisa dos autores escolher e selecionar vários elementos e misturá-los em uma música
ou tinha qualquer relação com os pesquisadores. Cada etapa do final, que pode ser renderizada na linha do tempo. Esse sistema permite
processo de desenvolvimento foi informada por estudos de usuários. que os usuários gerem músicas exclusivas de forma criativa que
Nosso primeiro estudo, o questionário, focou nas necessidades dos possam usar em seus vídeos sem os riscos de violação de direitos
criadores de conteúdo ao adicionar música aos vídeos. Os resultados autorais, pois a geração de músicas é inspirada apenas em músicas de
sugeriram que era difícil para os criadores de vídeo encontrar e editar exemplo, não regenerando material protegido por direitos autorais.
músicas com base em palavras-chave. O aspecto mais importante a
considerar neste contexto foi a emoção/humor. Os usuários também Arquitetura do sistema
solicitaram um serviço que fornecesse acesso fácil a música gratuita. O sistema consiste em um aplicativo Electron [25] com funcionalidade
Conhecendo as dificuldades associadas às palavras-chave como ponto integrada do IBM Watson. O Electron permite o desenvolvimento de
de partida para pesquisa ou geração de música, desenvolvemos um aplicativos GUI de desktop usando tecnologias da Web, combinando
sistema de criação de música que permitiria implicitamente incorporar o mecanismo de renderização Chromium e o tempo de execução
propriedades como emoção na geração de música de IA, fornecendo Node.js. A interface do usuário se baseia em componentes do React.
uma música de exemplo. Com base nessas descobertas, bem como Os seguintes parâmetros são definidos dependendo das propriedades
nas sugestões das sessões de brainstorming, apresentamos três da música de entrada: gênero, tempo e densidade. Os parâmetros da
protótipos de sistemas (cenários de interação) a outro grupo de criadores geração de música do IBM Watson Beat são especificados em scripts
de vídeo, a fim de investigar o potencial de diferentes métodos de Python, que por sua vez geram vários arquivos MIDI. A comunicação
entrada para geração de música. Os resultados do estudo do cenário em tempo real entre o aplicativo Electron e o software de síntese de
de interação revelaram que os participantes prefeririam inserir músicas som é ativada por meio do uso de soquetes da Web integrados em
conhecidas em vez de cantar ou cantarolar uma melodia como entrada Max/MSP [22] e a síntese de áudio em tempo real é feita usando uma
para um sistema de IA. Além disso, os usuários queriam uma interface seleção de VSTs. Cada faixa de música gerada tinha de 15 a 20
que permitisse um alto nível de controle e personalização. Finalmente, segundos de duração. Como a qualidade dos padrões de bateria
as sessões de avaliação resultaram em uma série de mudanças, gerados usando o IBM Watson Beat não era suficiente, os padrões de
descritas em detalhes na seção Avaliação abaixo. O projeto final do bateria foram obtidos de bibliotecas de amostras de loops de bateria predefinidas.
sistema é apresentado na Figura 2.
AVALIAÇÃO
Antes da avaliação do nosso primeiro protótipo, foi realizado um estudo
Fluxo de piloto com dois pesquisadores do nosso laboratório (ambos do sexo
Trabalho O fluxo de trabalho do projeto final do sistema é visualizado e masculino, 22 e 25 anos, respectivamente). Problemas e bugs observados
descrito nas Figuras 2 e 3. O usuário inicialmente seleciona uma ou foram então resolvidos antes que o estudo de avaliação real fosse conduzido.
várias músicas de referência que se encaixam no vídeo. A análise da
música de referência selecionada resulta em um conjunto de parâmetros Avaliação do primeiro protótipo
extraídos para personalização da geração da música. O sistema atual de
se baseia em uma solução de música AI de código aberto existente método Um convite à participação para um estudo de usuário
chamada IBM Watson Beat [31], um sistema de geração de música com foco em música gerada por computador para vídeo foi
simbólica baseado em MIDI. Ele usa uma combinação de aprendizado distribuído na lista de discussão de uma grande empresa de
por reforço e redes neurais para criar várias camadas de música em tecnologia. No total, participaram 12 funcionários (5 F, 6 M, 1
formato MIDI com base na seguinte entrada: um arquivo de melodia de Eles). A idade média foi de 31,9 anos (mediana 30,5, min 23,0,
10 a 20 segundos e um conjunto de parâmetros para um mecanismo máx 45,0 anos). Destes participantes, 2 eram músicos com vários
criativo (por exemplo, complexidade, fórmula de compasso, andamento anos de formação musical, 5 eram músicos amadores e 5 não
em batidas por minuto, energia e duração, consulte o repositório do GitHub tocavam/cantavam nenhum instrumento musical. Em termos de produção e ed

Papel 387 Página 6


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

Figura 2. Visão geral do fluxo de trabalho e GUI do sistema final. 1) Selecione um vídeo. 2) Selecione uma música de referência que combine bem com o vídeo. 3)
Pressione para gerar várias faixas de música AI baseadas, mas não exatamente semelhantes, à música de referência. 4) Misture e combine melodia, pads (acordes
sustentados), baixo e bateria de diferentes faixas geradas por IA. 5) Reproduza uma prévia das combinações selecionadas de melodia, pads, baixo e bateria de
diferentes faixas geradas por IA. 6) Renderize a mixagem na linha do tempo. 7) Sua mixagem aparece aqui.

Figura 3. Representação esquemática do pipeline para música gerada por computador, com anotações de processos envolvendo entrada humana. 1) O usuário insere
um vídeo. 2) O usuário especifica uma música de referência. 3) O usuário mistura e combina melodia, pads, baixo e bateria para faixas geradas por IA. 4) O usuário
salva a mixagem na linha do tempo.

Papel 387 página 7


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

experiência, 1 pessoa era especialista que trabalhava principalmente veja a Figura 8. As classificações dessa métrica variaram substancialmente
com edição de vídeo, 4 tinham experiência profissional, 4 tinham entre os participantes. Curiosamente, a análise da influência do conhecimento
alguma experiência e 3 tinham pouca experiência. musical nas avaliações do controle criativo não revelou nenhuma associação
forte entre as duas variáveis.
As sessões de avaliação duraram de 20 a 30 minutos por pessoa.
O autor principal atuou como líder de teste para as sessões de avaliação.
5
Depois de assinar um termo de consentimento, as sessões começaram 4
3
com uma descrição do procedimento experimental (as instruções foram
Frequência

2
1
lidas a partir de um manuscrito preparado) e uma pequena demonstração 0
0 123456 7 8 9 10
das funcionalidades do protótipo. As sessões, incluindo as interações na Dificuldade
tela, foram gravadas em vídeo. Os participantes foram solicitados a concluir
Figura 4. Dificuldade percebida da tarefa, variando de 0 = nada difícil
as duas tarefas a seguir: 1) criar música para um vídeo com base em UMA a 10 = muito difícil.
música de exemplo e 2) criar música para um vídeo com base em DUAS
músicas de exemplo. Para duas músicas, a exibição da grade incluía mais 5
opções, mas fora isso o procedimento era o mesmo. Os participantes foram 4
3
encorajados a pensar em voz alta [17] ao resolver essas tarefas.
Frequência

2
1
0
0 123456 7 8 9 10
Uma entrevista semi-estruturada foi realizada após as duas tarefas Tempo necessário para aprender o sistema

terem sido concluídas com sucesso. Os seguintes tópicos foram Figura 5. Tempo necessário para aprender a usar o sistema, variando
usados como ponto de partida: reflexões sobre o uso de músicas de 0 = nenhum tempo a 10 = muito tempo.
existentes como entrada para geração de música, reflexões sobre
5
mixagem e combinação de diferentes propriedades de trilhas geradas
4
pelo sistema (usando a grade que permite a personalização), nível de 3
Frequência

2
controle criativo fornecido pelo sistema , intuitividade do fluxo de 1
0
trabalho proposto e sugestões de recursos adicionais que poderiam 0 123456 7 8 9 10
Prazer
ser implementados para melhorar o sistema, ou seja, o que seria
necessário do software para que a pessoa realmente o utilizasse. Os Figura 6. Quão agradável foi gerar música usando o software,
participantes receberam um vale-presente de $ 10 da Amazon por sua variando de 0 = nada agradável a 10 = muito agradável.
participação.
5
Após a sessão, os participantes preencheram um questionário com foco 4
3
Frequência

em tópicos relacionados às perguntas da entrevista, bem como métricas 2


1
frequentemente usadas para avaliar sistemas interativos [34] (dificuldade 0
0 123456 7 8 9 10
da tarefa, tempo necessário para aprender o sistema, nível de controle Satisfação com Resultados

criativo fornecido pelo sistema, e como foi agradável interagir com o


Figura 7. Satisfação com os resultados, ou seja, a música gerada,
sistema). Os participantes foram solicitados a avaliar essas propriedades variando de 0 = nada satisfeito a 10 = muito satisfeito.
em um conjunto de escalas rotuladas de 0 a 10 (com notas para cada
etapa), com rótulos de “nada [adjetivo]” a “muito [adjetivo]” em extremos 5
opostos. Este questionário e a música gerada durante esses experimentos, 4
3
Frequência

bem como os dados quantitativos das sessões de avaliação, estão 2


1
disponíveis como material complementar. 0
0 123456 7 8 9 10
Controle Criativo

Após os experimentos, as sessões de reflexão e entrevista foram transcritas Figura 8. Nível de controle criativo fornecido pelo sistema, variando
e codificadas usando o mesmo método do questionário inicial e do estudo
de 0 = nenhum controle criativo a 10 = muito controle criativo.
do cenário de interação. Um resumo dos resultados qualitativos e
Em geral, os participantes pareceram gostar da interação com o sistema.
quantitativos é apresentado abaixo.
Por exemplo, um participante afirmou: “Sinto-me criativo. Como eu sei, [a
música gerada] é única.” Esta propriedade única foi considerada a principal
vantagem do sistema. Os participantes também gostaram da possibilidade
de explorar sons usando a interface de grade. Outro participante disse: “Eu
Resultados Um gráfico das avaliações dos usuários sobre a dificuldade da poderia fazer isso o dia todo; é tão divertido! (...) Isso é tão legal. [A IA está]
tarefa é exibido na Figura 4. Todos os participantes classificaram a tarefa fazendo todo o trabalho duro em segundo plano para nós”.
como estando na extremidade inferior da escala de dificuldade. Resultados
semelhantes foram observados para o tempo necessário para aprender a No geral, os participantes foram positivos em gerar música pelo exemplo.
usar o sistema, veja a Figura 5. Com base nos resultados da entrevista, Curiosamente, um participante apontou que “...mesmo algo que apenas me
concluímos que a experiência do usuário pode ser melhorada para a interação comajuda a encontrar algo semelhante, sem que eu tenha controle sobre mexer
a grade.
No entanto, todos os participantes classificaram o sistema como sendo um com isso...quer dizer, só isso já é um grande problema”. Além disso, outro
pouco agradável de usar, veja a Figura 6. Um gráfico mostrando a satisfação sujeito descreveu que “Se [o sistema] é capaz de tirar diferentes padrões
dos participantes com a música gerada é visualizado na Figura 7. de bateria e [...] remixar a melodia, isso é algo que eu já estou
Para o nível de controle criativo que o sistema fornecia,

Papel 387 página 8


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

Recurso Contar U/E

ajustar tempo/controle 9 7 U, 2 E
de volume BPM para faixas 5 4 U, 1 E
mais opções de instrumentos 3 1 U, 2 E
opções de chave/ 3 2 U, 1 E
pitch de saída 2 1 U, 1 E
multitrack recursos de vídeo 2 1 U, 1 E
correspondentes 2 1 U, 1 E
à função de loop de som definir 2 1 U, 1 E
pontos-chave/ 1 1E
marcações de 1 1E
tempo opções de humor opções de 1 1E
estilo definir 1 1E
segmentos (intro/final) 1 1E Figura 9. O desenho final da grade. Cinco faixas são aqui geradas com base
1 ajustar duração1 U
personalizar visualização da forma de onda do tom na música “Just Can't Get Enough”. As linhas correspondem às faixas
geradas pela IA. As colunas correspondem a diferentes elementos da
Tabela 2. Resumo dos recursos sugeridos pelos usuários. U=usuários respectiva faixa, como melodia, pads, baixo e bateria. Os usuários podem
participantes do teste (total n=12) e E=avaliadores especialistas (total n=2). selecionar qualquer combinação de elementos e visualizá-los em uma mistura
clicando em “reproduzir seleção”.
tentando fazer sozinho [...] de uma forma que não é tão rápida e nem tão limpa,
onde estou apenas cortando as coisas, então essa é uma maneira mais fácil de
sessões com dois especialistas em produção de vídeo (1 F, 1 M, idade média
fazer isso”. Ela também mencionou que o recurso de design por exemplo a
29,0 anos; mediana 29,0, min 28,0, máx 30,0 anos).
deixaria mais motivada a usar o sistema. Já outro participante descreveu que
Ambos os participantes foram recrutados em uma grande empresa de tecnologia.
gostou muito da abordagem, pois o fazia sentir que estava escolhendo “o clima
Os peritos também tinham alguma experiência musical: um era músico/compositor
da música”. Um resumo das funções e funcionalidades adicionais propostas para
profissional e o outro músico com vários anos de formação musical. O segundo
o sistema é apresentado na Tabela 2.
autor atuou como líder do teste e o primeiro autor se conectou por video-link,
observando as sessões, fazendo anotações. Pedimos aos participantes que
criassem um conjunto de trilhas para um vídeo de sua escolha. Como já havíamos
confirmado que o sistema preenchia os requisitos gerais de usabilidade (por
Alterações baseadas no feedback do usuário
O feedback da avaliação foi levado em consideração no desenvolvimento do exemplo, dificuldade da tarefa, etc.), bem como a qualidade do resultado musical,
esta avaliação final focou mais na interação humano-IA. Para tanto, utilizamos
protótipo final. Em particular, nos concentramos em melhorar a GUI da grade,
[7] como base de avaliação.
incluindo as funções de reprodução e mixagem, além de fornecer aos usuários
uma ampla gama de controle. Em vez de exigir que os participantes selecionem
uma melodia, baixo e bateria para sua mixagem, qualquer combinação de faixas
agora é permitida, incluindo selecionar apenas uma bateria ou uma melodia. As sessões de avaliação começaram com uma breve apresentação do fluxo de
trabalho do sistema. Os avaliadores foram solicitados a comparar nosso sistema
Também adicionamos uma função para gerar acordes sustentados em relação a um caso de linha de base, ou seja, outro sistema que permite a
(pads) para a música (as opções anteriores eram melodia, baixo e bateria). criação de música AI. Utilizamos o serviço de geração de músicas Aiva [68] para
Além disso, as faixas podem ser regeneradas usando diferentes instrumentos. esta comparação. O sistema Aiva permite que os usuários criem música definindo
Em termos de GUI, removemos o painel de entrada esquerdo e, em vez disso, os seguintes parâmetros em uma interface web: 1) estilo predefinido (por
focamos na linha do tempo e na interface de grade para personalização. Por fim, exemplo, cinemática moderna, favela do mar, jazz etc.) 2) armadura de clave,
o novo sistema permitiu que os usuários criassem várias mixagens e as fórmula de compasso, ritmo, instrumentação, duração e número de composições.
renderizassem na linha do tempo, antes de decidir qual usar para o vídeo. O sistema então gera o número especificado de faixas de acordo com os
parâmetros selecionados. Um participante começou usando nosso sistema e um
participante começou usando o sistema Aiva. Para ambos os sistemas, a tarefa
A interface final da grade é exibida na Figura 9. Essa grade 5x4 é criada a partir
era criar uma música. A avaliação com base nas diretrizes de IA humana foi
de uma seleção de música (um exemplo).
realizada apenas para o nosso sistema. Para esta tarefa, os participantes
Cinco faixas de música AI diferentes são geradas com base em uma música de
receberam uma tabela de [7] com exemplos da respectiva diretriz. Ao final das
entrada. Cada linha corresponde a uma faixa gerada por IA.
sessões, foi realizada uma entrevista semiestruturada com foco nas vantagens
Diferentes componentes da respectiva faixa podem ser selecionados e
e desvantagens do respectivo sistema. As avaliações duraram aproximadamente
visualizados sozinhos ou juntos. A interface permite que os usuários pulem entre
uma hora e os participantes receberam dois vales-presente de $ 10 da Amazon
diferentes combinações de música AI e ajustem sua seleção. Se outra música
por sua participação.
for selecionada para geração de música AI, mais 5x4 botões serão adicionados
à interface. Elementos de várias faixas podem ser combinados.

O número de faixas e elementos musicais disponíveis foram informados por


estudos de usuários, bem como pesquisas sobre memória visual de curto prazo.
Resultados
As 18 diretrizes de IA humana foram úteis para nossos propósitos de avaliação.
As diretrizes serviram como uma ferramenta para identificar questões relacionadas
Avaliação especializada do protótipo final ao processo de geração de música, bem como o nível de feedback sobre os
Método processos de IA comunicados ao usuário. Os aspectos identificados como
A fim de obter insights sobre as possibilidades versus limitações de nosso possíveis problemas por ambos os participantes foram: suporte para demissão
sistema, realizamos uma avaliação qualitativa informal eficiente, escopo

Papel 387 página 9


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

serviços em caso de dúvida e deixe claro por que o sistema fez o que fez. na aprendizagem profunda para a criação de música em grande parte se
Em geral, ambos os participantes mencionaram que gostariam de fornecer concentrou na geração autônoma.
mais informações (criativas) ao sistema. Um resumo dos recursos propostos
O sistema proposto neste artigo reduz a necessidade de conhecimento de
para um sistema futuro é apresentado na Tabela 2. O primeiro participante
domínio específico em aprendizado de máquina ou métodos algorítmicos
mencionou que não achava que o sistema fornecesse muito controle, mas
para geração de música; ele permite que os usuários traduzam uma ideia
disse que isso não era um problema, pois havia tantas opções para escolher .
musical em sons sem exigir que eles tenham qualquer treinamento musical
Em geral, este usuário foi muito positivo sobre as possibilidades oferecidas
formal, tornando a criação musical facilmente acessível por meio do design.
pelo sistema. Ele sugeriu mais recursos de personalização para a linha do
Desta forma, o design por exemplo é uma nova maneira de fornecer
tempo e não queria necessariamente que a IA assumisse essas partes. Da
informações para um processo de geração de música.
mesma forma, o segundo participante enfatizou a importância de poder definir
Acreditamos que essa metáfora do design também pode ser empregada em
“pontos-chave” ou timestamps onde a música deve mudar e permitir que o
outras áreas, por exemplo, em design generativo para jogos, artes visuais,
sistema de IA ajude nos aspectos relacionados ao tempo e à sincronização.
aplicativos de desenho e outras ferramentas criativas. Os métodos de design
Além disso, ambos os participantes mencionaram que seria bom poder
generativo geralmente produzem muito material gerado por IA que precisa
ajustar os níveis dos respectivos componentes musicais, a fim de decidir
ser curado por um agente humano. Há necessidade de novas interfaces para
quais sons deveriam ser mais proeminentes na mixagem.
descobrir a gama de materiais produzidos por tais sistemas de IA. O
paradigma de misturar e combinar proposto neste artigo pode ser uma
maneira de explorar um vasto espaço dimensional de material gerado por IA.

Ao comparar nosso protótipo de sistema com o Aiva, o primeiro participante


Queremos reconhecer que existem limitações da música de IA no que diz
mencionou que a interface da linha de base o fazia se sentir “menos no
controle” e que parecia que toda a linha do tempo já estava definida, respeito à qualidade estética do resultado musical. Para o nosso caso
particular, a principal limitação a esse respeito eram os padrões de bateria
descrevendo a música como “uma coisa inteira que tenho que explorar ”.
gerados pelo IBM Watson Beat e, portanto, optamos por bibliotecas de
Curiosamente, o segundo participante foi mais positivo para Aiva, focando
amostras de loop de bateria predefinidas. As interações de iniciativa mista,
principalmente nas vantagens de ter um conjunto de predefinições para
como as descritas neste artigo, devem ser projetadas para promover a
instrumentos (por exemplo, constelações de bandas específicas). No entanto,
colaboração bem-sucedida entre um humano e um sistema de IA.
ela mencionou que seria interessante ter uma forma mais “focada no ser
humano” de se referir aos sons. Por exemplo, seria melhor se referir à música
Dessa forma, o agente humano pode curar o material gerado pelas
em termos de palavras-chave como “triste”, “rápido” ou “dinâmico”, em vez
contrapartes algorítmicas do sistema. Embora nosso projeto de sistema atual
de definir parâmetros musicais para uma escala e métrica específicas, como
dependa de MIDI, nosso projeto é modular no sentido de que os algoritmos
é o caso do Aiva.
de aprendizado de máquina podem ser atualizados e substituídos enquanto
o restante do sistema permanece intacto. Para o efeito, outros métodos (ver
p.ex. [58, 71]) que resultem em resultados esteticamente mais apelativos
DISCUSSÃO poderão servir como componentes para o desenvolvimento de um futuro
Neste estudo adotamos uma abordagem centrada no usuário para o projeto protótipo. Outra sugestão para desenvolvimento futuro é implementar uma
de um sistema de geração de música baseado na “criação pelo exemplo”. linha do tempo multitrilha interativa com recursos de sincronização temporal
Através de diversos estudos de usuários observamos que há necessidade de baseados em recursos de vídeo extraídos.
ferramentas mais simples e de fácil acesso para geração de música para
vídeo. Desenvolvemos um sistema que permite a curadoria de música de IA
CONCLUSÕES
com base em um paradigma de IU que permite a mixagem interativa e
Este artigo descreve um paradigma de criação musical informado por uma
iterativa de material gerado por IA. Nossos resultados provam que nosso
abordagem de design centrado no usuário. Apresentamos um protótipo de
sistema projetado atendeu às necessidades do usuário, conforme especificado
sistema que permite aos usuários criar músicas em colaboração com um
nos estudos do usuário. Além disso, nosso sistema foi percebido como fácil
sistema de música AI, fornecendo um exemplo de referência de uma música
e agradável de usar, requer pouco tempo de aprendizado e produz resultados
conhecida e, em seguida, misturando interativamente o material gerado por AI.
musicais satisfatórios pela maioria dos participantes. O sistema proposto
Descobertas e percepções de estudos de usuários envolvendo
pode ser útil aos criadores de vídeos, pois permite a criação de músicas para
mais de 104 criadores de vídeo apóiam a eficácia de nossa abordagem.
O software aborda problemas de localização de músicas para vídeos,
vídeo sem exigir processos tediosos de pesquisa e edição.
permitindo que os usuários criem seus próprios sons exclusivos com base
Os estudos do usuário esclarecem o fato de que é importante equilibrar o em uma música de referência. Este trabalho é único no sentido de que é a
controle atribuído à IA versus a entrada humana; há uma distinção entre as primeira vez que o design pelo exemplo é aplicado no contexto da geração
tarefas que os usuários desejam deixar para a IA e as tarefas que eles musical. Nossa pesquisa levanta questões interessantes sobre o nível de
desejam executar. Nosso trabalho levanta questões interessantes sobre controle atribuído aos usuários versus IA em interações de iniciativa mista,
autonomia, agência e autoria na interação humano-IA na prática criativa. No descobertas que podem ser aplicadas em outras áreas de pesquisa
nosso caso, os usuários não queriam que o sistema tivesse muito controle relacionadas à interação homem-IA. Com poucas estruturas de avaliação
sobre o processo de criação da música. Isso porque eles não achavam que existentes para interação humano-IA e uma presença crescente de IA em
haviam realmente criado qualquer material musical se muito controle fosse HCI, acreditamos que a pesquisa sobre novas interfaces para interações de
atribuído à IA. Esta é uma descoberta interessante, considerando que os iniciativa mista deve ser incentivada e esperamos promover tais discussões
avanços recentes com este trabalho.

Papel 387 página 10


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

REFERÊNCIAS [14] Jean-Pierre Briot, Gaëtan Hadjeres e François Pachet.


[1] Adobe. 2019. Adobe Audition. (2019). 2017. Técnicas de Aprendizagem Profunda para Geração Musical -
https://www.adobe.com/se/products/audition.html. Uma Pesquisa. (2017).

[2] Kat Agres, Jamie Forth e Geraint A Wiggins. 2016. [15] Kris Bryden. 2007. Desenvolvendo métricas para desenvolver um
Avaliação de Sistemas de Criatividade Musical e resultado musicalmente satisfatório a partir de uma população
Metacriação Musical. Computadores em Entretenimento (CIE) de composições musicais geradas por computador. Em 2007,
14, 3 (2016), 3. IEEE Symposium on Computational Intelligence in Image and
Signal Processing. IEEE, Honolulu, HI, EUA, 171–176.
[3] Pesquisa do Google / IA. 2019. Magenta. (2019).
https://ai.google/research/teams/brain/magenta/.
[16] Catalisador Cognitivo. 2019. Watson Beat. (2019).
[4] JE Allen, Curry I Guinn e E Horvtz. 1999.
https://github.com/cognitive-catalyst/watson-beat.
Interação de Iniciativa Mista. IEEE Intelligent Systems e suas
aplicações 14, 5 (1999), 14–23. [17] Cartas de Elizabeth. 2003. O uso de pensar em voz alta
Métodos em Pesquisa Qualitativa - Uma Introdução aos Métodos
[5] Giuseppe Amato, Malte Behrmann, Frédéric Bimbot, Baptiste
Think-Aloud. Brock Education: Um Jornal de Pesquisa e Prática
Caramiaux, Fabrizio Falchi, Ander Garcia, Joost Geurts, Jaume
Educacional 12, 2 (2003), 68–82.
Gibert, Guillaume Gravier, Hadmut Holken e outros. 2019. IA na
mídia e nas indústrias criativas. (2019). [18] Simon Colton, Ramon López de Mántaras e Oliviero Stock. 2009.
Criatividade Computacional: Coming of Age.
AI Magazine 30, 3 (2009), 11–11.
[6] Tema Vanessa Ament. 2014. The Foley Graal: The Art of Performing
Sound for Film, Games, and Animation. [19] David Cope. 1989. Experimentos em Inteligência Musical (EMI):
Routledge, Burlingto, MA, EUA. Composição Baseada em Linguística Não-Linear.
Journal of New Music Research 18, 1-2 (1989), 117–139.
[7] Saleema Amershi, Dan Weld, Mihaela Vorvoreanu,
Adam Fourney, Besmira Nushi, Penny Collisson, Jina Suh, Shamsi
Iqbal, Paul N Bennett, Kori Inkpen e outros. 2019. Diretrizes para [20] David Cope. 2000. O compositor algorítmico. Vol. 16.
interação humano-IA. Nos Anais da Conferência CHI 2019 sobre AR Editions, Inc., Madison, Wisconsin, EUA.
Fatores Humanos em Sistemas de Computação. ACM, ACM,
[21] Corporação Boomy. 2019. Faça música instantânea
Nova York, NY, EUA, 3.
com inteligência artificial. (2019). https://boomy.com/.
[22] Ciclismo'74. 2019. Cycling'74 - Ferramentas para
[8] Cristóvão Ariza. 2009. O Interrogador como Crítico: O Teste de Turing
som, gráficos e interatividade.
e a Avaliação de Sistemas Gerativos de Música. Computer
(2019). https://cycling74.com/.
Music Journal 33, 2 (2009), 48–70.
[23] Ramon Lopez De Mantaras e Josep Lluis Arcos. 2002.
[9] Gérard Assayag, Camilo Rueda, Mikael Laurson, Carlos Agon e Olivier
IA e música: da composição à performance expressiva.
Delerue. 1999. Composição Assistida por Computador no IRCAM:
Revista AI 23, 3 (2002), 43–43.
Do PatchWork ao OpenMusic. Computer Music Journal
23, 3 (1999), 59–72. [24] Steven P Dow, Alana Glassco, Jonathan Kass, Melissa Schwarz,
Daniel L Schwartz e Scott R Klemmer.
2010. A prototipagem paralela leva a melhores resultados de
[10] Francisco Bernardo, Michael Zbyszynski, Rebecca
design, mais divergência e maior autoeficácia.
Fiebrink e Mick Grierson. 2017. Aprendizado de máquina interativo
ACM Transactions on Computer-Human Interaction (TOCHI) 17,
para inovação do usuário final. Em 2017 AAAI Spring Symposium
4 (2010), 18.
Series. The AAAI Press, Palo Alto, CA, EUA, 369–375.
[25] ElectronJS. 2019. ElectronJS - Construir plataforma cruzada
Aplicativos de desktop com JavaScript, HTML e CSS. (2019). https://
[11] J Bharucha. 1988. Modelagem de rede neural de música. In Actas
electronjs.org//.
do Primeiro Workshop de Inteligência Artificial e Música.
Associação Americana de Inteligência Artificial, Menlo Park, [26] José D Fernández e Francisco Vico. 2013. AI Methods in
CA, EUA, 173–182. Algorithmic Composition: A Comprehensive
Survey. Journal of Artificial Intelligence Research 48 (2013), 513–
[12] Margaret A. Boden. 1998a. Criatividade e Artificial
582.
Inteligência. Inteligência Artificial 103, 1 (1998), 347 – 356. http://
www.sciencedirect.com/science/article/pii/S0004370298000551 [27] Rebecca Fiebrink, Baptiste Caramiaux, R Dean e A McLean. 2018. O
Inteligência Artificial 40 Anos Depois. Algoritmo de Machine Learning como Ferramenta Musical
Criativa. Oxford University Press, Nova York, NY, EUA, Capítulo
12, 181–208.
[13] Margaret A. Boden. 1998b. Criatividade e Inteligência Artificial.
Inteligência Artificial 103, 1-2 (1998), 347-356. [28] Filmstro. 2019. Filmstro - Música que Move. (2019).
https://filmstro.com/.

Papel 387 página 11


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

[29] Dorien Herremans e Elaine Chew. 2017. MorpheuS: Gerando [43] Sagui LLC. 2019b. Música Marmoset. (2019). https://
Música Estruturada com Tensão e Padrões Restritos. IEEE www.marmosetmusic.com/.
Transactions on Affective Computing (2017), 510–523. [44] SmartSound LLC. 2019c. Sonicfire Pro 6 - A maneira mais
rápida de personalizar músicas para seus vídeos.
[30] Hexacordes. 2019. Orb Compositor. (2019). (2019). https://www.smartsound.com/sonicfire/.
https://www.orb-composer.com/.
[45] Envato Pty Ltd. 2019. AudioJungle. (2019).
[31] IBM. 2019. IBM Watson Beat. (2019). https://audiojungle.net/.
https://www.ibm.com/case-studies/ibm-watson-beat.
[46] L Manovich. 2018. AI Estética. Strelka Press,
[32] Muzeek Inc. 2019. Muzeek Pro. (2019). Moscou, Rússia.
https://www.getmuzeek.com/home.
[47] John Maurer. 1999. Uma Breve História da Composição
[33] Bruce L. Jacob. 1996. Composição algorítmica como Algorítmica. (1999).
modelo de criatividade. Som Organizado 1, 3 (1996), [48] Jon McCormack e Mark d'Inverno. 2014. Sobre o futuro
157–165.
dos computadores e da criatividade. No AISB 2014
[34] Lilong Jiang, Protiva Rahman e Arnab Nandi. 2018. Simpósio sobre Criatividade Computacional. Society for the
Avaliando Sistemas de Dados Interativos: Cargas de Study of Artificial Intelligence and the Simulation of
Trabalho, Métricas e Diretrizes. In Proceedings of the Behavior, Londres, Reino Unido, 9.
2018 International Conference on Management of Data.
[49] Alex McLean e Roger T Dean. 2018a. Algoritmos
ACM, ACM, Nova York, NY, EUA, 1637–1644.
musicais como ferramentas, linguagens e parceiros:
[35] Simon C Jones e Thomas G Schumacher. 1992. uma perspectiva. Oxford University Press, Nova York,
Muzak: Sobre Música Funcional e Poder. Critical NY, EUA, 3–15.
Studies in Media Communication 9, 2 (1992), 156–169.
[50] Alex McLean e Roger T Dean. 2018b. O Manual Oxford
[36] Jukedeck. 2019. Jukedeck. (2019). de Música Algorítmica. Oxford University Press, Nova
https://www.jukedeck.com/. York, NY, EUA.

[37] SmartSound LCC. 2019. Música isenta de royalties e [51] Eduardo Reck Miranda. 2013. Leituras em Música e
maneiras incríveis de personalizá-la. Inteligência Artificial. Routledge, Nova York e Londres.
(2019). https://www.smartsound.com/.

[38] Yuli Levtov. 2018. Música algorítmica para missa [52] Música Amper. 2019a. (2019).
Consumo e Produção Universal. Em The Oxford Handbook https://www.ampermusic.com/.
of Algorithmic Music. Oxford University Press, Nova
[53] Música Amper. 2019b. Amper AI vs. Resultados
York, NY, EUA.
Estoque. (2019). https://www.ampermusic.com/docs/
[39] Jen-Chun Lin, Wen-Li Wei e Hsin-Min Wang. 2015. veritonic_study--amper_v_stock.pdf .
EMV-Matchmaker: Curso Emotional Temporal [54] PG Música. 2019c. Band-in-a-Box. (2019).
Modeling and Matching for Automatic Music Video
https://www.pgmusic.com/.
Generation. In Proceedings of the 23rd ACM
International Conference on Multimedia. ACM, ACM, Nova [55] MusicBed. 2019. MusicBed. (2019).
York, NY, EUA, 899–902. https://www.musicbed.com/.

[40] Jen-Chun Lin, Wen-Li Wei e Hsin-Min Wang. 2016. [56] Gerhard Nierhaus. 2009. Composição algorítmica:
DEMV-matchmaker: representação de curso temporal Paradigmas da Geração Automatizada de Música.
emocional e correspondência de similaridade profunda Springer Science & Business Media, Nova York, NY, EUA.
para geração automática de videoclipes. Nos Anais do [57] NIMA. 2019. A Conferência Internacional sobre Nova
ICASSP. IEEE, Xangai, China, 2772–2776.
Interfaces para Expressão Musical. (2019).
[41] Jen-Chun Lin, Wen-Li Wei, James Yang, Hsin-Min Wang https://www.nime.org/.
e Hong-Yuan Mark Liao. 2017. Geração automática de
[58] Aaron van den Oord, Sander Dieleman, Heiga Zen,
videoclipes com base na recomendação de trilha
Karen Simonyan, Oriol Vinyals, Alex Graves, Nal
sonora e edição de vídeo simultâneas. In Actas da 25ª
Kalchbrenner, Andrew Senior e Koray Kavukcuoglu.
Conferência Internacional da ACM sobre Multimédia. ACM, 2016. Wavenet: um modelo generativo para áudio bruto.
ACM, Nova York, NY, EUA, 519–527.
(2016).

[59] Alexandre Papadopoulos, Pierre Roy e François


[42] Levelo Music Group LLC. 2019a. Soundstripe -
Pacote. 2016. Composição assistida de lead sheet usando
Música ilimitada para vídeo. (2019).
o FlowComposer. In Proceedings of International
https://soundstripe.com/.
Conference on Principles and Practice of Constraint
Programming. Springer, Toulouse, França, 769–785.

Papel 387 Página 12


Machine Translated by Google

Papel CHI 2020 CHI 2020, 25 a 30 de abril de 2020, Honolulu, HI, EUA

[60] George Papadopoulos e Geraint Wiggins. 1999. AI Methods for [68] Tecnologias Aiva. 2019. A inteligência artificial compondo trilha
Algorithmic Composition: A Survey, a Critical View and Future sonora emocional. (2019). https://www.aiva.ai/.
Prospects. No AISB Symposium on Musical Creativity, vol. 124.
Edimburgo, Reino Unido, 110–117.
[69] Benjamim Tissot. 2019. Bensound's Royalty Free Music. (2019). https://
www.bensound.com/.
[61] Ricardo Scheines. 1988. Automatizando a criatividade. Aspectos
[70] Teste de usuário. 2019. Teste de usuário. (2019).
da Inteligência Artificial. Springer, 339–365.
https://www.usertesting.com/.
[62] Adriana Schulz, Ariel Shamir, David IW Levin,
[71] Sean Vasquez e Mike Lewis. 2019. MelNet: A
Pitchaya Sitthi-Amorn e Wojciech Matusik. 2014.
Modelo Generativo para Áudio no Domínio da Frequência. (2019).
Projeto e Fabricação por Exemplo. ACM Transactions on Graphics
(TOG) 33, 4 (2014), 62.
[72] Ju-Chiang Wang, Yi-Hsuan Yang, I-Hong Jhuo, Yen-Yu Lin, Hsin-Min
[63] Rajiv Ratn Shah, Yi Yu e Roger Zimmermann. 2014.
Consultor: Recomendação de trilha sonora de Wang e outros. 2012. O modelo Acousticvisual
Emotion Guassians para geração automática de videoclipes. In Actas
vídeo personalizada por Late Fusion com classificações
da 20ª Conferência Internacional da ACM sobre Multimédia. ACM,
heurísticas. In Actas da 22ª Conferência Internacional
ACM, Nova York, NY, EUA, 1379–1380.
da ACM sobre Multimédia. ACM, ACM, Nova York, NY, EUA, 607–
616.
[73] Robert Philip Weber. 1990. Análise Básica de Conteúdo.
[64] Kristina Shea, Robert Aish e Marina Gourtovaia.
Sage, Newbury Park, Califórnia.
2005. Towards Integrated Performance-Driven Generative
Design Tools. Automação na Construção 14, 2 (2005), 253–264. [74] Ariel Weingarten, Ben Lafreniere, George Fitzmaurice e Tovi Grossman.
2019. DreamRooms: Prototipagem de salas em colaboração com
um processo generativo. In Proceedings of Graphics Interface
[65] Shutterstock. 2019. Premium Beat - Marque o Perfeito
2019 (GI 2019).
Música. (2019). https://www.premiumbeat.com/.
Sociedade Canadense de Processamento de Informações,
[66] Som Epidêmico. 2019. Som Epidêmico. (2019). Mississauga, Ontário, Canadá, 9.
https://www.epidemicsound.com/.
[75] Iannis Xenakis. 1992. Música Formalizada: Pensamento e Matemática
[67] Thomas Strothotte e Stefan Schlechtweg. 2002. na Composição. Pendragon Press, Stuvesant, NY, EUA.
Computação Gráfica Não Fotorrealística: Modelagem,
Renderização e Animação. Morgan Kaufmann, San Francisco,
[76] Youtube. 2019. Biblioteca de áudio do Youtube. (2019).
CA, EUA.
https://www.youtube.com/audiolibrary/.

Papel 387 Página 13

Ver estatísticas de publicação

Você também pode gostar