Você está na página 1de 13

Encontro Internacional de Música e Arte Sonora – EIMAS 2011 – Juiz de Fora, Brasil

Manipulação de amostras sonoras em contexto interativo1

Daniel Luís Barreiro


Núcleo de Música e Tecnologia (NUMUT)
Universidade Federal de Uberlândia (UFU)
E-mail: dlbarreiro@gmail.com

Resumo
Este artigo faz parte de uma pesquisa financiada pela FAPEMIG e aborda implementações (patches) em Max/MSP e Pd
idealizadas para serem utilizadas em improvisações musicais envolvendo recursos eletroacústicos em tempo-real. A
manipulação de amostras sonoras em contexto interativo assume um papel fundamental na realização da parte
eletroacústica das improvisações. Apresenta-se aqui um panorama das implementações realizadas e de suas relações
com trabalhos resultantes de pesquisas anteriores ou realizados por outros pesquisadores, além de possíveis
desdobramentos futuros. A abordagem envolve a discussão de questões sobre a gestualidade no controle dos parâmetros
sonoros, gravação e reprodução de amostras, granulação de amostras pré-gravadas (granular sampling), espacialização
sonora e a exploração de uma “memória musical” da performance como parte do processo de improvisação.

Palavras-chave
Improvisação com recursos eletroacústicos em tempo-real. Manipulação de amostras sonoras. Interatividade humano-
computador. Controle gestual. Controle de síntese e processamento sonoro com wiimote.

Abstract
This article is related to a research funded by FAPEMIG. It discusses implementations (patches) in Max/MSP and Pd
designed for musical improvisations involving real-time electroacoustic resources. The manipulation of sound samples
in an interactive context plays a key role in the creation of the electroacoustic component in the improvisations. The
article presents an overview of the implementations and their connection with work from previous research or work
carried out by other researchers, followed by a presentation of possible future developments. The approach taken here
involves aspects related to the gestural control of sonic parameters, patches for recording and playing-back sound
samples, granulation of pre-recorded samples (granular sampling), sound diffusion and the exploration of a “musical
memory” in a improvisation.

Keywords
Improvisation with realtime electroacoustic resources. Manipulation of sound samples. Human-computer interactivity.
Gestural control. Sound synthesis and sound processing controlled with the wiimote.

1. Introdução
O presente trabalho aborda estratégias para a manipulação de amostras em contexto
interativo utilizadas nas improvisações do Grupo Música Aberta da Universidade Federal de
Uberlândia (MAMUT)2 e em Natural Tech, uma composição para marimba e computador com
ampla abertura para improvisação3. Tanto nas improvisações do MAMUT quanto em Natural Tech
os processos de manipulação de amostras sonoras assumem um papel fundamental na realização da

1 Este trabalho faz parte de uma pesquisa financiada pela Fapemig por meio do Edital 021/2008.
2 O MAMUT é um grupo que realiza improvisações com instrumentos acústicos e recursos eletroacústicos em tempo-
real. É formado pelos seguintes seis docentes do Curso de Música da Universidade Federal de Uberlândia: Alexandre
Zamith Almeida (piano), André Campos Machado (violão e flauta), Carlos Menezes Júnior (meios eletroacústicos),
Celso Cintra (percussão e sopros), Cesar Traldi (percussão) e Daniel Barreiro (meios eletroacústicos). O grupo
apresentou-se diversas vezes em concertos e congressos e já dividiu o palco com Edson Zampronha, Jônatas Manzolli e
Cesar Villavicencio. Para exemplos de gravações de performances do grupo, ver
<http://www.demac.ufu.br/numut/?p=audio.php>.
3 Natural Tech, de Daniel Barreiro, faz parte de um conjunto de obras para percussão e recursos eletroacústicos em
tempo-real compostas para o percussionista Cesar Traldi por quatro compositores diferentes e que apresentam quatro
diferentes abordagens de abertura à improvisação. Ver Barreiro et al. (2011) para maiores detalhes. O seguinte site
contém a gravação de performances das peças: <http://www.demac.ufu.br/numut/?p=audio.php>.
1
parte eletroacústica. Apresentam-se abaixo algumas questões fundamentais que nortearam as
estratégias de manipulação de amostras, tais como a abordagem do controle de vários parâmetros
sonoros simultâneos, a gestualidade aplicada aos processos de controle, as implementações
realizadas em Max/MSP, relações dessas implementações com outros trabalhos da área, além de
possíveis desdobramentos dessa pesquisa. A discussão sobre manipulação de amostras bifurca-se
nos seguintes dois tópicos que nortearam a programação dos patches em Max/MSP e Pd: 1) a
gravação e a reprodução de amostras ao vivo; 2) a granulação de amostras pré-gravadas (ou, mais
especificamente, granular sampling).

2. Controle de parâmetros e gestualidade


A gravação e a manipulação de amostras sonoras nas performances do MAMUT
direcionaram os trabalhos para a busca de dispositivos capazes de controlar diversos parâmetros
sonoros simultaneamente e que rompessem com a imobilidade geralmente associada ao músico que
controla o laptop em performances envolvendo recursos eletroacústicos. Buscou-se, assim,
incorporar a gestualidade (evidente na performance instrumental) ao controle dos parâmetros dos
sons eletroacústicos, o que resultou na utilização dos controladores wiimote e nunchuk, da Nintendo,
para gerenciar a gravação e o processamento de amostras, além de processos de granulação em
tempo-real utilizando os software Pure Data (Pd) e Max/MSP4.
A incorporação do controle gestual de sons eletroacústicos utilizando os recursos do wiimote
e do nunchuk encontra-se em ressonância com a afirmação de Wanderley (2006) de que a utilização
exclusiva do mouse e do teclado do computador ocorre apenas em casos muito específicos no
âmbito eletroacústico, como na chamada laptop music.
Como parte de uma discussão mais ampla sobre indeterminação em música e propostas de
improvisação contemporânea (não-idiomática), em Barreiro et al. (2010) abordamos as primeiras
implementações realizadas no contexto dessa pesquisa para o uso do wiimote e do nunchuk como
dispositivos de controle dos sons eletroacústicos nas improvisações do MAMUT. Em Traldi et al.
(2011) discutimos as estratégias e as características técnicas e musicais de uma improvisação que
centra sua exploração musical unicamente em sons eletroacústicos gerados em tempo-real por meio do
controle de parâmetros sonoros com três wiimotes. Na literatura, encontram-se também várias outras
referências sobre a utilização do wiimote em trabalhos musicais, tais como: Wong et al. (2008), que
abordam um sistema de performance interativa; Bradshaw e Ng (2008), que abordam a aquisição e
a análise dos gestos de um regente para a geração de sons e imagens; Roland et al. (2009), que

4 Capaz de se comunicar com o computador por conexão bluetooth, o wiimote mostrou-se uma alternativa interessante
para a pesquisa por apresentar baixo custo, fácil reposição e por ser capaz de enviar dados de movimentos nas três
coordenadas espaciais captados por um acelerômetro, além de possuir diversos botões e uma câmera infra-vermelha.
Quando conectado à extensão nunchuk, as possibilidades do wiimote aumentam ainda mais com a disponibilidade de
mais um acelerômetro, um joystick e outros dois botões.
2
abordam uma implementação com síntese granular; Fornari e Manzolli (2010), que abordam o
controle de síntese por modelagem física; Aguiar (2011), que aborda a implementação de um
theremin virtual; e Patrício (2010, p.74-79), que aborda um sistema controlado por wiimote que
utiliza amostras sonoras pré-gravadas (o WiiMA). Além disso, podem ser encontrados na internet
vídeos de diversas performances musicais que fazem uso do wiimote. O mesmo ocorre em
congressos e festivais, tais como o próprio EIMAS, que na sua primeira edição (em 2010) contou
com a performance da obra Yaguaí, para berimbau e wiimote, do compositor argentino Mariano
Fernandez e com participação de Tiago Calderano.
Verifica-se, assim, nas palavras de Traldi et al. (2011, p.2) que existe atualmente
um grande número de pesquisas tanto no Brasil quanto no exterior que utilizam o controle wiimote
como interface para captar os gestos dos músicos e utilizá-los para controlar sons eletroacústicos, o
que se insere no rol das pesquisas sobre novas interfaces para a expressão musical.

Ao abordar novas interfaces físicas e fazer menção ao wiimote, Figueiró (2008) afirma que
“atualmente estamos saindo de uma fase de extremo fetiche genérico pela ‘tela do computador’ e
entrando em uma nova fase de interação musical através de hardware com o computador”, e que “a
transcendência dos comandos de computador para o controle manual de objetos no mundo real tem
sido um elemento revigorante na pesquisa em interação musical”. Segundo o autor,
essa abertura está possibilitando que os músicos agreguem elementos de performance a suas
composições eletrônicas, trazendo os compositores de volta aos palcos, trazendo para a mesma
realidade a ancestralidade do ritual musical e a parafernália digital da música do século XXI (Figueiró,
2008).

Além das questões materiais de maior acesso a recursos tais como sensores, computadores
mais velozes e software versáteis de processamento em tempo-real, dentre outros, Patrício (2010,
p.17) atribui uma motivação artística ao crescimento no desenvolvimento de novas interfaces e
novos instrumentos musicais digitais nas últimas décadas, que seria “a exploração de novas relações
do homem com a performance, escuta e compreensão da música”.

3. Interatividade e mecanismos de controle


Ao verificar os apontamentos de diferentes autores sobre a interatividade em performances
com instrumentos acústicos e meios eletroacústicos, nota-se que o entendimento sobre o conceito de
interação pode variar. Em Barreiro (2007, p.44-45) tivemos a oportunidade de mencionar a
distinção entre a interação que ocorre no âmbito do sinal sonoro – ou seja, quando algum dado do
sinal de áudio instrumental é utilizado para gerar ou alterar características do sinal de áudio
eletroacústico – e a interação musical identificada pela escuta, a qual é centrada nas relações

3
musicais percebidas entre sons instrumentais e eletroacústicos. Neste segundo caso, a interação
musical pode não estar fundamentada numa influência no âmbito do sinal sonoro, mas ocorrer com
base numa relação planejada pela compositor (e percebida pelo ouvinte) utilizando até mesmo sons
eletroacústicos fixados em suporte e a escrita instrumental (o que se aproxima das ponderações de
Menezes, 2006, p.377-399).
Mesmo ao abordar obras em que a interação ocorre no âmbito do sinal sonoro, alguns
autores tendem a enfatizar a existência de diferentes graus de interação que vão desde casos que
visam a sincronia entre eventos instrumentais e eletroacústicos (reação) até casos mais complexos
que atribuem processos de tomada de decisão ao computador, instituindo uma situação similar à de
um computador-improvisador (Lippe, 2002; Dobrian, 2004).
Na abordagem de novas interfaces para a expressão musical ou novos instrumentos digitais
(ver, por exemplo, Wanderley, 2006), quando se fala em interação homem-máquina ou humano-
computador, o foco de discussão deixa de estar centrado nessa gradação que parte de processos
reativos para situações próximas à de um computador-improvisador para enfocar os mecanismos de
controle que se estabelecem entre o ser humano e o computador, o que geralmente inclui formas de
aquisição de movimentos e formas de mapeamento entre parâmetros de controle e parâmetros de
geração sonora. As formas de aquisição de movimento do músico podem ser indiretas – ou seja,
adquiridas com base na análise de dados disponibilizados pelo sinal de áudio captado por microfone
– ou diretas – quando as ações e movimentos dos músicos são captados diretamente por sensores,
tais como o acelerômetro e os botões (sensores de pressão) do wiimote e do nunchuk.
Assim, a abordagem aqui apresentada centra-se num conceito de interação ou interatividade
mais afinado com a perspectiva das pesquisas sobre novas interfaces e novos instrumentos musicais
do que com uma discussão sobre o tipo de resposta esperada do sistema (se mais reativa ou mais
imprevisível – e, portanto, mais próxima da improvisação). Em outras palavras, o conceito de
interação humano-computador vai aqui muitas vezes se confundir com o conceito de controle de
parâmetros sonoros a partir de uma interface de aquisição de ações e movimentos do músico – no
caso, o wiimote e o nunchuk.

4. Gravação e reprodução de amostras


Tanto Natural Tech quanto as performances de improvisação do MAMUT utilizam a
gravação/reprodução de amostras sonoras ao vivo como um importante recurso para gerar a parte
eletroacústica. Nas improvisações do MAMUT, a reprodução de amostras é geralmente realizada
com transformações muito sutis dos sons originais por meio do uso de diferentes velocidades de
reprodução, que provocam simultaneamente a transposição e a alteração da duração das amostras.
Em Natural Tech, as amostras sofrem transformações não apenas pela utilização de diferentes

4
velocidades de reprodução, mas também por meio de processamento com vocoder e modulação de
amplitude. Em ambos os casos, a manipulação de amostras é realizada com o objetivo de constituir
texturas complexas por meio da sobreposição temporalmente defasada das diferentes instâncias de
uma mesma amostra ou de amostras distintas. A utilização de diferentes velocidades de reprodução
atribui complexidade às texturas por meio da variedade de transposições e distintas velocidades de
escoamento temporal.
Em Barreiro et al. (2010) mencionamos uma implementação em Max/MSP que vem sendo
amplamente utilizada nas performances do MAMUT. Trata-se de um patch de gravação e
reprodução de amostras em tempo-real controlado por wiimote e nunchuk. O patch permite gravar
até quatro fontes sonoras simultaneamente – pois são quatro os integrantes que tocam instrumentos
acústicos no MAMUT – num total de 20 (vinte) amostras com 15 (quinze) segundos cada (ver
Figura 1).

Figura 1 – Tela principal do patch de gravação e reprodução de amostras ao vivo

É possível selecionar o momento de gravação de cada fonte, a amostra a ser disparada a cada
momento, a amplitude de cada amostra, entre outros parâmetros. A variedade de resultados obtidos
com um recurso tão simples como a reprodução de amostras é garantida pelo uso do wiimote e do
nunchuk que, por meio de uma ação combinada de rotação do nunchuk no eixo horizontal e
acionamento de alguns botões, permite a definição de diversas velocidade de reprodução das
amostras e o disparo sucessivo de uma mesma amostra ou de amostras distintas. A implementação
preenche os requisitos de permitir o controle de diversos parâmetros ao mesmo tempo, embora não

5
viabilize o estabelecimento de um relação clara entre gesto físico e resultado sonoro – o que pode,
por vezes, ser o recurso performático pretendido. Isso ocorre porque o disparo das amostras é feito
pelo simples acionamento de um dos botões do nunchuk – ou seja, um gesto físico mínimo, pouco
perceptível para o público5.
A intenção de proporcionar um claro vínculo entre gesto físico e resultado sonoro foi
perseguida na implementação de um patch de reprodução de amostras pré-gravadas desenvolvido
em Pd com a colaboração de Danilo Silva Aguiar6. Neste caso, o disparo de cada amostra ocorre
com base num gesto similar a um ataque percussivo realizado com o wiimote. A implementação
beneficiou-se de um patch de detecção de gesto percussivo desenvolvido por Fornari e Manzolli
(2010) para o aplicativo Wiitmos7, além de uma sugestão de Mariano Fernandez para que a
amplitude da amostra reproduzida fosse determinada pela velocidade do movimento realizado com
o wiimote no instante do disparo da amostra. Proporciona-se, assim, uma clara relação entre gesto e
resultado sonoro, o que pode gerar interesse visual (além de sonoro) nas performances. O patch
ainda permite determinar a velocidade de reprodução das amostras, processamento por ring
modulation, utilização de reverb, dentre outros recursos que aumentam a variedade dos resultados
sonoros obtidos8.
Diferente das implementações com o wiimote e o nunchuk descritas acima, o patch de
Natural Tech foi idealizado para que os sons eletroacústicos fossem gerados sem a necessidade de
um outro músico além do percussionista que toca a marimba e controla a mudança entre as seções
da peça por meio de pedais MIDI. A gravação e a reprodução de amostras de dois segundos de
duração são controladas por um seguidor de amplitude que analisa o sinal sonoro do instrumento ao
vivo em quatro âmbitos de amplitude distintos. A definição sobre qual dos âmbitos controla a
reprodução das amostras ocorre de forma aleatória, o que cria uma situação inusitada para o músico,
que não consegue prever se o computador irá reagir aos momentos de maior ou menor dinâmica da
execução instrumental. Criam-se, assim, situações em que o computador produz sons enquanto o
músico toca e outras em que o computador só gera eventos sonoros quando o músico silencia. Além
disso, a reprodução de amostras sonoras em Natural Tech é às vezes submetida a transformações
mais radicais do que a variação da velocidade de reprodução, ocorrendo processamento por
modulação de amplitude ou por um vocoder que gera sonoridades derivadas de filtragens de ruído
branco com articulações dinâmicas derivadas das articulações presentes nas amostras originais.

5 Ver Iazzetta (2009, p.165-172) para considerações sobre a relação entre gesto e resultado sonoro no design de
instrumentos digitais.
6 Trata-se de um dos resultados de um trabalho de Iniciação Científica realizado com bolsa PIBIC/CNPq/UFU e
orientado pelo autor.
7 Wiitmos: <http://sites.google.com/site/tutifornari/academico/pd-patches>
8 Ver Traldi et al. (2011) para considerações mais detalhadas sobre o funcionamento desse patch e os resultados
musicais obtidos na improvisação [Wii]proviso que faz uso do mesmo. Uma gravação de [Wii]mproviso encontra-se
disponível em <http://www.demac.ufu.br/numut/?p=audio.php>.
6
Embora o patch de gravação e reprodução de amostras ao vivo apresentado na Figura 1
possa ser utilizado concomitantemente com outros patches – o que permite o controle simultâneo de
diferentes camadas eletroacústicas –, o seu uso nas improvisações do MAMUT tem demonstrado
que o controle preciso de qual fonte sonora gravar – e em qual momento gravar – nem sempre é
desejável. A realização dessa operação impede que a atenção do músico possa ser dirigida para o
controle de outros processos eletroacústicos, dificultando a obtenção de uma gama ainda maior de
sonoridades ou o foco no controle de outros processos que possam ser eventualmente mais
relevantes num dado momento. Além disso, muitas vezes quando se percebe a ocorrência de algum
evento interessante, a oportunidade de gravá-lo já passou. Para sanar essas questões, e com o intuito
de explorar outras possibilidades de controle dos sons eletroacústicos nas improvisações, vêm sendo
exploradas possibilidades de automatização de algumas operações. Uma delas, é a gravação
automática de trechos mais salientes das performances dos músicos com base em seguidores de
amplitude similares ao implementado em Natural Tech. Com isso, trechos das performances dos
quatro músicos que tocam instrumentos acústicos no MAMUT são gravadas automaticamente e um
dos músicos responsáveis pela parte eletroacústica pode se concentrar no controle de distintos
aspectos relativos à reprodução das amostras, tais como o perfil dinâmico e a densidade global das
sonoridades geradas por elas, o controle de filtros e outros tipos de processamento, a organização
dos sons em determinadas faixas de frequência, a espacialização, entre outras alternativas.
Uma alternativa que vem sendo explorada na implementação desse novo patch é a
possibilidade de fazer uma “navegação” entre amostras sonoras mais recentes e mais remotas, o que
permitiria explorar sonoridades geradas em distintos momentos da performance. Em termos gerais,
isso corresponderia a explorar a “historicidade” da performance como um elemento articulador de
sua narrativa na parte eletroacústica. Para que isso possa ocorrer, as amostras gravadas são
agrupadas em bancos que funcionariam como memórias de curto, médio e longo prazo em
diferentes graus. A gravação de amostras mais recentes “desloca” as anteriores para bancos mais
remotos fazendo com que a “historicidade” da performance seja mantida como manancial latente,
passível de ser explorado na improvisação eletroacústica. Acredita-se que uma forma interessante
de percorrer esses diferentes momentos da memória da performance seja por meio de uma
“navegação” num plano bidimensional, realizada com o wiimote.
A Figura 2 apresenta um diagrama de como os bancos de amostras poderiam se organizar no
plano – onde t-1 representaria o banco das amostras mais recentes e t-4 o banco das amostras mais
remotas. É importante apontar que a presença de apenas quatro bancos é aqui meramente ilustrativa,
podendo ocorrer um número maior de subdivisões para abrigar um registro mais extenso de
amostras. Acredita-se que a “navegação” pelos bancos de amostras utilizando o wiimote possa
articular interessantes correspondências entre gesto físico e resultado sonoro nas ocasiões em que as

7
amostras de diferentes momentos da performance instrumental apresentarem qualidades sonoras
claramente distintas entre si, viabilizando mudanças sonoras perceptíveis com movimentos de uma
para outra região do plano.

Figura 2 – Diagrama ilustrativo dos bancos de amostras organizados de acordo com sua “historicidade”

A possibilidade de utilização do plano bidimensional como um ambiente interativo de


“navegação” para o disparo de eventos sonoros não é uma novidade. Tal abordagem está presente,
por exemplo, no patch Clatter9, de Peter Batchelor (Figura 3).

Figura 3 – Clatter (Max/MSP), de Peter Batchelor

Neste caso, amostras sonoras pré-gravadas são representadas pelos pequenos quadrados
vistos no canto superior esquerdo da figura. Ao percorrer o plano bidimensional com o mouse, o
usuário dispara as amostras sonoras correspondentes a cada pequeno quadrado. As velocidades de
reprodução são definidas aleatoriamente para cada amostra com base em valores contidos num

9 Clatter: <http://www.peterbatchelor.com/maxClatter.html>
8
âmbito pré-definido pelo usuário (no campo “Transposition Range” da Figura 3). O patch gera
resultados muito interessantes pela sobreposição defasada de diferentes amostras com transposições
e durações variadas.
Outro exemplo de implementação que faz uso da “navegação” interativa num plano
bidimensional é o CataRT10, de Diemo Schwarz e colaboradores (Figura 4).

Figura 4 – CataRT (Max/MSP), de Diemo Schwarz e colaboradores

Neste caso, os pontos localizados na parte direita da Figura 4 representam grãos sonoros
extraídos de amostras pré-gravadas que são dispostos no plano bidimensional em posições e cores
que correspondem às características sonoras analisadas por diferentes tipos de descritores
embutidos na implementação. Ao percorrer o plano com o mouse, o usuário seleciona os grãos que
participam da síntese sonora – neste caso, com base num método intitulado de Corpus-Based
Concatenative Synthesis (Schwarz et al., 2008).
Tremblay e Schwarz (2010, p.448) salientam o caráter interativo dos dois exemplos
anteriores (Clatter e CataRT), mas enfatizam que ambos recorrem ao mouse como dispositivo de
controle. Propõem, então, uma implementação para performances com instrumentos acústicos e
meios eletroacústicos que faz um mapeamento dos dados de análise do sinal do instrumento ao vivo
para coordenadas de navegação no plano bidimensional do CataRT em tempo-real.
Vale notar que uma outra alternativa seria incorporar implementações como a do CataRT e
do Clatter como módulos de geração sonora no desenvolvimento de novos instrumentos musicais

10 CataRT: <http://imtr.ircam.fr/imtr/CataRT>
9
digitais com o uso de interfaces gestuais. As questões a serem respondidas repousariam, então, na
escolha dos dispositivos de controle e nos modelos de mapeamento entre parâmetros de controle
(gesto físico) e parâmetros de síntese. Os resultados obtidos nas implementações desenvolvidas para
o MAMUT demonstram o potencial do uso do wiimote e do nunchuk como dispositivos de controle.

5. Granular sampling
Um outro recurso que tem sido bastante explorado para gerar os sons eletroacústicos nas
improvisações do MAMUT é a granulação de amostras sonoras pré-gravadas – técnica que, na
literatura, recebe por vezes o nome de granular sampling (ver Lippe, 1994). Tal técnica,
amplamente conhecida, já havia sido explorada pelo autor deste artigo na elaboração dos sons
eletroacústicos de obras acusmáticas em oito canais (ver Barreiro, 2010) e na instalação interativa
I/VOID/O, realizada em colaboração com o artista visual Sandro Canavezzi de Abreu (ver Barreiro
et al., 2009; e Barreiro e Keller, 2010).
A implementação para o MAMUT é, em linhas gerais, uma adaptação daquela que havia
sido utilizada em I/VOID/O, com a diferença de que os parâmetros de granulação assíncrona são
controlados com o wiimote e o nunchuk11. Numa primeira versão do patch, a distribuição dos grãos
sonoros num sistema multi-canal foi implementada para ser realizada aleatoriamente. Uma versão
posterior, no entanto, faz uso do algoritmo Boids, de Craig Reynolds – com base na implementação
feita por Eric Singer em Max/MSP12 – para controlar a distribuição dos grãos num sistema sonoro
de quatro canais.
O algoritmo Boids simula o comportamento emergente de uma revoada de pássaro a partir
de regras simples, tais como: evitar colisões com outros indivíduos, mas também não se distanciar
muito deles, e manter aproximadamente a mesma direção e velocidade que eles. Os Boids, que
representam os indivíduos no algoritmo, traçam suas trajetórias gravitando com maior ou menor
força em torno de um atrator (ver Figura 5).
O patch desenvolvido para o MAMUT segue os passos da implementação de Kim-Boyle
(2006) no que diz respeito ao controle da espacialização dos grãos com o algoritmo Boids13. A
diferença é que, no patch para o MAMUT, o atrator é controlado pelo nunchuk, cujos movimentos
são mapeados para o plano bidimensional onde os Boids se movimentam, influenciando,
consequentemente, a espacialização dos grãos na sala de concerto.

11 Ver em Traldi et al. (2011) comentários sobre o funcionamento desse patch e sua utilização na improvisação
[Wii]proviso, com sons eletroacústicos controlados por três wiimotes.
12 Ver a página de Craig Reynolds na internet em <http://www.red3d.com/cwr/boids/>. O acesso à implementação de
Eric Singer está disponível em <http://ericsinger.com/old/cyclopsmax.html>.
13 Ver Barreiro (2010) e Barreiro e Keller (2010) para considerações sobre o trabalho de Kim-Boyle e sobre outras
aplicações musicais com o algoritmo Boids desenvolvidas por outros autores.
10
Figura 5 – Posição dos Boids (quadrados) em torno do atrator (círculo laranja) num dado instante

6. Considerações Finais
Este artigo abordou algumas estratégias para a manipulação de amostras sonoras
implementadas em Max/MSP e Pd para as improvisações do Grupo Música Aberta da Universidade
Federal de Uberlândia (MAMUT) e para a obra Natural Tech.
Do ponto de vista da interação humano-computador, verifica-se tanto uma perspectiva de
aquisição indireta das ações do músico (a partir dos dados disponibilizados pelo sinal de áudio
captado pelo microfone – em Natural Tech) quanto a aquisição direta das ações/movimentos do
músico a partir dos dados do acelerômetro e do acionamento dos botões do wiimote e do nunchuk
(nas improvisações do MAMUT).
Como possíveis desdobramentos desse trabalho, pode-se mencionar a alternativa de realizar
granular sampling não apenas a partir de amostras pré-gravadas, mas também de amostras dos
instrumentos acústicos gravadas ao vivo. Acredita-se também que a possibilidade de automatização
de alguns processos na manipulação das amostras sonoras possa abrir novas possibilidades de
controle ao músico responsável pelos sons eletroacústicos nas performances. Uma dessas
alternativas é o uso de descritores para gerar parâmetros de controle baseados na análise dos sons
gerados em uma performance.
Por fim, vale apontar que o surgimento de outros dispositivos no mercado de videogames,
tais como o Kinect, da Microsoft, abre novas alternativas para a aquisição direta de gestos físicos
para o controle em tempo-real dos sons eletroacústicos, ampliando ainda mais as possibilidades de
exploração musical dos recursos tecnológicos.

Referências bibliográficas
AGUIAR, D. S. (2011). “Utilizando controles de videogame para manipular parâmetros de síntese e
processamento sonoro em tempo-real”. In: Anais do XXI Congresso da ANPPOM.
Uberlândia: ANPPOM, p.708-713.
BARREIRO, D. L. (2007). “Coherence and Spontaneity in Interferências (2003), for cello and
computer”. In: Proceedings of the 11th Brazilian Symposium on Computer Music. São Paulo:
11
IME-ECA/USP, p.35-46.
BARREIRO, D. L. (2010). “Considerations on the Handling of Space in Multichannel
Electroacoustic Works”. In: Organised Sound, v.15(3), p. 290-296.
BARREIRO, D. L.; ABREU, S. C.; CARVALHO, A. C. P. L. F (2009). “I/VOID/O: real-time
sound synthesis and video processing in an interactive installation”. In: Proceedings of the
12th Brazilian Symposium on Computer Music SBCM 2009. Recife: SBCM, p.127-138.
<http://compmus.ime.usp.br/sbcm/2009/proceedings-SBCM2009.pdf>
BARREIRO, D. L.; KELLER, D. (2010). “Composição com modelos sonoros: fundamentos e
aplicações eletroacústicas”. In: Damián Keller e Rogério Budasz (ed.). Criação Musical e
Tecnologias: Teoria e Prática Interdisciplinar. Goiânia: ANPPOM, p.97-126.
<http://anppom.com.br/editora/Pesquisa_em_Musica-02.pdf>
BARREIRO, D. L.; TRALDI, C. A.; CINTRA, C. L. A.; MENEZES JÚNIOR, C. R. F. (2010).
“Instrumentos acústicos e meios eletrônicos em tempo real: estratégias de improvisação
coletiva”. In: Revista EIMAS - Encontro Internacional de Música e Arte Sonora 2010. Juiz de
Fora: UFJF. <http://www.eimas.net/mag/04.pdf>
BARREIRO, D. L.; TRALDI, C. A.; CINTRA, C. L. A.; MENEZES JÚNIOR, C. R. F. (2011). “O
papel da improvisação em quatro obras para percussão e meios eletrônicos em tempo real”. In:
ouvirOUver, v.7(1), Dossiê Artes Contemporâneas II. Uberlândia: EDUFU (no prelo).
BRADSHAW, D.; NG, K. (2008). “Analyzing a Conductor’s Gestures with the Wiimote”. In:
Proceedings of EVA London 2008 the International Conference of Electronic Visualisation
and the Arts, p. 22-24. <http://www.bcs.org/upload/pdf/ewic_eva08_paper5.pdf>
DOBRIAN, C. (2004). “Strategies for Continuous Pitch and Amplitude Tracking in Realtime
Interactive Improvisation Software”. In: Proceedings of the Sound and Music Computing
Conference (SMC04). Paris. <http://music.arts.uci.edu/dobrian/PAPER_051.pdf>
FIGUEIRÓ, C. S. (2008). “Estratégias composicionais na interação homem-máquina”. In: Revista
Universitária do Audiovisual. São Carlos: UFSCar. <http://www.ufscar.br/rua/site/?p=605>
FORNARI, J.; MANZOLLI, J. (2010) “Modelos de Síntese Expandidos por Interfaces de Jogos”.
In: Anais do XX Congresso da ANPPOM. Florianópolis: Editora UDESC, p.790-796.
IAZZETTA, F. (2009). Música e mediação tecnológica. São Paulo: Perspectiva/FAPESP.
KIM-BOYLE, D. (2006). “Spectral and Granular Spatialization with Boids”. In: Proceedings of the
2006 International Computer Music Conference. New Orleans: ICMA, p.139-142.
LIPPE, C. (1994). “Real-time granular sampling using the IRCAM signal processing workstation”.
In: Contemporary Music Review, v.10, p.149-155.
LIPPE, C. (2002). “Real-Time Interaction Among Composers, Performers, and Computer
Systems”. In: Information Processing Society of Japan SIG Notes, v. 2002(123), p. 1-6.
<http://www.music.buffalo.edu/faculty/lippe/pdfs/Japan-2002.pdf>
MENEZES, F. (2006). Música maximalista: ensaios sobre a música radical e especulativa. São
Paulo: Editora UNESP.
PATRÍCIO, E. L. B. (2010). Instrumentos musicais digitais – uma abordagem composicional.
Dissertação (Música): Universidade Federal do Paraná.
ROLAND, A.; FIGUEIREDO, D.; FRITSCH, E. F. (2009) “Música Eletroacústica Experimental:
criação de uma interface musical interativa”. In: Anais do XIX Congresso ANPPOM. Curitiba:
ANPPOM/UFPR, p.514-517.
SCHWARZ D; CAHEN R; BRITTON S. (2008). “Principles and Applications of Interactive
Corpus-Based Concatenative Synthesis”. In: Proceedings of Journées d'Informatique
Musicale (JIM). Albi. <http://articles.ircam.fr/textes/Schwarz08a/index.pdf>
TRALDI, C. A.; AGUIAR, D. S.; BARREIRO, D. L. (2011). “[Wii]mproviso: controle gestual
numa improvisação com sons eletroacústicos em tempo real”. In: Anais do 13o. Simpósio
Brasileiro de Computação Musical – SBCM 2011. Vitória/Porto Alegre: FAESA/UFRGS,
12
p.1-12.
TREMBLAY, P. A.; SCHWARZ, D. (2010). “Surfing the Waves: Live Audio Mosaicing of an
Electric Bass Performance as a Corpus Browsing Interface”. In: Proceedings of the 2010
International Conference on New Interfaces for Musical Expression (NIME10). Sydney,
Australia: NIME. <http://eprints.hud.ac.uk/7421/>
WANDERLEY, M. M. (2006). “Instrumentos Musicais Digitais: gestos, sensors e interfaces”. In:
Beatriz Ilari (ed.) Em Busca da Mente Musical. Curitiba: Editora da Universidade Federal do
Paraná. <http://idmil.org/_media/wiki/instrumentos_digitais_final.pdf>
WONG, E. L.; KONG, H.; CHOY; C. S. T. (2008). “Designing Wii controller: a powerful musical
instrument in an interactive music performance system”. In: MoMM 08 Proceedings of the 6th
International Conference on Advances in Mobile Computing and Multimedia, p. 82-87.

13

Você também pode gostar