Encontro Internacional de Música e Arte Sonora – EIMAS 2011 – Juiz de Fora, Brasil Manipulação de amostras sonoras em contexto interativo1 Daniel Luís Barreiro Núcleo de Música e Tecnologia (NUMUT) Universidade Federal de Uberlândia (UFU) E-mail: [email protected] Resumo Este artigo faz parte de uma pesquisa financiada pela FAPEMIG e aborda implementações (patches) em Max/MSP e Pd idealizadas para serem utilizadas em improvisações musicais envolvendo recursos eletroacústicos em tempo-real. A manipulação de amostras sonoras em contexto interativo assume um papel fundamental na realização da parte eletroacústica das improvisações. Apresenta-se aqui um panorama das implementações realizadas e de suas relações com trabalhos resultantes de pesquisas anteriores ou realizados por outros pesquisadores, além de possíveis desdobramentos futuros. A abordagem envolve a discussão de questões sobre a gestualidade no controle dos parâmetros sonoros, gravação e reprodução de amostras, granulação de amostras pré-gravadas (granular sampling), espacialização sonora e a exploração de uma “memória musical” da performance como parte do processo de improvisação. Palavras-chave Improvisação com recursos eletroacústicos em tempo-real. Manipulação de amostras sonoras. Interatividade humanocomputador. Controle gestual. Controle de síntese e processamento sonoro com wiimote. Abstract This article is related to a research funded by FAPEMIG. It discusses implementations (patches) in Max/MSP and Pd designed for musical improvisations involving real-time electroacoustic resources. The manipulation of sound samples in an interactive context plays a key role in the creation of the electroacoustic component in the improvisations. The article presents an overview of the implementations and their connection with work from previous research or work carried out by other researchers, followed by a presentation of possible future developments. The approach taken here involves aspects related to the gestural control of sonic parameters, patches for recording and playing-back sound samples, granulation of pre-recorded samples (granular sampling), sound diffusion and the exploration of a “musical memory” in a improvisation. Keywords Improvisation with realtime electroacoustic resources. Manipulation of sound samples. Human-computer interactivity. Gestural control. Sound synthesis and sound processing controlled with the wiimote. 1. Introdução O presente trabalho aborda estratégias para a manipulação de amostras em contexto interativo utilizadas nas improvisações do Grupo Música Aberta da Universidade Federal de Uberlândia (MAMUT)2 e em Natural Tech, uma composição para marimba e computador com ampla abertura para improvisação3. Tanto nas improvisações do MAMUT quanto em Natural Tech os processos de manipulação de amostras sonoras assumem um papel fundamental na realização da 1 Este trabalho faz parte de uma pesquisa financiada pela Fapemig por meio do Edital 021/2008. 2 O MAMUT é um grupo que realiza improvisações com instrumentos acústicos e recursos eletroacústicos em temporeal. É formado pelos seguintes seis docentes do Curso de Música da Universidade Federal de Uberlândia: Alexandre Zamith Almeida (piano), André Campos Machado (violão e flauta), Carlos Menezes Júnior (meios eletroacústicos), Celso Cintra (percussão e sopros), Cesar Traldi (percussão) e Daniel Barreiro (meios eletroacústicos). O grupo apresentou-se diversas vezes em concertos e congressos e já dividiu o palco com Edson Zampronha, Jônatas Manzolli e Cesar Villavicencio. Para exemplos de gravações de performances do grupo, ver <http://www.demac.ufu.br/numut/?p=audio.php>. 3 Natural Tech, de Daniel Barreiro, faz parte de um conjunto de obras para percussão e recursos eletroacústicos em tempo-real compostas para o percussionista Cesar Traldi por quatro compositores diferentes e que apresentam quatro diferentes abordagens de abertura à improvisação. Ver Barreiro et al. (2011) para maiores detalhes. O seguinte site contém a gravação de performances das peças: <http://www.demac.ufu.br/numut/?p=audio.php>. 1 parte eletroacústica. Apresentam-se abaixo algumas questões fundamentais que nortearam as estratégias de manipulação de amostras, tais como a abordagem do controle de vários parâmetros sonoros simultâneos, a gestualidade aplicada aos processos de controle, as implementações realizadas em Max/MSP, relações dessas implementações com outros trabalhos da área, além de possíveis desdobramentos dessa pesquisa. A discussão sobre manipulação de amostras bifurca-se nos seguintes dois tópicos que nortearam a programação dos patches em Max/MSP e Pd: 1) a gravação e a reprodução de amostras ao vivo; 2) a granulação de amostras pré-gravadas (ou, mais especificamente, granular sampling). 2. Controle de parâmetros e gestualidade A gravação e a manipulação de amostras sonoras nas performances do MAMUT direcionaram os trabalhos para a busca de dispositivos capazes de controlar diversos parâmetros sonoros simultaneamente e que rompessem com a imobilidade geralmente associada ao músico que controla o laptop em performances envolvendo recursos eletroacústicos. Buscou-se, assim, incorporar a gestualidade (evidente na performance instrumental) ao controle dos parâmetros dos sons eletroacústicos, o que resultou na utilização dos controladores wiimote e nunchuk, da Nintendo, para gerenciar a gravação e o processamento de amostras, além de processos de granulação em tempo-real utilizando os software Pure Data (Pd) e Max/MSP4. A incorporação do controle gestual de sons eletroacústicos utilizando os recursos do wiimote e do nunchuk encontra-se em ressonância com a afirmação de Wanderley (2006) de que a utilização exclusiva do mouse e do teclado do computador ocorre apenas em casos muito específicos no âmbito eletroacústico, como na chamada laptop music. Como parte de uma discussão mais ampla sobre indeterminação em música e propostas de improvisação contemporânea (não-idiomática), em Barreiro et al. (2010) abordamos as primeiras implementações realizadas no contexto dessa pesquisa para o uso do wiimote e do nunchuk como dispositivos de controle dos sons eletroacústicos nas improvisações do MAMUT. Em Traldi et al. (2011) discutimos as estratégias e as características técnicas e musicais de uma improvisação que centra sua exploração musical unicamente em sons eletroacústicos gerados em tempo-real por meio do controle de parâmetros sonoros com três wiimotes. Na literatura, encontram-se também várias outras referências sobre a utilização do wiimote em trabalhos musicais, tais como: Wong et al. (2008), que abordam um sistema de performance interativa; Bradshaw e Ng (2008), que abordam a aquisição e a análise dos gestos de um regente para a geração de sons e imagens; Roland et al. (2009), que 4 Capaz de se comunicar com o computador por conexão bluetooth, o wiimote mostrou-se uma alternativa interessante para a pesquisa por apresentar baixo custo, fácil reposição e por ser capaz de enviar dados de movimentos nas três coordenadas espaciais captados por um acelerômetro, além de possuir diversos botões e uma câmera infra-vermelha. Quando conectado à extensão nunchuk, as possibilidades do wiimote aumentam ainda mais com a disponibilidade de mais um acelerômetro, um joystick e outros dois botões. 2 abordam uma implementação com síntese granular; Fornari e Manzolli (2010), que abordam o controle de síntese por modelagem física; Aguiar (2011), que aborda a implementação de um theremin virtual; e Patrício (2010, p.74-79), que aborda um sistema controlado por wiimote que utiliza amostras sonoras pré-gravadas (o WiiMA). Além disso, podem ser encontrados na internet vídeos de diversas performances musicais que fazem uso do wiimote. O mesmo ocorre em congressos e festivais, tais como o próprio EIMAS, que na sua primeira edição (em 2010) contou com a performance da obra Yaguaí, para berimbau e wiimote, do compositor argentino Mariano Fernandez e com participação de Tiago Calderano. Verifica-se, assim, nas palavras de Traldi et al. (2011, p.2) que existe atualmente um grande número de pesquisas tanto no Brasil quanto no exterior que utilizam o controle wiimote como interface para captar os gestos dos músicos e utilizá-los para controlar sons eletroacústicos, o que se insere no rol das pesquisas sobre novas interfaces para a expressão musical. Ao abordar novas interfaces físicas e fazer menção ao wiimote, Figueiró (2008) afirma que “atualmente estamos saindo de uma fase de extremo fetiche genérico pela ‘tela do computador’ e entrando em uma nova fase de interação musical através de hardware com o computador”, e que “a transcendência dos comandos de computador para o controle manual de objetos no mundo real tem sido um elemento revigorante na pesquisa em interação musical”. Segundo o autor, essa abertura está possibilitando que os músicos agreguem elementos de performance a suas composições eletrônicas, trazendo os compositores de volta aos palcos, trazendo para a mesma realidade a ancestralidade do ritual musical e a parafernália digital da música do século XXI (Figueiró, 2008). Além das questões materiais de maior acesso a recursos tais como sensores, computadores mais velozes e software versáteis de processamento em tempo-real, dentre outros, Patrício (2010, p.17) atribui uma motivação artística ao crescimento no desenvolvimento de novas interfaces e novos instrumentos musicais digitais nas últimas décadas, que seria “a exploração de novas relações do homem com a performance, escuta e compreensão da música”. 3. Interatividade e mecanismos de controle Ao verificar os apontamentos de diferentes autores sobre a interatividade em performances com instrumentos acústicos e meios eletroacústicos, nota-se que o entendimento sobre o conceito de interação pode variar. Em Barreiro (2007, p.44-45) tivemos a oportunidade de mencionar a distinção entre a interação que ocorre no âmbito do sinal sonoro – ou seja, quando algum dado do sinal de áudio instrumental é utilizado para gerar ou alterar características do sinal de áudio eletroacústico – e a interação musical identificada pela escuta, a qual é centrada nas relações 3 musicais percebidas entre sons instrumentais e eletroacústicos. Neste segundo caso, a interação musical pode não estar fundamentada numa influência no âmbito do sinal sonoro, mas ocorrer com base numa relação planejada pela compositor (e percebida pelo ouvinte) utilizando até mesmo sons eletroacústicos fixados em suporte e a escrita instrumental (o que se aproxima das ponderações de Menezes, 2006, p.377-399). Mesmo ao abordar obras em que a interação ocorre no âmbito do sinal sonoro, alguns autores tendem a enfatizar a existência de diferentes graus de interação que vão desde casos que visam a sincronia entre eventos instrumentais e eletroacústicos (reação) até casos mais complexos que atribuem processos de tomada de decisão ao computador, instituindo uma situação similar à de um computador-improvisador (Lippe, 2002; Dobrian, 2004). Na abordagem de novas interfaces para a expressão musical ou novos instrumentos digitais (ver, por exemplo, Wanderley, 2006), quando se fala em interação homem-máquina ou humanocomputador, o foco de discussão deixa de estar centrado nessa gradação que parte de processos reativos para situações próximas à de um computador-improvisador para enfocar os mecanismos de controle que se estabelecem entre o ser humano e o computador, o que geralmente inclui formas de aquisição de movimentos e formas de mapeamento entre parâmetros de controle e parâmetros de geração sonora. As formas de aquisição de movimento do músico podem ser indiretas – ou seja, adquiridas com base na análise de dados disponibilizados pelo sinal de áudio captado por microfone – ou diretas – quando as ações e movimentos dos músicos são captados diretamente por sensores, tais como o acelerômetro e os botões (sensores de pressão) do wiimote e do nunchuk. Assim, a abordagem aqui apresentada centra-se num conceito de interação ou interatividade mais afinado com a perspectiva das pesquisas sobre novas interfaces e novos instrumentos musicais do que com uma discussão sobre o tipo de resposta esperada do sistema (se mais reativa ou mais imprevisível – e, portanto, mais próxima da improvisação). Em outras palavras, o conceito de interação humano-computador vai aqui muitas vezes se confundir com o conceito de controle de parâmetros sonoros a partir de uma interface de aquisição de ações e movimentos do músico – no caso, o wiimote e o nunchuk. 4. Gravação e reprodução de amostras Tanto Natural Tech quanto as performances de improvisação do MAMUT utilizam a gravação/reprodução de amostras sonoras ao vivo como um importante recurso para gerar a parte eletroacústica. Nas improvisações do MAMUT, a reprodução de amostras é geralmente realizada com transformações muito sutis dos sons originais por meio do uso de diferentes velocidades de reprodução, que provocam simultaneamente a transposição e a alteração da duração das amostras. Em Natural Tech, as amostras sofrem transformações não apenas pela utilização de diferentes 4 velocidades de reprodução, mas também por meio de processamento com vocoder e modulação de amplitude. Em ambos os casos, a manipulação de amostras é realizada com o objetivo de constituir texturas complexas por meio da sobreposição temporalmente defasada das diferentes instâncias de uma mesma amostra ou de amostras distintas. A utilização de diferentes velocidades de reprodução atribui complexidade às texturas por meio da variedade de transposições e distintas velocidades de escoamento temporal. Em Barreiro et al. (2010) mencionamos uma implementação em Max/MSP que vem sendo amplamente utilizada nas performances do MAMUT. Trata-se de um patch de gravação e reprodução de amostras em tempo-real controlado por wiimote e nunchuk. O patch permite gravar até quatro fontes sonoras simultaneamente – pois são quatro os integrantes que tocam instrumentos acústicos no MAMUT – num total de 20 (vinte) amostras com 15 (quinze) segundos cada (ver Figura 1). Figura 1 – Tela principal do patch de gravação e reprodução de amostras ao vivo É possível selecionar o momento de gravação de cada fonte, a amostra a ser disparada a cada momento, a amplitude de cada amostra, entre outros parâmetros. A variedade de resultados obtidos com um recurso tão simples como a reprodução de amostras é garantida pelo uso do wiimote e do nunchuk que, por meio de uma ação combinada de rotação do nunchuk no eixo horizontal e acionamento de alguns botões, permite a definição de diversas velocidade de reprodução das amostras e o disparo sucessivo de uma mesma amostra ou de amostras distintas. A implementação preenche os requisitos de permitir o controle de diversos parâmetros ao mesmo tempo, embora não 5 viabilize o estabelecimento de um relação clara entre gesto físico e resultado sonoro – o que pode, por vezes, ser o recurso performático pretendido. Isso ocorre porque o disparo das amostras é feito pelo simples acionamento de um dos botões do nunchuk – ou seja, um gesto físico mínimo, pouco perceptível para o público5. A intenção de proporcionar um claro vínculo entre gesto físico e resultado sonoro foi perseguida na implementação de um patch de reprodução de amostras pré-gravadas desenvolvido em Pd com a colaboração de Danilo Silva Aguiar6. Neste caso, o disparo de cada amostra ocorre com base num gesto similar a um ataque percussivo realizado com o wiimote. A implementação beneficiou-se de um patch de detecção de gesto percussivo desenvolvido por Fornari e Manzolli (2010) para o aplicativo Wiitmos7, além de uma sugestão de Mariano Fernandez para que a amplitude da amostra reproduzida fosse determinada pela velocidade do movimento realizado com o wiimote no instante do disparo da amostra. Proporciona-se, assim, uma clara relação entre gesto e resultado sonoro, o que pode gerar interesse visual (além de sonoro) nas performances. O patch ainda permite determinar a velocidade de reprodução das amostras, processamento por ring modulation, utilização de reverb, dentre outros recursos que aumentam a variedade dos resultados sonoros obtidos8. Diferente das implementações com o wiimote e o nunchuk descritas acima, o patch de Natural Tech foi idealizado para que os sons eletroacústicos fossem gerados sem a necessidade de um outro músico além do percussionista que toca a marimba e controla a mudança entre as seções da peça por meio de pedais MIDI. A gravação e a reprodução de amostras de dois segundos de duração são controladas por um seguidor de amplitude que analisa o sinal sonoro do instrumento ao vivo em quatro âmbitos de amplitude distintos. A definição sobre qual dos âmbitos controla a reprodução das amostras ocorre de forma aleatória, o que cria uma situação inusitada para o músico, que não consegue prever se o computador irá reagir aos momentos de maior ou menor dinâmica da execução instrumental. Criam-se, assim, situações em que o computador produz sons enquanto o músico toca e outras em que o computador só gera eventos sonoros quando o músico silencia. Além disso, a reprodução de amostras sonoras em Natural Tech é às vezes submetida a transformações mais radicais do que a variação da velocidade de reprodução, ocorrendo processamento por modulação de amplitude ou por um vocoder que gera sonoridades derivadas de filtragens de ruído branco com articulações dinâmicas derivadas das articulações presentes nas amostras originais. 5 Ver Iazzetta (2009, p.165-172) para considerações sobre a relação entre gesto e resultado sonoro no design de instrumentos digitais. 6 Trata-se de um dos resultados de um trabalho de Iniciação Científica realizado com bolsa PIBIC/CNPq/UFU e orientado pelo autor. 7 Wiitmos: <http://sites.google.com/site/tutifornari/academico/pd-patches> 8 Ver Traldi et al. (2011) para considerações mais detalhadas sobre o funcionamento desse patch e os resultados musicais obtidos na improvisação [Wii]proviso que faz uso do mesmo. Uma gravação de [Wii]mproviso encontra-se disponível em <http://www.demac.ufu.br/numut/?p=audio.php>. 6 Embora o patch de gravação e reprodução de amostras ao vivo apresentado na Figura 1 possa ser utilizado concomitantemente com outros patches – o que permite o controle simultâneo de diferentes camadas eletroacústicas –, o seu uso nas improvisações do MAMUT tem demonstrado que o controle preciso de qual fonte sonora gravar – e em qual momento gravar – nem sempre é desejável. A realização dessa operação impede que a atenção do músico possa ser dirigida para o controle de outros processos eletroacústicos, dificultando a obtenção de uma gama ainda maior de sonoridades ou o foco no controle de outros processos que possam ser eventualmente mais relevantes num dado momento. Além disso, muitas vezes quando se percebe a ocorrência de algum evento interessante, a oportunidade de gravá-lo já passou. Para sanar essas questões, e com o intuito de explorar outras possibilidades de controle dos sons eletroacústicos nas improvisações, vêm sendo exploradas possibilidades de automatização de algumas operações. Uma delas, é a gravação automática de trechos mais salientes das performances dos músicos com base em seguidores de amplitude similares ao implementado em Natural Tech. Com isso, trechos das performances dos quatro músicos que tocam instrumentos acústicos no MAMUT são gravadas automaticamente e um dos músicos responsáveis pela parte eletroacústica pode se concentrar no controle de distintos aspectos relativos à reprodução das amostras, tais como o perfil dinâmico e a densidade global das sonoridades geradas por elas, o controle de filtros e outros tipos de processamento, a organização dos sons em determinadas faixas de frequência, a espacialização, entre outras alternativas. Uma alternativa que vem sendo explorada na implementação desse novo patch é a possibilidade de fazer uma “navegação” entre amostras sonoras mais recentes e mais remotas, o que permitiria explorar sonoridades geradas em distintos momentos da performance. Em termos gerais, isso corresponderia a explorar a “historicidade” da performance como um elemento articulador de sua narrativa na parte eletroacústica. Para que isso possa ocorrer, as amostras gravadas são agrupadas em bancos que funcionariam como memórias de curto, médio e longo prazo em diferentes graus. A gravação de amostras mais recentes “desloca” as anteriores para bancos mais remotos fazendo com que a “historicidade” da performance seja mantida como manancial latente, passível de ser explorado na improvisação eletroacústica. Acredita-se que uma forma interessante de percorrer esses diferentes momentos da memória da performance seja por meio de uma “navegação” num plano bidimensional, realizada com o wiimote. A Figura 2 apresenta um diagrama de como os bancos de amostras poderiam se organizar no plano – onde t-1 representaria o banco das amostras mais recentes e t-4 o banco das amostras mais remotas. É importante apontar que a presença de apenas quatro bancos é aqui meramente ilustrativa, podendo ocorrer um número maior de subdivisões para abrigar um registro mais extenso de amostras. Acredita-se que a “navegação” pelos bancos de amostras utilizando o wiimote possa articular interessantes correspondências entre gesto físico e resultado sonoro nas ocasiões em que as 7 amostras de diferentes momentos da performance instrumental apresentarem qualidades sonoras claramente distintas entre si, viabilizando mudanças sonoras perceptíveis com movimentos de uma para outra região do plano. Figura 2 – Diagrama ilustrativo dos bancos de amostras organizados de acordo com sua “historicidade” A possibilidade de utilização do plano bidimensional como um ambiente interativo de “navegação” para o disparo de eventos sonoros não é uma novidade. Tal abordagem está presente, por exemplo, no patch Clatter9, de Peter Batchelor (Figura 3). Figura 3 – Clatter (Max/MSP), de Peter Batchelor Neste caso, amostras sonoras pré-gravadas são representadas pelos pequenos quadrados vistos no canto superior esquerdo da figura. Ao percorrer o plano bidimensional com o mouse, o usuário dispara as amostras sonoras correspondentes a cada pequeno quadrado. As velocidades de reprodução são definidas aleatoriamente para cada amostra com base em valores contidos num 9 Clatter: <http://www.peterbatchelor.com/maxClatter.html> 8 âmbito pré-definido pelo usuário (no campo “Transposition Range” da Figura 3). O patch gera resultados muito interessantes pela sobreposição defasada de diferentes amostras com transposições e durações variadas. Outro exemplo de implementação que faz uso da “navegação” interativa num plano bidimensional é o CataRT10, de Diemo Schwarz e colaboradores (Figura 4). Figura 4 – CataRT (Max/MSP), de Diemo Schwarz e colaboradores Neste caso, os pontos localizados na parte direita da Figura 4 representam grãos sonoros extraídos de amostras pré-gravadas que são dispostos no plano bidimensional em posições e cores que correspondem às características sonoras analisadas por diferentes tipos de descritores embutidos na implementação. Ao percorrer o plano com o mouse, o usuário seleciona os grãos que participam da síntese sonora – neste caso, com base num método intitulado de Corpus-Based Concatenative Synthesis (Schwarz et al., 2008). Tremblay e Schwarz (2010, p.448) salientam o caráter interativo dos dois exemplos anteriores (Clatter e CataRT), mas enfatizam que ambos recorrem ao mouse como dispositivo de controle. Propõem, então, uma implementação para performances com instrumentos acústicos e meios eletroacústicos que faz um mapeamento dos dados de análise do sinal do instrumento ao vivo para coordenadas de navegação no plano bidimensional do CataRT em tempo-real. Vale notar que uma outra alternativa seria incorporar implementações como a do CataRT e do Clatter como módulos de geração sonora no desenvolvimento de novos instrumentos musicais 10 CataRT: <http://imtr.ircam.fr/imtr/CataRT> 9 digitais com o uso de interfaces gestuais. As questões a serem respondidas repousariam, então, na escolha dos dispositivos de controle e nos modelos de mapeamento entre parâmetros de controle (gesto físico) e parâmetros de síntese. Os resultados obtidos nas implementações desenvolvidas para o MAMUT demonstram o potencial do uso do wiimote e do nunchuk como dispositivos de controle. 5. Granular sampling Um outro recurso que tem sido bastante explorado para gerar os sons eletroacústicos nas improvisações do MAMUT é a granulação de amostras sonoras pré-gravadas – técnica que, na literatura, recebe por vezes o nome de granular sampling (ver Lippe, 1994). Tal técnica, amplamente conhecida, já havia sido explorada pelo autor deste artigo na elaboração dos sons eletroacústicos de obras acusmáticas em oito canais (ver Barreiro, 2010) e na instalação interativa I/VOID/O, realizada em colaboração com o artista visual Sandro Canavezzi de Abreu (ver Barreiro et al., 2009; e Barreiro e Keller, 2010). A implementação para o MAMUT é, em linhas gerais, uma adaptação daquela que havia sido utilizada em I/VOID/O, com a diferença de que os parâmetros de granulação assíncrona são controlados com o wiimote e o nunchuk11. Numa primeira versão do patch, a distribuição dos grãos sonoros num sistema multi-canal foi implementada para ser realizada aleatoriamente. Uma versão posterior, no entanto, faz uso do algoritmo Boids, de Craig Reynolds – com base na implementação feita por Eric Singer em Max/MSP12 – para controlar a distribuição dos grãos num sistema sonoro de quatro canais. O algoritmo Boids simula o comportamento emergente de uma revoada de pássaro a partir de regras simples, tais como: evitar colisões com outros indivíduos, mas também não se distanciar muito deles, e manter aproximadamente a mesma direção e velocidade que eles. Os Boids, que representam os indivíduos no algoritmo, traçam suas trajetórias gravitando com maior ou menor força em torno de um atrator (ver Figura 5). O patch desenvolvido para o MAMUT segue os passos da implementação de Kim-Boyle (2006) no que diz respeito ao controle da espacialização dos grãos com o algoritmo Boids13. A diferença é que, no patch para o MAMUT, o atrator é controlado pelo nunchuk, cujos movimentos são mapeados para o plano bidimensional onde os Boids se movimentam, influenciando, consequentemente, a espacialização dos grãos na sala de concerto. 11 Ver em Traldi et al. (2011) comentários sobre o funcionamento desse patch e sua utilização na improvisação [Wii]proviso, com sons eletroacústicos controlados por três wiimotes. 12 Ver a página de Craig Reynolds na internet em <http://www.red3d.com/cwr/boids/>. O acesso à implementação de Eric Singer está disponível em <http://ericsinger.com/old/cyclopsmax.html>. 13 Ver Barreiro (2010) e Barreiro e Keller (2010) para considerações sobre o trabalho de Kim-Boyle e sobre outras aplicações musicais com o algoritmo Boids desenvolvidas por outros autores. 10 Figura 5 – Posição dos Boids (quadrados) em torno do atrator (círculo laranja) num dado instante 6. Considerações Finais Este artigo abordou algumas estratégias para a manipulação de amostras sonoras implementadas em Max/MSP e Pd para as improvisações do Grupo Música Aberta da Universidade Federal de Uberlândia (MAMUT) e para a obra Natural Tech. Do ponto de vista da interação humano-computador, verifica-se tanto uma perspectiva de aquisição indireta das ações do músico (a partir dos dados disponibilizados pelo sinal de áudio captado pelo microfone – em Natural Tech) quanto a aquisição direta das ações/movimentos do músico a partir dos dados do acelerômetro e do acionamento dos botões do wiimote e do nunchuk (nas improvisações do MAMUT). Como possíveis desdobramentos desse trabalho, pode-se mencionar a alternativa de realizar granular sampling não apenas a partir de amostras pré-gravadas, mas também de amostras dos instrumentos acústicos gravadas ao vivo. Acredita-se também que a possibilidade de automatização de alguns processos na manipulação das amostras sonoras possa abrir novas possibilidades de controle ao músico responsável pelos sons eletroacústicos nas performances. Uma dessas alternativas é o uso de descritores para gerar parâmetros de controle baseados na análise dos sons gerados em uma performance. Por fim, vale apontar que o surgimento de outros dispositivos no mercado de videogames, tais como o Kinect, da Microsoft, abre novas alternativas para a aquisição direta de gestos físicos para o controle em tempo-real dos sons eletroacústicos, ampliando ainda mais as possibilidades de exploração musical dos recursos tecnológicos. Referências bibliográficas AGUIAR, D. S. (2011). “Utilizando controles de videogame para manipular parâmetros de síntese e processamento sonoro em tempo-real”. In: Anais do XXI Congresso da ANPPOM. Uberlândia: ANPPOM, p.708-713. BARREIRO, D. L. (2007). “Coherence and Spontaneity in Interferências (2003), for cello and computer”. In: Proceedings of the 11th Brazilian Symposium on Computer Music. São Paulo: 11 IME-ECA/USP, p.35-46. BARREIRO, D. L. (2010). “Considerations on the Handling of Space in Multichannel Electroacoustic Works”. In: Organised Sound, v.15(3), p. 290-296. BARREIRO, D. L.; ABREU, S. C.; CARVALHO, A. C. P. L. F (2009). “I/VOID/O: real-time sound synthesis and video processing in an interactive installation”. In: Proceedings of the 12th Brazilian Symposium on Computer Music SBCM 2009. Recife: SBCM, p.127-138. <http://compmus.ime.usp.br/sbcm/2009/proceedings-SBCM2009.pdf> BARREIRO, D. L.; KELLER, D. (2010). “Composição com modelos sonoros: fundamentos e aplicações eletroacústicas”. In: Damián Keller e Rogério Budasz (ed.). Criação Musical e Tecnologias: Teoria e Prática Interdisciplinar. Goiânia: ANPPOM, p.97-126. <http://anppom.com.br/editora/Pesquisa_em_Musica-02.pdf> BARREIRO, D. L.; TRALDI, C. A.; CINTRA, C. L. A.; MENEZES JÚNIOR, C. R. F. (2010). “Instrumentos acústicos e meios eletrônicos em tempo real: estratégias de improvisação coletiva”. In: Revista EIMAS - Encontro Internacional de Música e Arte Sonora 2010. Juiz de Fora: UFJF. <http://www.eimas.net/mag/04.pdf> BARREIRO, D. L.; TRALDI, C. A.; CINTRA, C. L. A.; MENEZES JÚNIOR, C. R. F. (2011). “O papel da improvisação em quatro obras para percussão e meios eletrônicos em tempo real”. In: ouvirOUver, v.7(1), Dossiê Artes Contemporâneas II. Uberlândia: EDUFU (no prelo). BRADSHAW, D.; NG, K. (2008). “Analyzing a Conductor’s Gestures with the Wiimote”. In: Proceedings of EVA London 2008 the International Conference of Electronic Visualisation and the Arts, p. 22-24. <http://www.bcs.org/upload/pdf/ewic_eva08_paper5.pdf> DOBRIAN, C. (2004). “Strategies for Continuous Pitch and Amplitude Tracking in Realtime Interactive Improvisation Software”. In: Proceedings of the Sound and Music Computing Conference (SMC04). Paris. <http://music.arts.uci.edu/dobrian/PAPER_051.pdf> FIGUEIRÓ, C. S. (2008). “Estratégias composicionais na interação homem-máquina”. In: Revista Universitária do Audiovisual. São Carlos: UFSCar. <http://www.ufscar.br/rua/site/?p=605> FORNARI, J.; MANZOLLI, J. (2010) “Modelos de Síntese Expandidos por Interfaces de Jogos”. In: Anais do XX Congresso da ANPPOM. Florianópolis: Editora UDESC, p.790-796. IAZZETTA, F. (2009). Música e mediação tecnológica. São Paulo: Perspectiva/FAPESP. KIM-BOYLE, D. (2006). “Spectral and Granular Spatialization with Boids”. In: Proceedings of the 2006 International Computer Music Conference. New Orleans: ICMA, p.139-142. LIPPE, C. (1994). “Real-time granular sampling using the IRCAM signal processing workstation”. In: Contemporary Music Review, v.10, p.149-155. LIPPE, C. (2002). “Real-Time Interaction Among Composers, Performers, and Computer Systems”. In: Information Processing Society of Japan SIG Notes, v. 2002(123), p. 1-6. <http://www.music.buffalo.edu/faculty/lippe/pdfs/Japan-2002.pdf> MENEZES, F. (2006). Música maximalista: ensaios sobre a música radical e especulativa. São Paulo: Editora UNESP. PATRÍCIO, E. L. B. (2010). Instrumentos musicais digitais – uma abordagem composicional. Dissertação (Música): Universidade Federal do Paraná. ROLAND, A.; FIGUEIREDO, D.; FRITSCH, E. F. (2009) “Música Eletroacústica Experimental: criação de uma interface musical interativa”. In: Anais do XIX Congresso ANPPOM. Curitiba: ANPPOM/UFPR, p.514-517. SCHWARZ D; CAHEN R; BRITTON S. (2008). “Principles and Applications of Interactive Corpus-Based Concatenative Synthesis”. In: Proceedings of Journées d'Informatique Musicale (JIM). Albi. <http://articles.ircam.fr/textes/Schwarz08a/index.pdf> TRALDI, C. A.; AGUIAR, D. S.; BARREIRO, D. L. (2011). “[Wii]mproviso: controle gestual numa improvisação com sons eletroacústicos em tempo real”. In: Anais do 13o. Simpósio Brasileiro de Computação Musical – SBCM 2011. Vitória/Porto Alegre: FAESA/UFRGS, 12 p.1-12. TREMBLAY, P. A.; SCHWARZ, D. (2010). “Surfing the Waves: Live Audio Mosaicing of an Electric Bass Performance as a Corpus Browsing Interface”. In: Proceedings of the 2010 International Conference on New Interfaces for Musical Expression (NIME10). Sydney, Australia: NIME. <http://eprints.hud.ac.uk/7421/> WANDERLEY, M. M. (2006). “Instrumentos Musicais Digitais: gestos, sensors e interfaces”. In: Beatriz Ilari (ed.) Em Busca da Mente Musical. Curitiba: Editora da Universidade Federal do Paraná. <http://idmil.org/_media/wiki/instrumentos_digitais_final.pdf> WONG, E. L.; KONG, H.; CHOY; C. S. T. (2008). “Designing Wii controller: a powerful musical instrument in an interactive music performance system”. In: MoMM 08 Proceedings of the 6th International Conference on Advances in Mobile Computing and Multimedia, p. 82-87. 13