1Caracterização de padrões de radiação de um violãoRevisitando o Waveshaping: implementando um plugin VST para distorcer sons de guitarra author indexsubject indexsearch form
Home Pagealphabetic event listing  





An. 2. Seminário Música, Ciência e Tecnologia 2005

 

Espacialização multicanal a partir da variação de intensidade de um som

 

 

Ignacio de Campos

ignaciodc@uol.com.br

 

 


RESUMO

No domínio da composição eletroacústica é bastante comum a simulação de movimentos sonoros no espaço, mas normalmente sem se levar em conta características dos objetos sonoros, como sua evolução dinâmica. Propõe-se neste trabalho o uso de algumas técnicas para espacialização de objetos sonoros (ou uma seqüência destes) que consistem na conversão de parâmetros de evolução dinâmica em percursos espaciais e velocidades específicas. Essas descrições de percursos permitem coincidir picos de amplitude com as posições de fontes sonoras reais num sistema multicanais evitando, dessa maneira, a perda ou alteração dos gestos contidos nos objetos sonoros.

Palavras-chave: Espacialização Sonora , Composição Eletroacústica , Sistemas Multicanais


ABSTRACT

In the field of electroacoustic composition it is very common to simulate spatial movements of sounds. However, some intrinsic features of sound objects, such as their dynamic evolution, are rarely taken into account in this process. This work proposes techniques for the spatialization of a sound object (or a sequence of sound objects) which consist in the conversion of parameters of dynamic evolution into specific spatial trajectories with particular speeds. The description of such trajectories makes possible the matching of ampitude peaks with the position of real sound sources in a multichannel system, thus avoiding the loss or the alteration of gestures cointaned in sound objects.

Key-words: Sound Spatialization , Electroacoustic Music , Multi-channel Systems


 

 

1. Introdução

No domínio da composição musical eletroacústica é comum a simulação de movimentação de objetos sonoros, ou conjunto de objetos, dentro de um sistema multicanal. Os objetos a serem manipulados espacialmente podem ser dos mais variados tipos - sintéticos, gravados, harmônicos, ruidosos, contínuos, granulares, etc. - os quais muitas vezes possuem características gestuais, ou seja, de desenvolvimentos dinâmicos não-lineares, que compõem uma parte importante (se não fundamental) da intenção musical do compositor e portanto precisam ser preservadas. Na maioria dos casos, boa parte do trabalho do compositor no estágio da captação sonora se refere à escolha apropriada de um determinado gesto, mas uma movimentação espacial aplicada a posteriori ao objeto captado trabalhará justamente com a divisão de seu perfil dinâmico entre os alto-falantes (fontes sonoras reais). Quando um mesmo sinal é projetado em dois alto-falantes contíguos, o balanceamento de amplitude entre eles será, dentre as técnicas convencionais de simulação de movimento, um dos fatores predominantes na determinação de sua localização virtual, isto é, uma localização imaginada no espaço físico entre os alto-falantes. Mas a menor clareza e a maior indeterminação espacial e espectral que o objeto sonoro adquire nessa situação acaba levando à perda ou modificação acentuada do seu gesto sonoro.

 

2. Estudo de uma Situação - Rotação

Um caso simples sobre o qual podemos criar um exemplo de utilização da técnica a ser apresentada é a rotação de um som em redor do público em um sistema de difusão quadrifônico. Tomemos como exemplo um som que gera a sensação de uma pulsação temporalmente irregular. Quando criamos uma movimentação de rotação desse objeto sonoro numa determinada velocidade (em rotações por segundo), seus picos de amplitude poderão ocorrer em qualquer ponto do perímetro definido pelos altofalantes. É ainda necessário, neste exemplo, levar em conta questões referentes aos limites de nossa percepção da movimentação sonora: cada rotação não deve ser menor que a média temporal de 172 a 233 ms (BLAUERT, 1997). O problema com o qual nos defrontaremos é a atenuação dos picos de amplitude quando estes não coincidirem com as localizações das fontes sonoras reais e a acentuação de partes do objeto que estiverem 'passando' por elas. Assim a pulsação será perdida, deslocada ou atenuada, alterando as características do objeto sonoro espacializado. As situações de concerto - características da sala (tamanho, formato, reverberação), sistema de difusão, posicionamento dos altofalantes - únicas e imprevistas, já alteram naturalmente a situação 'ideal' de monitoração experienciada no estúdio de composição e criam desvios dos intuitos originais do compositor. Dessa forma, no que concerne ao domínio espacial de uma obra, métodos que possam preservar e potencializar as características sonoras pretendidas são desejáveis. Nesse sentido, a criação de rotações nas quais façamos coincidir os picos de amplitude do objeto espacializado com as localizações das fontes sonoras reais levam à potencialização ou ainda a uma expansão ou alargamento do âmbito de dinâmicas que as situações de concerto tenderão a diminuir. Para isso ter-se-á que criar rotações com diferentes velocidades respeitando os distanciamentos dos picos de amplitude presentes no som original.

 

3. Análise Temporal

Lendo e usando os espaçamentos entre os picos de amplitude de um determinado objeto estamos não apenas adequando parâmetros a uma situação musical, mas estamos também associando outros parâmetros do som à dimensão espacial e criando novas situações musicais sugeridas pelas características sônicas dos objetos analisados. Assim, as rotações acontecerão com velocidades variadas dependentes das características analisadas de cada objeto enquanto assegura a preservação do gesto.

Para a extração dos dados temporais correspondentes aos picos de amplitude foi usado o software AudioSculpt, do IRCAM, da seguinte forma:

a) criação de um sonograma do arquivo de áudio a ser analisado com parâmetros de análise estabelecidos conforme a necessidade (CAMPOS, 2005),
b) estabelecimento de um threshold de amplitude acima do qual todos os picos serão marcados,
c) exportação dos dados, em segundos, como uma lista salva em arquivo-texto.

 

 

Segue abaixo um exemplo dos dados exportados nos quais o primeiro número (20) se refere ao número de marcas de tempo encontradas no trecho sonoro analisado e os números subseqüentes correspondem aos valores de tempo das marcas em segundos.

(MARKERS 20 1.138 1.672 2.792 3.239 3.870 4.308 5.886 6.432 8.104 8.753 9.082 10.768 12.932 14.356 14.897 15.295 16.007 16.356 16.836 17.336)

 

4. Descrição Espacial e Associação de Parâmetros

O software que deverá processar o áudio para aplicação da espacialização é o Csound (MIT) através da função 'pan'. Para isso, tem-se que fornecer os dados referentes ao percurso e velocidade de rotação ajustados às sintaxes de programação do Csound. Mas para associarmos os parâmetros de tempo aos parâmetros de descrição espacial e de velocidade, utilizamos um outro software adequado para manipulação de dados - o OpenMusic (IRCAM). Toda a lógica de descrição e manipulação dos dados foi realizada em patches de OpenMusic cujo sistema de programação visual possibilita facilmente suas mudanças e adequações a novos trajetos e associações especificadas pelas necessidades do compositor, tornando-se assim uma ferramenta moldável.

A descrição do percurso a ser aplicado ao objeto pela função 'pan'é feita através de duas funções complementares que descrevem posições num espaço cartesiano, onde a função para o eixo x descreverá a movimentação lateral (esquerda-direita) e a função para o eixo y descreverá a movimentação 'frente-trás', ambas no âmbito 0 a 1, 0 significando totalmente à esquerda (eixo x) e totalmente atrás (eixo y). A descrição dos trajetos é escrita em dois buffers (regiões de memória) denominadas function tables e a criação da função se dará através da oscilação dessas tables. As velocidades de rotação podem variar no tempo e são descritas pela freqüência de oscilação. Todas as informações são formatadas e exportadas em arquivo para serem lidas pelo Csound. Assim, a duração total do som, a descrição, a duração e a velocidade do percurso espacial a ser seguido são codificados para a sintaxe própria do Csound. Segue abaixo a visão geral do patch principal à esquerda e de dois sub-patches (patches internos abstraídos para a forma de um objeto) posicionados na parte direita da figura, em cima e embaixo.

 

 

5. Aplicação da Espacialzação

A aplicação da espacialização se dá na combinação de dois arquivos de script complementares em Csound: orchestra e score. No score teremos as descrições das trajetórias espaciais, seus tempos proporcionais, o início e a duração dos arquivos de áudio. É esse arquivo que será exportado já pronto (devidamente formatado) pelo OpenMusic. O outro arquivo de script será escrito pelo compositor e informará qual o áudio que será espacializado, qual a velocidade de rotação, se ela será variável no tempo ou não e informaçõe sobre o arquivo de áudio resultante: número de anais, sample rate, etc.

 

 

A execução dos scripts gerará um arquivo de áudio de quatro canais com o objeto sonoro espacializado.

 

6. Conclusão

É possível criar espacialização em sistemas multicanais para os mais diversos tipos de objetos sonoros sem prejuízo de suas características gestuais. Testes já foram realizados com sistemas de oito canais nos quais foram aplicadas desde trajetórias espaciais pré-definidas, não necessariamente circulares, até simulações de movimentação randômica uniforme e randômica beta, na qual os extremos da extensão espacial são privilegiados em relação aos pontos centrais. A aplicação dessas técnicas de espacialização utilizando três diferentes softwares, apesar das dificuldades de acessibilidade geradas (apenas o Csound é freeware), conta com vantagens referentes a grande maleabilidade e razoavelmente fácil manipulação dos patches e scripts programados, podendo ser conformados para muitas diferentes situações/necessidades musicais que possam se apresentar para o compositor.

 

7. Referências

BLAUERT, Jens. Spatial hearing: the psychophysics of human sound localization. Cambridge, Massachusetts: The MIT Press, 2001.

BOULANGER, Richard (Ed.). The CSound Book – Perspectives in Software Synthesis, Sound Design, Signal Processing, and Programming. Cambridge: The MIT Press, 2000, 740 p.

CAMPOS, Ignacio de. Interação Tímbrica na Música Eletroacústica Mista, 2005. Dissertação, 205 f. (mestrado) - Universidade Estadual de Campinas.

EKEBERG, Frank. Space in Eletroacoustic Music: Composition, Performance and Perception of Musical Space, 2002. Tese, 165 f. (doutorado) - City University - Department of Music.

MALT, Mikhail. Les Mathématiques et la Composition Assistée par Ordinateur – Concepts, Outils et Modèles, 2000. Tese, 874 f. (doutorado) - Ecole des Hautes Etudes en Sciences Sociales. Recebido do próprio autor em 9 ago. 2003.

VERCOE, Barry et al. The Alternative Csound Reference Manual: Edição 4.23-2. Boston: MIT Media Lab, 2003. Disponível em: <http://www.kevindumpscore.com/download/manual-pdf-4.23.zip>. Acesso em: 20 fev. 2004.