Sonification in practice/pt: Difference between revisions

From Soundscapes
Jump to navigation Jump to search
(Created page with "Além disso, a análise dos métodos de mapeamento de dados em conjunto com a escala diatônica abre um campo promissor para a exploração de ferramentas pedagógicas que permitem o processamento do som em termos de composição musical. O uso do MIDI para o processamento de som ou o realce de motivos musicais — que podem servir como ponto de partida para a criação de composições musicais — amplia perfeitamente a sonificação adaptativa. De facto, a representa...")
No edit summary
 
(80 intermediate revisions by 2 users not shown)
Line 3: Line 3:


Os aspetos abaixo definem a relação entre as necessidades educativas e o conceito de som, bem como a sua organização estruturada ao longo do tempo — ou seja, o conceito de música.
Os aspetos abaixo definem a relação entre as necessidades educativas e o conceito de som, bem como a sua organização estruturada ao longo do tempo — ou seja, o conceito de música.


<span id="Aspects_of_teaching_with_Sonification_as_a_musical_practice"></span>
<span id="Aspects_of_teaching_with_Sonification_as_a_musical_practice"></span>
==Aspectos do ensino da sonificação como prática musical==
==Aspectos do ensino da sonificação como prática musical==


A ligação indiscutível entre o som e os números — mais concretamente, o conceito de decompor o som em frequências ou harmónicos — proporciona um quadro suficientemente estruturado para o ensino interdisciplinar com recurso ao som, no âmbito do qual todos os aspetos das disciplinas STEAM podem ser abordados. Uma vez que o conceito de tempo define o fenómeno sonoro, o ato de representação de um efeito sonoro não pode deixar de estar no centro de qualquer abordagem pedagógica. Consequentemente, a disposição organizada de elementos sonoros no tempo de forma harmoniosa — tanto em termos de ritmo, intensidade, timbre, altura e a sua localização na escala musical, seja ela diatónica ou não — constitui um resultado musical. Esta organização racional pode servir como um campo de experimentação na composição musical, enquanto a parametrização de todos os conceitos acima referidos pode enriquecer qualquer objetivo educativo que dependa da evolução de um fenómeno ao longo do tempo ou da conversão de dados em som.
A ligação indiscutível entre o som e os números — mais concretamente, o conceito de decompor o som em frequências ou harmónicos — proporciona um quadro suficientemente estruturado para o ensino interdisciplinar com recurso ao som, no âmbito do qual todos os aspetos do STEAM podem ser abordados. Uma vez que o conceito de tempo define o fenómeno sonoro, o ato de representação de um efeito sonoro não pode deixar de estar no centro de qualquer abordagem pedagógica. Consequentemente, a disposição organizada de elementos sonoros no tempo de forma harmoniosa — tanto em termos de ritmo, intensidade, timbre, altura e a sua localização na escala musical, seja ela diatónica ou não — constitui um resultado musical. Esta organização racional pode servir como um campo de experimentação na composição musical, enquanto a parametrização de todos os conceitos acima referidos pode enriquecer qualquer objetivo educativo que dependa da evolução de um fenómeno ao longo do tempo ou da conversão de dados em som.


Assim, podemos distinguir, de forma razoável, o conceito de sonificação para fins educativos em três abordagens básicas:
Assim, podemos distinguir, de forma razoável, o conceito de sonificação para fins educativos em três abordagens básicas:


'''• O simbólico''' 


'‘’• O simbólico''
'''A matemática'''
 
'‘’• A matemática'''
 
'‘’• O adaptativo'''


'''• O adaptativo'''


<span id="Symbolic_Sonification"></span>
==Sonificação simbólica==
==Sonificação simbólica==


Line 26: Line 24:
Um exemplo simples seria «pintar com sons» uma nuvem cinzenta utilizando ruído de baixa frequência e uma nuvem branca utilizando ruído de alta frequência. Outro exemplo seria uma turma de alunos a representar o som da chuva batendo aleatoriamente com as unhas nas secretárias. Outro exemplo que relaciona a composição com a representação musical é o leitmotiv. Um leitmotiv é um tema melódico curto composto por algumas notas específicas que, como um motivo (padrão) único, está associado a uma personagem numa ópera e é tocado pela orquestra, particularmente nas óperas de Wagner. O leitmotiv de uma personagem faz com que esta nos venha à mente ao longo de toda a obra, quer a personagem esteja em cena ou não! Traduzindo isto para uma série de dados, tal leitmotiv poderia substituir o som esperado de um valor baixo ou alto proeminente (ou um valor específico ou mesmo um intervalo de valores) sem ter qualquer coerência ou decorrer dos dados vizinhos.
Um exemplo simples seria «pintar com sons» uma nuvem cinzenta utilizando ruído de baixa frequência e uma nuvem branca utilizando ruído de alta frequência. Outro exemplo seria uma turma de alunos a representar o som da chuva batendo aleatoriamente com as unhas nas secretárias. Outro exemplo que relaciona a composição com a representação musical é o leitmotiv. Um leitmotiv é um tema melódico curto composto por algumas notas específicas que, como um motivo (padrão) único, está associado a uma personagem numa ópera e é tocado pela orquestra, particularmente nas óperas de Wagner. O leitmotiv de uma personagem faz com que esta nos venha à mente ao longo de toda a obra, quer a personagem esteja em cena ou não! Traduzindo isto para uma série de dados, tal leitmotiv poderia substituir o som esperado de um valor baixo ou alto proeminente (ou um valor específico ou mesmo um intervalo de valores) sem ter qualquer coerência ou decorrer dos dados vizinhos.


 
<span id="Mathematical_Sonification"></span>
==Sonificação Matemática==
==Sonificação matemática==


Quando o tom, a intensidade, o timbre, o ritmo (se houver) e a duração, enquanto características sonoras, são associados a uma série de medições de dados relacionadas com um termo físico ou um conceito científico, formam um mapa lógico de uma ou mais partes dessa série (mapeamento direto de dados). O resultado sonoro dessa correspondência é a sonificação matemática.
Quando o tom, a intensidade, o timbre, o ritmo (se houver) e a duração, enquanto características sonoras, são associados a uma série de medições de dados relacionadas com um termo físico ou um conceito científico, formam um mapa lógico de uma ou mais partes dessa série (mapeamento direto de dados). O resultado sonoro dessa correspondência é a sonificação matemática.
Line 35: Line 33:
Para compreender a diferença entre representação simbólica e matemática, podemos adaptar os exemplos anteriores como «atividades sem tecnologia» numa sala de aula. A sonificação matemática no exemplo das nuvens ocorreria se definíssemos um limiar de cor para o branco ou o cinzento e representássemos as gotículas que compõem as nuvens com milhões de partículas de frequência de duração mínima (nebulosas sonoras), das quais as nuvens são compostas. No exemplo da chuva, teríamos uma sonificação matemática se os alunos representassem com precisão absoluta, uma a uma, cada gota de chuva num momento específico e numa área de superfície determinada.  Por fim, no exemplo do «estacionamento», teríamos uma representação simbólica se os olhos dos alunos assumissem o papel do sensor, onde os dados seriam estimados visualmente sem uma medição matemática absoluta.
Para compreender a diferença entre representação simbólica e matemática, podemos adaptar os exemplos anteriores como «atividades sem tecnologia» numa sala de aula. A sonificação matemática no exemplo das nuvens ocorreria se definíssemos um limiar de cor para o branco ou o cinzento e representássemos as gotículas que compõem as nuvens com milhões de partículas de frequência de duração mínima (nebulosas sonoras), das quais as nuvens são compostas. No exemplo da chuva, teríamos uma sonificação matemática se os alunos representassem com precisão absoluta, uma a uma, cada gota de chuva num momento específico e numa área de superfície determinada.  Por fim, no exemplo do «estacionamento», teríamos uma representação simbólica se os olhos dos alunos assumissem o papel do sensor, onde os dados seriam estimados visualmente sem uma medição matemática absoluta.


<span id="Adaptive_Sonification"></span>
==Sonificação adaptativa==


==Sonificação Adaptativa==
Trata-se de um projeto sonoro ou de uma composição musical (alargando este conceito), resultante da sonificação matemática, na qual, no entanto, são utilizados de forma criativa métodos de representação sonora estética para atingir objetivos pedagógicos na descrição de conceitos de aprendizagem.
Trata-se de um projeto sonoro ou de uma composição musical (alargando este conceito), resultante da sonificação matemática, na qual, no entanto, são utilizados de forma criativa métodos de representação sonora estética para atingir objetivos pedagógicos na descrição de conceitos de aprendizagem.


Além disso, a análise dos métodos de mapeamento de dados em conjunto com a escala diatônica abre um campo promissor para a exploração de ferramentas pedagógicas que permitem o processamento do som em termos de composição musical. O uso do MIDI para o processamento de som ou o realce de motivos musicais — que podem servir como ponto de partida para a criação de composições musicais — amplia perfeitamente a sonificação adaptativa. De facto, a representação gráfica dos dados (visualização gráfica) pode ser transformada criativamente em som, tratando a visualização como um esquema bidimensional, ou mesmo uma fotografia como uma imagem tridimensional. O resultado é designado por «sonificação esquemática».  
Além disso, a análise dos métodos de mapeamento de dados em conjunto com a escala diatônica abre um campo promissor para a exploração de ferramentas pedagógicas que permitem o processamento do som em termos de composição musical. O uso do MIDI para o processamento de som ou o realce de motivos musicais — que podem servir como ponto de partida para a criação de composições musicais — amplia perfeitamente a sonificação adaptativa. De facto, a representação gráfica dos dados (visualização gráfica) pode ser transformada criativamente em som, tratando a visualização como um esquema bidimensional, ou mesmo uma fotografia como uma imagem tridimensional. O resultado é designado por «sonificação esquemática».  


<div lang="en" dir="ltr" class="mw-content-ltr">
Esta abordagem adaptável alarga o acesso aos resultados auditivos da sonificação de dados a uma vasta gama de faixas etárias e níveis escolares, convidando educadores de outras disciplinas — tais como Arte, Teatro e Música — a participar ativamente no ensino interdisciplinar. Um exemplo desta abordagem foi implementado no cenário «Sounds of the Stars» <ref>https://soundscapes.nuclio.org/wp-content/uploads/2026/03/Sounds-of-the-Stars-A-SoundScapes-Scenario.pdf</ref> em colaboração com o Observatório Nacional de Atenas (comunidade: Ήχοι των Άστρων<ref>https://www.schoolofthefuture.eu/en/community/oi-ihoi-ton-astron</ref>). O cenário faz parte do repositório de cenários de aprendizagem SoundScapes <ref>https://soundscapes.nuclio.org/index.php/344-2/</ref>.
This adaptable approach broadens access to the auditory outcome of data sonification across a wide range of age groups and grade levels, inviting educators from other disciplines—such as Art, Theater, and Music, to actively participate in interdisciplinary teaching. An example of this approach has been implemented in the "Sounds of the Stars" scenario <ref>https://soundscapes.nuclio.org/wp-content/uploads/2026/03/Sounds-of-the-Stars-A-SoundScapes-Scenario.pdf</ref> in collaboration with the National Observatory of Athens (community: Ήχοι των Άστρων<ref>https://www.schoolofthefuture.eu/en/community/oi-ihoi-ton-astron</ref>). The scenario is part of the  SoundScapes learning scenarios repository <ref>https://soundscapes.nuclio.org/index.php/344-2/</ref>.
</div>
 
<div lang="en" dir="ltr" class="mw-content-ltr">
==THE MIDI protocol. Why is it useful for sonification in school?==
MIDI Protocol stands for Musical Instrument Digital Interface and was introduced in early ’80s as machine language allowing analog and later digital instruments interconnection. This language interprets several aspects of music performance and notation in an electronic format.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="THE_MIDI_protocol._Why_is_it_useful_for_sonification_in_school?"></span>
MIDI enables the user to receive, transmit, store and edit electronically produced signals that correspond to several aspects of music. Main parameters of these aspects include note-on, note-off, velocity, timbre and pitch. All these parameters can be stored as code in timeline fashion within a MIDI file. A MIDI file resembles the “program” in the form of a revolving cylinder or perforated paper used in late 18th c. music boxes or early 20th c. “pianolas”, which are musical automata. It is this characteristic that can be proved enormously useful for educational purposes, as numerous midi applications, sensors and programs are widely spread throughout the internet.
==O protocolo MIDI. Por que é útil para a sonificação na escola?==
However, it is the ability to edit the output as a musical score or as a part of a polyphonic composition that makes MIDI an exceptionally powerful educational tool. Within the present WIKI pages sensors using MIDI in particular, are widely displayed.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
O protocolo MIDI, sigla de Musical Instrument Digital Interface, foi introduzido no início dos anos 80 como uma linguagem de programação que permite a interligação entre instrumentos analógicos e, posteriormente, digitais. Esta linguagem interpreta vários aspetos da interpretação musical e da notação musical num formato eletrónico.  
==Sonification components==
A sonification activity consists in the design and building of a sonification system. A sonification system can be accomplished in many different ways but 3 components must always be considered:
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
O MIDI permite ao utilizador receber, transmitir, armazenar e editar sinais produzidos eletronicamente que correspondem a vários aspetos da música. Os principais parâmetros destes aspetos incluem o início da nota (note-on), o fim da nota (note-off), a velocidade, o timbre e a altura do som. Todos estes parâmetros podem ser armazenados sob a forma de código numa linha temporal dentro de um ficheiro MIDI. Um ficheiro MIDI assemelha-se ao «programa» na forma de um cilindro giratório ou papel perfurado utilizado nas caixas de música do final do século XVIII ou nas «pianolas» do início do século XX, que são autômatos musicais. É esta característica que se pode revelar extremamente útil para fins educativos, uma vez que inúmeras aplicações MIDI, sensores e programas estão amplamente disseminados pela Internet.
1) INPUT DATA;
No entanto, é a capacidade de editar a saída como uma partitura musical ou como parte de uma composição polifónica que torna o MIDI uma ferramenta educativa excepcionalmente poderosa. Nas presentes páginas WIKI, são amplamente apresentados sensores que utilizam MIDI em particular.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Sonification_components"></span>
2) MAPPING PROTOCOL;
==Componentes de sonificação==
</div>  


<div lang="en" dir="ltr" class="mw-content-ltr">
Uma atividade de sonificação consiste na conceção e construção de um sistema de sonificação. Um sistema de sonificação pode ser concretizado de muitas formas diferentes, mas há três componentes que devem ser sempre tidos em conta:
3) AUDIO OUTPUT;
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
1) DADOS DE ENTRADA;
== Input Data ==
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
2) PROTOCOLO DE MAPEAMENTO;
In a sonification system, which is our final product, the data is the source of the sound engine, and some particular sounds will be the output. The inputs and outputs are mapped onto each other following a protocol that establishes which sounds are played according to which data. So first we need to know and understand the data we want to sonify. We must know what we want to say with our system - what we will talk about. We must know how the data change (usually we have time based data but there can also be spatially referenced data, like maps) and what characteristics of its behavior we want to represent. For example if you have a single value (like luminosity of a star, linear position of a car, amount of likes in a youtube channel, number of new posts on wikipedia, etc) you can choose to play a sound when this value is more than a certain threshold value, or play a sound that gets louder when the values becomes higher, or a sound when the values are raising or decreasing in time. In some cases it is useful to determine the highest and the lowest value within the whole range of values available. In terms of outputs this can help define a “container” of initial values that can define the range of deviations in the output. We can highlight certain features of data. There are many types of data. The most common are: 
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
3) SAÍDA DE ÁUDIO;
'''Single data:''' indicating a state ON-OFF (boolean data).
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Input_Data"></span>
'''A single data value covering a range of values:''' usually mapped to a single sound or sound feature like the pitch, or bpm (beats per minute), or an effect, but it can control more than one feature or sound at once.
== Dados de entrada ==
</div>  


<div lang="en" dir="ltr" class="mw-content-ltr">
Num sistema de sonificação, que é o nosso produto final, os dados constituem a fonte do motor sonoro, e determinados sons específicos serão o resultado final. As entradas e as saídas são mapeadas entre si seguindo um protocolo que estabelece quais os sons que são reproduzidos em função de quais dados. Por isso, em primeiro lugar, precisamos de conhecer e compreender os dados que pretendemos sonificar. Temos de saber o que queremos transmitir com o nosso sistema — sobre o que vamos falar. Temos de saber como os dados mudam (normalmente temos dados baseados no tempo, mas também podem existir dados com referência espacial, como mapas) e que características do seu comportamento queremos representar. Por exemplo, se tiver um único valor (como a luminosidade de uma estrela, a posição linear de um carro, a quantidade de gostos num canal do YouTube, o número de novas publicações na Wikipédia, etc.), pode optar por reproduzir um som quando esse valor for superior a um determinado valor-limite, ou reproduzir um som que se torne mais alto à medida que os valores aumentam, ou um som quando os valores estão a aumentar ou a diminuir ao longo do tempo. Em alguns casos, é útil determinar o valor mais alto e o mais baixo dentro de todo o intervalo de valores disponíveis. Em termos de saídas, isto pode ajudar a definir um «conjunto» de valores iniciais que pode definir o intervalo de desvios na saída. Podemos destacar certas características dos dados. Existem muitos tipos de dados. Os mais comuns são:
'''Multiple data:''' more than one data of the previous type. Usually there are many types of data collected at the same time so these data sets consist of several layers of synchronized data.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
'''Dados únicos:''' indicando um estado LIGADO-DESLIGADO (dados booleanos).
Sound has the advantage over visual perception that more layers of data can be perceived at the same time. Changes in patterns are more easily detected listening than looking at. Especially if the amount of data is very large. So, in sum, we need to consider the data we have, how they evolve in time, how they are arranged and what are the salient parts we want to use to feed our sonification system. We have to ask ourselves “what will the sound mean?” We need to understand that data is not the message! We must metabolize the data and their behavior and find what message will be triggering sound.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
'''Um único valor de dados que abrange um intervalo de valores:''' normalmente associado a um único som ou característica sonora, como a altura do som, o bpm (batidas por minuto) ou um efeito, mas pode controlar mais do que uma característica ou som ao mesmo tempo.
And, therefore, before this we need to ask ourselves what is the purpose of the sonification? Will it be applied continuously, maybe in the background, or just after some time of collecting data, or both?
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
'''Dados múltiplos:''' mais do que um dado do tipo anterior. Normalmente, são recolhidos vários tipos de dados em simultâneo, pelo que estes conjuntos de dados consistem em várias camadas de dados sincronizados.
===Real-Time Sonification vs  “A Posteriori”===
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
O som tem a vantagem, em relação à perceção visual, de permitir a perceção simultânea de mais camadas de dados. As alterações nos padrões são mais facilmente detetadas através da audição do que da visão. Especialmente se a quantidade de dados for muito grande. Assim, em suma, precisamos de considerar os dados de que dispomos, a forma como evoluem ao longo do tempo, como estão organizados e quais são os aspetos mais relevantes que pretendemos utilizar para alimentar o nosso sistema de sonificação. Temos de nos perguntar «o que significará o som?» Temos de compreender que os dados não são a mensagem! Temos de metabolizar os dados e o seu comportamento e descobrir que mensagem irá desencadear o som.
Acording to the use of the sonification system (to analyze or to monitor a certain phenomena) we distinguish two “modes”:
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
E, por isso, antes de mais nada, temos de nos perguntar qual é o objetivo da sonificação? Será aplicada de forma contínua, talvez em segundo plano, ou apenas após algum tempo de recolha de dados, ou ambas as coisas?
'''Real-time (to monitor)''' - a stream of data is sonifed instantly and a sound is produced to display the value and behavior of the data in that particular moment;
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Real-Time_Sonification_vs_“A_Posteriori”"></span>
'''“A posteriori” (to analyze)''' - time-series sonification of a set of pre-recorded data is converted into an audio file that displays the values and behavior of the data over the period of time covered by the time-series. 
===Sonificação em tempo real vs. «A posteriori»===
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
De acordo com a finalidade do sistema de sonificação (para analisar ou monitorizar um determinado fenómeno), distinguimos dois «modos»:  
These two methods are not mutually exclusive and can eventually display the same sounds. The difference is that in an “a posteriori” sonification, because the sound is produced after the events that originated the data, the parameters of the final piece can be adapted, i.e. the total duration. In a real-time case, you can control the time resolution: that is the time interval at which the sound can change and is played.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
'''Em tempo real (para monitorização)''' - um fluxo de dados é transformado em som instantaneamente e é emitido um som para indicar o valor e o comportamento dos dados nesse momento específico;
== Mapping Protocol ==
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
'''“A posteriori” (analisar)''' - a sonificação de séries temporais de um conjunto de dados pré-gravados é convertida num ficheiro de áudio que representa os valores e o comportamento dos dados ao longo do período de tempo abrangido pela série temporal.
The mapping  protocol is the core of the sonification system. This is where knowledge of input data must be combined with creativity. According to his/her educational needs, the creator of the sonification system makes choices based on his/her character and artistic taste in translating data sets into sound pieces. The mapping protocol is the process or algorithm or function that associates particular sounds to defined data. It is the set of rules by which output sounds correspond to input data. A simple mapping can consist for example in a direct one-to-one correspondence between each value of an input data to a parameter of an output sound, like the pitch. This component of the system is key because here is where the designer of the system selects certain features of the data to be played in a particular manner, in order to highlight them, or not.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Estes dois métodos não são mutuamente exclusivos e podem, eventualmente, reproduzir os mesmos sons. A diferença reside no facto de, numa sonificação «a posteriori», uma vez que o som é produzido após os eventos que originaram os dados, os parâmetros da peça final poderem ser adaptados, nomeadamente a duração total. Num caso em tempo real, é possível controlar a resolução temporal: ou seja, o intervalo de tempo em que o som pode mudar e é reproduzido.
So this mapping consists in associating certain data aspects to different auditory parameters, such as pitch, loudness, timbre, and rhythm. For example, the amplitude of a sound can be mapped to the value of a light resistor, or the frequency of a sound can be mapped to the rate of change of the sea level (tides).
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Mapping_Protocol"></span>
Usually the tendency is to map a single feature of the data to a single parameter of output sound but we humans are generally more capable of perceiving differences in sound if such differences manifest concurrently through different properties. So it is not a bad idea to map the same variable onto different psychoacoustic properties of a sound (pitch and volume as an example of the most evident) if we want to emphasize its change and dynamics.
== Protocolo de mapeamento ==
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
O protocolo de mapeamento é o núcleo do sistema de sonificação. É aqui que o conhecimento dos dados de entrada deve ser combinado com a criatividade. De acordo com as suas necessidades pedagógicas, o criador do sistema de sonificação faz escolhas baseadas na sua personalidade e gosto artístico ao traduzir conjuntos de dados em peças sonoras. O protocolo de mapeamento é o processo, algoritmo ou função que associa sons específicos a dados definidos. É o conjunto de regras pelo qual os sons de saída correspondem aos dados de entrada. Um mapeamento simples pode consistir, por exemplo, numa correspondência direta um-para-um entre cada valor de um dado de entrada e um parâmetro de um som de saída, como a altura do som. Esta componente do sistema é fundamental, pois é aqui que o designer do sistema seleciona certas características dos dados para serem reproduzidas de uma forma específica, a fim de as destacar, ou não.
Our sense of hearing is able to focus on a particular sound in between many others (see the “cocktail party effect”) (Arons, B., 1992) based on timbre. Our auditory system can process information at a far higher rate than our visual system. For example, while video typically updates at 60 frames per second (60 Hz), standard audio is sampled at 44,100 times per second (44.1 kHz). This means that even a single, brief spike in an audio signal—lasting just one sample—is instantly perceived as a distinct "click." As a result, hearing allows us to monitor multiple layers of information simultaneously, often more efficiently than through visual perception alone. (Kramer, G. et al., 1999).
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Assim, este mapeamento consiste em associar determinados aspetos dos dados a diferentes parâmetros auditivos, tais como a altura do som, o volume, o timbre e o ritmo. Por exemplo, a amplitude de um som pode ser mapeada para o valor de um fotorresistor, ou a frequência de um som pode ser mapeada para a taxa de variação do nível do mar (marés).
== Audio Output ==
</div>


Normalmente, a tendência é associar uma única característica dos dados a um único parâmetro do som de saída; no entanto, nós, seres humanos, somos geralmente mais capazes de perceber diferenças sonoras quando essas diferenças se manifestam simultaneamente através de diferentes propriedades. Por isso, não é má ideia associar a mesma variável a diferentes propriedades psicoacústicas de um som (o tom e o volume são exemplos dos mais evidentes) se quisermos enfatizar a sua variação e dinâmica.


O nosso sentido da audição é capaz de se concentrar num som específico entre muitos outros (ver o «efeito festa de cocktail») <ref>Arons, B. (1992). A review of the cocktail party effect. Journal of the American Voice I/O society, 12(7), 35-50.</ref> com base no timbre. O nosso sistema auditivo consegue processar informação a uma velocidade muito superior à do nosso sistema visual. Por exemplo, enquanto o vídeo é normalmente atualizado a 60 fotogramas por segundo (60 Hz), o áudio padrão é amostrado 44 100 vezes por segundo (44,1 kHz). Isto significa que mesmo um único e breve pico num sinal de áudio — com a duração de apenas uma amostra — é instantaneamente percebido como um «clique» distinto. Como resultado, a audição permite-nos monitorizar múltiplas camadas de informação simultaneamente, muitas vezes de forma mais eficiente do que apenas através da perceção visual <ref>Kramer, G., Walker, B. N., Bonebright, T., Cook, P., Flowers, J., Miner, N., et al. (1999). The Sonification Report: Status of the Field and Research Agenda. Relatório elaborado para a National Science Foundation por membros da International Community for Auditory Display. Santa Fe, NM: International Community for Auditory Display (ICAD).</ref>.


The output sound of the system will be the first characteristic to be perceived by a user. It is its signature, its flavor. It will interact with the user’s taste and we must be aware of that. It is the auditive wrapping to be perceived by an audience and, as studies on sound perception show, it will immediately and unconsciously provoke a good or bad sensation to the listener. We should therefore get used to producing “nice” sound outputs with the device that will be used, be it a microcontroller buzzer or a pc virtual synthesizer or a DAW (Digital Audio Workstation) connected to speakers. We should practice some music, or at least make some noise!
<span id="Audio_Output"></span>
== Saída de áudio ==


Considering that sound perception is time-based, sonification is by and large focused on rendering continuous data stream over time: this means that the input data of a sonification system could be also come from another domain, like the profile of a territory (geographical data) but all of them will be transferred onto a representation in time which is sound. Sound exists only in time, as variation of pressure detected by our eardrums and transformed into electrical signals in our brain, or broadly in our nervous system. Without getting into the depth of such a fascinating subject we need to clarify a couple of concepts before we move on. Even those who never played or created music know some of the characteristics of sound that we describe here.  
O som emitido pelo sistema será a primeira característica a ser percebida pelo utilizador. É a sua assinatura, o seu carácter. Interagirá com o gosto do utilizador e temos de estar cientes disso. É a embalagem auditiva que será percebida pelo público e, como demonstram os estudos sobre a perceção sonora, provocará de forma imediata e inconsciente uma sensação positiva ou negativa no ouvinte. Devemos, portanto, habituar-nos a produzir saídas de som «agradáveis» com o dispositivo que será utilizado, seja um buzzer de microcontrolador, um sintetizador virtual de PC ou uma DAW (Digital Audio Workstation) ligada a altifalantes. Devemos praticar alguma música, ou pelo menos fazer algum ruído!


===Music and Sound: Basic Concepts===
Tendo em conta que a perceção sonora se baseia no tempo, a sonificação centra-se, em geral, na representação de fluxos de dados contínuos ao longo do tempo: isto significa que os dados de entrada de um sistema de sonificação podem também provir de outro domínio, como o perfil de um território (dados geográficos), mas todos eles serão transformados numa representação temporal que é o som. O som existe apenas no tempo, como variação de pressão detetada pelos nossos tímpanos e transformada em sinais elétricos no nosso cérebro, ou, de forma mais ampla, no nosso sistema nervoso. Sem nos aprofundarmos num tema tão fascinante, precisamos de esclarecer alguns conceitos antes de prosseguirmos. Mesmo aqueles que nunca tocaram ou criaram música conhecem algumas das características do som que aqui descrevemos.


Sound is detected by our brain when a variable pressure stimulates our timpani. This is a small membrane that when moved by air pressure (or water if you find yourself under water) generates electrical stimuli that the brain processes as “sound”. If this variable pressure is oscillating regularly at a certain frequency (a certain number of times per second) we hear a tone. That is why tones (or notes) are measured in Hertz (Hz), or cycles per second.
<span id="Music_and_Sound:_Basic_Concepts"></span>
===Música e Som: Conceitos Básicos===


The human hearing is able to sense tones between 20 Hz and 20000 Hz (this range is unique to each one and usually gets smaller with age). The vibrations of pressure with frequencies lower than 20 Hz or higher than 20000 Hz are inaudible. They are called infrasounds and ultrasounds respectively. We do not hear them but we still can sense them, with the touch sense in the case of infrasound and with temperature sense in the case of ultrasound.  
O som é detetado pelo nosso cérebro quando uma pressão variável estimula o nosso tímpano. Trata-se de uma pequena membrana que, quando movida pela pressão do ar (ou pela água, caso estejamos debaixo de água), gera estímulos elétricos que o cérebro processa como «som». Se essa pressão variável oscilar regularmente a uma determinada frequência (um determinado número de vezes por segundo), ouvimos um tom. É por isso que os tons (ou notas) são medidos em Hertz (Hz), ou ciclos por segundo.


'''The main characteristics of sound are:'''
A audição humana é capaz de perceber sons entre 20 Hz e 20 000 Hz (esta gama é única para cada pessoa e, normalmente, diminui com a idade). As vibrações de pressão com frequências inferiores a 20 Hz ou superiores a 20 000 Hz são inaudíveis. São denominadas, respetivamente, infra-sons e ultra-sons. Não os ouvimos, mas ainda assim conseguimos senti-los, através do sentido do tato no caso dos infra-sons e através do sentido da temperatura no caso dos ultra-sons.


'''Volume or Intensity or loudness:''' The power of a soundwave (louder more power, softer less power).
'''As principais características do som são:'''


'''Frequency or pitch:''' The number of times the sound pressure moves back and forth the timpani in our ears. According to music theory some of these frequencies are called notes in the context of tuning systems.
'''Volume, intensidade ou volume sonoro:''' A potência de uma onda sonora (quanto mais alto, maior a potência; quanto mais baixo, menor a potência).


'''Timbre:''' Is the spectral characteristic of sound, its sound quality, its fingerprint, a sense of the “color” of the sound. This is what allows us to distinguish between a trumpet or a guitar when they are playing the same note with the same volume. It also allows us to distinguish between our human voices.
'''Frequência ou tom do som:''' O número de vezes que a pressão sonora oscila entre os tímpanos dos nossos ouvidos. De acordo com a teoria musical, algumas dessas frequências são designadas por notas no contexto dos sistemas de afinação.


There are several other characteristics that define sound but these are the main ones we can use in this context. Other characteristics that could be easily employed in a classroom for sonification are:
'''Timbre:''' É a característica espectral do som, a sua qualidade sonora, a sua «impressão digital», uma sensação da «cor» do som. É isto que nos permite distinguir entre uma trompete e uma guitarra quando tocam a mesma nota com o mesmo volume. Também nos permite distinguir entre as nossas vozes humanas.


'''Duration:''' How long each sound lasts.
Existem várias outras características que definem o som, mas estas são as principais que podemos utilizar neste contexto. Outras características que poderiam ser facilmente utilizadas numa sala de aula para a sonificação são:


'''Rhythm:''' How frequently the sounds repeat and in what pattern. For example, a metronome is a device that produces short, evenly spaced sounds at a set number of beats per minute (BPM). Other devices use this characteristic as a sonification output ([https://en.wikipedia.org/wiki/Geiger_counter Geiger counter - Wikipedia]) and parking devices for cars.  
'''Duração:''' Quanto tempo cada som dura.


'''3D Positioning:''' The position of a sound source in space - for example if the sound comes from the left or right speaker in a stereo system. Far more complex but basically the same concept, are the surround systems 5.1 or 7.1 up to ambisonic systems where the position of the sound source can be even more detailed by using multiple channels ([https://en.wikipedia.org/wiki/Ambisonic_reproduction_systems Ambisonic reproduction systems - Wikipedia])
'''Ritmo:''' A frequência com que os sons se repetem e o padrão que seguem. Por exemplo, um metrónomo é um dispositivo que produz sons curtos e uniformemente espaçados a um número definido de batidas por minuto (BPM). Outros dispositivos utilizam esta característica como saída de sonificação ([https://en.wikipedia.org/wiki/Geiger_counter Contador Geiger - Wikipédia]) e em dispositivos de estacionamento para automóveis.


=== Context is important ===
'''Posicionamento 3D:''' A posição de uma fonte sonora no espaço — por exemplo, se o som provém do altifalante esquerdo ou direito num sistema estéreo. Muito mais complexos, mas basicamente com o mesmo conceito, são os sistemas surround 5.1 ou 7.1, até aos sistemas ambisônicos, onde a posição da fonte sonora pode ser ainda mais detalhada através da utilização de múltiplos canais ([https://en.wikipedia.org/wiki/Ambisonic_reproduction_systems Sistemas de reprodução ambisônicos - Wikipédia])


When designing the output sounds we need to consider what will be the audience of the designed system. In which settings they will listen to its sounds. It is impossible to be sure about it and to know the taste of our target listeners but it is convenient to think about it.
<span id="Context_is_important"></span>
=== O contexto é importante ===


What is the profile of the listener? Are they young students? What type of sound would they be interested in hearing? but also in what kind of sound-producing interaction could they be engaged in, according to their skills and potentials? Do they perceive changes in less evident sound features, (i.e. timbre)?
Ao conceber os sons de saída, devemos ter em conta qual será o público do sistema concebido. Em que contextos irão ouvir esses sons. É impossível ter a certeza disso e conhecer os gostos dos nossos ouvintes-alvo, mas é aconselhável refletir sobre o assunto.


The sounds we produce must be considered in the context where they will be played. They should be able to capture the listener's attention and emerge from the background noise, and if possible, not be perceived as noise or annoying. For example, mapping all the values of a single variable to all the values of frequency in a certain range may sound unpleasant compared to mapping it onto a familiar music scale, like the chromatic scale in the western world. Or manipulating the speed of a regular beat instead of playing random time durations can be more effective. It depends on the listener's attitude and taste, of course. Additionally, it is important to consider the sound designers’ own taste. It is convenient to consider who will be the listener, but, on the other side, it is not mandatory to produce mainstream sounds in order to please the supposed “common taste”.
Qual é o perfil do ouvinte? Trata-se de jovens estudantes? Em que tipo de som estariam interessados em ouvir? Mas também: em que tipo de interação sonora poderiam envolver-se, de acordo com as suas competências e potencialidades? Percebem alterações em características sonoras menos evidentes (por exemplo, o timbre)?


Apart from taste and esthetic considerations, we need to consider factual conditions: in the case of background continuous sound as a product of a sonification to monitor some data stream we should therefore take into account the potential listener fatigue to that type of sound. We can consider the difference of using familiar sounds (for example even recorded samples of voices and sentences of the target listeners) compared to new and special digitally synthesized sounds. Designers of sonification systems should at least be be aware of the variety of different impacts that their sounds can have upon the listener (synthesized sounds could surprise!).  
Os sons que produzimos devem ser considerados no contexto em que serão reproduzidos. Devem ser capazes de captar a atenção do ouvinte e destacar-se do ruído de fundo e, se possível, não devem ser percebidos como ruído ou como algo incómodo. Por exemplo, mapear todos os valores de uma única variável para todos os valores de frequência num determinado intervalo pode soar desagradável, em comparação com o seu mapeamento para uma escala musical familiar, como a escala cromática no mundo ocidental. Ou manipular a velocidade de uma batida regular em vez de reproduzir durações aleatórias pode ser mais eficaz. Depende da atitude e do gosto do ouvinte, claro. Além disso, é importante ter em conta o gosto do próprio designer de som. É conveniente considerar quem será o ouvinte, mas, por outro lado, não é obrigatório produzir sons convencionais para agradar ao suposto «gosto comum».  


We need to assemble a diverse toolkit of musical techniques and resources. Sonification designers should ensure their palette of sounds is as rich and varied as the data they aim to represent.
Para além de considerações de gosto e estética, devemos ter em conta as condições reais: no caso de um som de fundo contínuo, resultante de uma sonificação destinada a monitorizar um fluxo de dados, devemos, portanto, considerar a potencial fadiga do ouvinte face a esse tipo de som. Podemos considerar a diferença entre a utilização de sons familiares (por exemplo, até mesmo amostras gravadas de vozes e frases dos ouvintes-alvo) e sons novos e especiais sintetizados digitalmente. Os designers de sistemas de sonificação devem, no mínimo, estar cientes da variedade de impactos diferentes que os seus sons podem ter sobre o ouvinte (os sons sintetizados podem surpreender!).  


=== Quality of Output ===
Precisamos de reunir um conjunto diversificado de técnicas e recursos musicais. Os designers de sonificação devem garantir que a sua paleta de sons seja tão rica e variada quanto os dados que pretendem representar.


Sonification should not only be comprehensible but also engaging, ideally offering information as effectively as, or even more clearly than visual graph. The quality of the sonification is equally important. This includes both the technical excellence of the audio and its "musical narrative" - how well it describes the evolution of the data while remaining aesthetically pleasing. While "pleasantness" is subjective, an appealing sonification helps maintain the listener’s attention and ensures the data is effectively communicated, as discussed in the Context is Important section.
<span id="Quality_of_Output"></span>
=== Qualidade do resultado ===


Sonifications can use either physical (natural) or digital sounds, depending on resources and approach. Physical sounds come from acoustic sources like the human body, percussion, or traditional instruments, performed through notation, gestures, or improvisation. Digital sounds, however, are generated or processed using computers, digital audio workstations (DAWs), or electronic devices. While technical details like compression, sample rate, or bit depth influence digital audio quality, the key point is the impact of the playback system: a high-quality sound system (e.g., computer speakers) will deliver a richer experience than a simple buzzer.  
A sonificação não deve ser apenas compreensível, mas também envolvente, oferecendo, idealmente, informação de forma tão eficaz quanto, ou mesmo mais clara do que, um gráfico visual. A qualidade da sonificação é igualmente importante. Isto inclui tanto a excelência técnica do áudio como a sua «narrativa musical» — a forma como descreve a evolução dos dados, mantendo-se esteticamente agradável. Embora a «agradabilidade» seja subjetiva, uma sonificação apelativa ajuda a manter a atenção do ouvinte e garante que os dados são comunicados de forma eficaz, tal como discutido na secção «O contexto é importante».


'''Musical Quality'''
As sonificações podem utilizar sons físicos (naturais) ou digitais, dependendo dos recursos e da abordagem. Os sons físicos provêm de fontes acústicas, como o corpo humano, percussão ou instrumentos tradicionais, executados através de notação, gestos ou improvisação. Os sons digitais, no entanto, são gerados ou processados utilizando computadores, estações de trabalho de áudio digital (DAWs) ou dispositivos eletrónicos. Embora detalhes técnicos como a compressão, a taxa de amostragem ou a profundidade de bits influenciem a qualidade do áudio digital, o ponto-chave é o impacto do sistema de reprodução: um sistema de som de alta qualidade (por exemplo, altifalantes de computador) proporcionará uma experiência mais rica do que um simples alarme sonoro.


The designer should consider what type of narrative he/she is inducing in the listener. That means for example using low and scary sounds to represent parameters of global warming ([https://youtu.be/5t08CLczdK4?si=dLNDaHfCRrG-5Y-6 A Song of Our Warming Planet] or [https://youtu.be/-V2Uc8Kax_g?si=YmgaJK3IlpmExpZm The sound of climate change from the Amazon to the Arctic]).  As we want to stimulate the user to pay attention to our system output it can also be useful to have a survey about what type of music the listener appreciates. A generally and initially acceptable musical sound, with the least possible chance of being rejected by the majority of recipients, would be the one that would obey the fundamental principles of symmetry and proportion, as these have shaped our common perception of “music" in today's world. 
'''Qualidade musical'''


However, Soundscapes project encourages every approach on sonification if it satisfies the creator's inspiration or cultural demands as well as the aesthetical or informative needs of the audience, or the target group it is addressed to.  
O designer deve ter em conta o tipo de narrativa que está a suscitar no ouvinte. Isso significa, por exemplo, utilizar sons graves e assustadores para representar os parâmetros do aquecimento global ([https://youtu.be/5t08CLczdK4?si=dLNDaHfCRrG-5Y-6 Música do planeta a aquecer] ou [https://youtu.be/-V2Uc8Kax_g?si=YmgaJK3IlpmExpZm O som das alterações climáticas da Amazónia ao Ártico]); Como queremos estimular o utilizador a prestar atenção à saída do nosso sistema, também pode ser útil realizar um inquérito sobre o tipo de música que o ouvinte aprecia. Um som musical geralmente e inicialmente aceitável, com a menor probabilidade possível de ser rejeitado pela maioria dos destinatários, seria aquele que obedecesse aos princípios fundamentais de simetria e proporção, uma vez que estes moldaram a nossa perceção comum de «música» no mundo atual.&nbsp;


<!--T:23-->
No entanto, o projeto Soundscapes incentiva todas as abordagens de sonificação, desde que satisfaçam a inspiração do criador ou as exigências culturais, bem como as necessidades estéticas ou informativas do público ou do grupo-alvo a que se destinam.;


In the following pages, practical ways to implement the above approaches with or without handling data sets coming either from measurements or from sensors, are entitled as: '''[[Unplugged activities]], [[Real-time sonification]] and [[''a posteriori'' sonification]]'''.
Nas páginas seguintes, as formas práticas de implementar as abordagens acima referidas, com ou sem o tratamento de conjuntos de dados provenientes de medições ou de sensores, são intituladas como: ''' [[Special:MyLanguage/Unplugged activities|Atividades sem equipamento]], [[Special:MyLanguage/Real-time sonification|Sonificação em tempo real]] e [[Special:MyLanguage/''a posteriori'' sonification|Sonificação ''a posteriori'']]'''.


==References==
<span id="References"></span>
== Referências ==

Latest revision as of 15:23, 6 April 2026

Na prática, a sonificação para fins educativos é um processo de exploração de todas as possibilidades que, essencialmente, responde à pergunta: «Como posso utilizar o som para destacar ou demonstrar uma ou mais informações ou conclusões decorrentes de um movimento, medição ou fenómeno que exista, tenha ocorrido ou esteja a desenrolar-se ao longo do tempo?» Os dados existentes à nossa disposição, as condições e métodos da sua recolha, bem como o objetivo educativo a que a sonificação se destina, são os fatores determinantes para a sua utilização eficaz.

Os aspetos abaixo definem a relação entre as necessidades educativas e o conceito de som, bem como a sua organização estruturada ao longo do tempo — ou seja, o conceito de música.

Aspectos do ensino da sonificação como prática musical

A ligação indiscutível entre o som e os números — mais concretamente, o conceito de decompor o som em frequências ou harmónicos — proporciona um quadro suficientemente estruturado para o ensino interdisciplinar com recurso ao som, no âmbito do qual todos os aspetos do STEAM podem ser abordados. Uma vez que o conceito de tempo define o fenómeno sonoro, o ato de representação de um efeito sonoro não pode deixar de estar no centro de qualquer abordagem pedagógica. Consequentemente, a disposição organizada de elementos sonoros no tempo de forma harmoniosa — tanto em termos de ritmo, intensidade, timbre, altura e a sua localização na escala musical, seja ela diatónica ou não — constitui um resultado musical. Esta organização racional pode servir como um campo de experimentação na composição musical, enquanto a parametrização de todos os conceitos acima referidos pode enriquecer qualquer objetivo educativo que dependa da evolução de um fenómeno ao longo do tempo ou da conversão de dados em som.

Assim, podemos distinguir, de forma razoável, o conceito de sonificação para fins educativos em três abordagens básicas:

• O simbólico

• A matemática

• O adaptativo

Sonificação simbólica

A reprodução das características sonoras — nomeadamente: altura, intensidade, timbre, frequência de repetição (se for o caso) e duração — que estão associadas a conceitos, termos e grandezas científicas sem estarem logicamente mapeadas para um conjunto de dados (mapeamento de dados) — constitui o objeto da sonificação simbólica.

Um exemplo simples seria «pintar com sons» uma nuvem cinzenta utilizando ruído de baixa frequência e uma nuvem branca utilizando ruído de alta frequência. Outro exemplo seria uma turma de alunos a representar o som da chuva batendo aleatoriamente com as unhas nas secretárias. Outro exemplo que relaciona a composição com a representação musical é o leitmotiv. Um leitmotiv é um tema melódico curto composto por algumas notas específicas que, como um motivo (padrão) único, está associado a uma personagem numa ópera e é tocado pela orquestra, particularmente nas óperas de Wagner. O leitmotiv de uma personagem faz com que esta nos venha à mente ao longo de toda a obra, quer a personagem esteja em cena ou não! Traduzindo isto para uma série de dados, tal leitmotiv poderia substituir o som esperado de um valor baixo ou alto proeminente (ou um valor específico ou mesmo um intervalo de valores) sem ter qualquer coerência ou decorrer dos dados vizinhos.

Sonificação matemática

Quando o tom, a intensidade, o timbre, o ritmo (se houver) e a duração, enquanto características sonoras, são associados a uma série de medições de dados relacionadas com um termo físico ou um conceito científico, formam um mapa lógico de uma ou mais partes dessa série (mapeamento direto de dados). O resultado sonoro dessa correspondência é a sonificação matemática.

Um exemplo que ilustra na perfeição a distinção acima referida, principalmente através da exploração da característica do ritmo, é o mecanismo que indica acusticamente a distância entre um carro e o veículo adjacente durante o estacionamento, uma funcionalidade presente em muitos automóveis. A frequência de repetição deste sinal acústico momentâneo forma um padrão repetitivo cujo ritmo varia (lento-rápido) em função dos dados de proximidade ao obstáculo, que é detetado com elevada precisão por um sensor.

Para compreender a diferença entre representação simbólica e matemática, podemos adaptar os exemplos anteriores como «atividades sem tecnologia» numa sala de aula. A sonificação matemática no exemplo das nuvens ocorreria se definíssemos um limiar de cor para o branco ou o cinzento e representássemos as gotículas que compõem as nuvens com milhões de partículas de frequência de duração mínima (nebulosas sonoras), das quais as nuvens são compostas. No exemplo da chuva, teríamos uma sonificação matemática se os alunos representassem com precisão absoluta, uma a uma, cada gota de chuva num momento específico e numa área de superfície determinada. Por fim, no exemplo do «estacionamento», teríamos uma representação simbólica se os olhos dos alunos assumissem o papel do sensor, onde os dados seriam estimados visualmente sem uma medição matemática absoluta.

Sonificação adaptativa

Trata-se de um projeto sonoro ou de uma composição musical (alargando este conceito), resultante da sonificação matemática, na qual, no entanto, são utilizados de forma criativa métodos de representação sonora estética para atingir objetivos pedagógicos na descrição de conceitos de aprendizagem.

Além disso, a análise dos métodos de mapeamento de dados em conjunto com a escala diatônica abre um campo promissor para a exploração de ferramentas pedagógicas que permitem o processamento do som em termos de composição musical. O uso do MIDI para o processamento de som ou o realce de motivos musicais — que podem servir como ponto de partida para a criação de composições musicais — amplia perfeitamente a sonificação adaptativa. De facto, a representação gráfica dos dados (visualização gráfica) pode ser transformada criativamente em som, tratando a visualização como um esquema bidimensional, ou mesmo uma fotografia como uma imagem tridimensional. O resultado é designado por «sonificação esquemática».

Esta abordagem adaptável alarga o acesso aos resultados auditivos da sonificação de dados a uma vasta gama de faixas etárias e níveis escolares, convidando educadores de outras disciplinas — tais como Arte, Teatro e Música — a participar ativamente no ensino interdisciplinar. Um exemplo desta abordagem foi implementado no cenário «Sounds of the Stars» [1] em colaboração com o Observatório Nacional de Atenas (comunidade: Ήχοι των Άστρων[2]). O cenário faz parte do repositório de cenários de aprendizagem SoundScapes [3].

O protocolo MIDI. Por que é útil para a sonificação na escola?

O protocolo MIDI, sigla de Musical Instrument Digital Interface, foi introduzido no início dos anos 80 como uma linguagem de programação que permite a interligação entre instrumentos analógicos e, posteriormente, digitais. Esta linguagem interpreta vários aspetos da interpretação musical e da notação musical num formato eletrónico.

O MIDI permite ao utilizador receber, transmitir, armazenar e editar sinais produzidos eletronicamente que correspondem a vários aspetos da música. Os principais parâmetros destes aspetos incluem o início da nota (note-on), o fim da nota (note-off), a velocidade, o timbre e a altura do som. Todos estes parâmetros podem ser armazenados sob a forma de código numa linha temporal dentro de um ficheiro MIDI. Um ficheiro MIDI assemelha-se ao «programa» na forma de um cilindro giratório ou papel perfurado utilizado nas caixas de música do final do século XVIII ou nas «pianolas» do início do século XX, que são autômatos musicais. É esta característica que se pode revelar extremamente útil para fins educativos, uma vez que inúmeras aplicações MIDI, sensores e programas estão amplamente disseminados pela Internet. No entanto, é a capacidade de editar a saída como uma partitura musical ou como parte de uma composição polifónica que torna o MIDI uma ferramenta educativa excepcionalmente poderosa. Nas presentes páginas WIKI, são amplamente apresentados sensores que utilizam MIDI em particular.

Componentes de sonificação

Uma atividade de sonificação consiste na conceção e construção de um sistema de sonificação. Um sistema de sonificação pode ser concretizado de muitas formas diferentes, mas há três componentes que devem ser sempre tidos em conta:

1) DADOS DE ENTRADA;

2) PROTOCOLO DE MAPEAMENTO;

3) SAÍDA DE ÁUDIO;

Dados de entrada

Num sistema de sonificação, que é o nosso produto final, os dados constituem a fonte do motor sonoro, e determinados sons específicos serão o resultado final. As entradas e as saídas são mapeadas entre si seguindo um protocolo que estabelece quais os sons que são reproduzidos em função de quais dados. Por isso, em primeiro lugar, precisamos de conhecer e compreender os dados que pretendemos sonificar. Temos de saber o que queremos transmitir com o nosso sistema — sobre o que vamos falar. Temos de saber como os dados mudam (normalmente temos dados baseados no tempo, mas também podem existir dados com referência espacial, como mapas) e que características do seu comportamento queremos representar. Por exemplo, se tiver um único valor (como a luminosidade de uma estrela, a posição linear de um carro, a quantidade de gostos num canal do YouTube, o número de novas publicações na Wikipédia, etc.), pode optar por reproduzir um som quando esse valor for superior a um determinado valor-limite, ou reproduzir um som que se torne mais alto à medida que os valores aumentam, ou um som quando os valores estão a aumentar ou a diminuir ao longo do tempo. Em alguns casos, é útil determinar o valor mais alto e o mais baixo dentro de todo o intervalo de valores disponíveis. Em termos de saídas, isto pode ajudar a definir um «conjunto» de valores iniciais que pode definir o intervalo de desvios na saída. Podemos destacar certas características dos dados. Existem muitos tipos de dados. Os mais comuns são:

Dados únicos: indicando um estado LIGADO-DESLIGADO (dados booleanos).

Um único valor de dados que abrange um intervalo de valores: normalmente associado a um único som ou característica sonora, como a altura do som, o bpm (batidas por minuto) ou um efeito, mas pode controlar mais do que uma característica ou som ao mesmo tempo.

Dados múltiplos: mais do que um dado do tipo anterior. Normalmente, são recolhidos vários tipos de dados em simultâneo, pelo que estes conjuntos de dados consistem em várias camadas de dados sincronizados.

O som tem a vantagem, em relação à perceção visual, de permitir a perceção simultânea de mais camadas de dados. As alterações nos padrões são mais facilmente detetadas através da audição do que da visão. Especialmente se a quantidade de dados for muito grande. Assim, em suma, precisamos de considerar os dados de que dispomos, a forma como evoluem ao longo do tempo, como estão organizados e quais são os aspetos mais relevantes que pretendemos utilizar para alimentar o nosso sistema de sonificação. Temos de nos perguntar «o que significará o som?» Temos de compreender que os dados não são a mensagem! Temos de metabolizar os dados e o seu comportamento e descobrir que mensagem irá desencadear o som.

E, por isso, antes de mais nada, temos de nos perguntar qual é o objetivo da sonificação? Será aplicada de forma contínua, talvez em segundo plano, ou apenas após algum tempo de recolha de dados, ou ambas as coisas?

Sonificação em tempo real vs. «A posteriori»

De acordo com a finalidade do sistema de sonificação (para analisar ou monitorizar um determinado fenómeno), distinguimos dois «modos»:

Em tempo real (para monitorização) - um fluxo de dados é transformado em som instantaneamente e é emitido um som para indicar o valor e o comportamento dos dados nesse momento específico;

“A posteriori” (analisar) - a sonificação de séries temporais de um conjunto de dados pré-gravados é convertida num ficheiro de áudio que representa os valores e o comportamento dos dados ao longo do período de tempo abrangido pela série temporal.

Estes dois métodos não são mutuamente exclusivos e podem, eventualmente, reproduzir os mesmos sons. A diferença reside no facto de, numa sonificação «a posteriori», uma vez que o som é produzido após os eventos que originaram os dados, os parâmetros da peça final poderem ser adaptados, nomeadamente a duração total. Num caso em tempo real, é possível controlar a resolução temporal: ou seja, o intervalo de tempo em que o som pode mudar e é reproduzido.

Protocolo de mapeamento

O protocolo de mapeamento é o núcleo do sistema de sonificação. É aqui que o conhecimento dos dados de entrada deve ser combinado com a criatividade. De acordo com as suas necessidades pedagógicas, o criador do sistema de sonificação faz escolhas baseadas na sua personalidade e gosto artístico ao traduzir conjuntos de dados em peças sonoras. O protocolo de mapeamento é o processo, algoritmo ou função que associa sons específicos a dados definidos. É o conjunto de regras pelo qual os sons de saída correspondem aos dados de entrada. Um mapeamento simples pode consistir, por exemplo, numa correspondência direta um-para-um entre cada valor de um dado de entrada e um parâmetro de um som de saída, como a altura do som. Esta componente do sistema é fundamental, pois é aqui que o designer do sistema seleciona certas características dos dados para serem reproduzidas de uma forma específica, a fim de as destacar, ou não.

Assim, este mapeamento consiste em associar determinados aspetos dos dados a diferentes parâmetros auditivos, tais como a altura do som, o volume, o timbre e o ritmo. Por exemplo, a amplitude de um som pode ser mapeada para o valor de um fotorresistor, ou a frequência de um som pode ser mapeada para a taxa de variação do nível do mar (marés).

Normalmente, a tendência é associar uma única característica dos dados a um único parâmetro do som de saída; no entanto, nós, seres humanos, somos geralmente mais capazes de perceber diferenças sonoras quando essas diferenças se manifestam simultaneamente através de diferentes propriedades. Por isso, não é má ideia associar a mesma variável a diferentes propriedades psicoacústicas de um som (o tom e o volume são exemplos dos mais evidentes) se quisermos enfatizar a sua variação e dinâmica.

O nosso sentido da audição é capaz de se concentrar num som específico entre muitos outros (ver o «efeito festa de cocktail») [4] com base no timbre. O nosso sistema auditivo consegue processar informação a uma velocidade muito superior à do nosso sistema visual. Por exemplo, enquanto o vídeo é normalmente atualizado a 60 fotogramas por segundo (60 Hz), o áudio padrão é amostrado 44 100 vezes por segundo (44,1 kHz). Isto significa que mesmo um único e breve pico num sinal de áudio — com a duração de apenas uma amostra — é instantaneamente percebido como um «clique» distinto. Como resultado, a audição permite-nos monitorizar múltiplas camadas de informação simultaneamente, muitas vezes de forma mais eficiente do que apenas através da perceção visual [5].

Saída de áudio

O som emitido pelo sistema será a primeira característica a ser percebida pelo utilizador. É a sua assinatura, o seu carácter. Interagirá com o gosto do utilizador e temos de estar cientes disso. É a embalagem auditiva que será percebida pelo público e, como demonstram os estudos sobre a perceção sonora, provocará de forma imediata e inconsciente uma sensação positiva ou negativa no ouvinte. Devemos, portanto, habituar-nos a produzir saídas de som «agradáveis» com o dispositivo que será utilizado, seja um buzzer de microcontrolador, um sintetizador virtual de PC ou uma DAW (Digital Audio Workstation) ligada a altifalantes. Devemos praticar alguma música, ou pelo menos fazer algum ruído!

Tendo em conta que a perceção sonora se baseia no tempo, a sonificação centra-se, em geral, na representação de fluxos de dados contínuos ao longo do tempo: isto significa que os dados de entrada de um sistema de sonificação podem também provir de outro domínio, como o perfil de um território (dados geográficos), mas todos eles serão transformados numa representação temporal que é o som. O som existe apenas no tempo, como variação de pressão detetada pelos nossos tímpanos e transformada em sinais elétricos no nosso cérebro, ou, de forma mais ampla, no nosso sistema nervoso. Sem nos aprofundarmos num tema tão fascinante, precisamos de esclarecer alguns conceitos antes de prosseguirmos. Mesmo aqueles que nunca tocaram ou criaram música conhecem algumas das características do som que aqui descrevemos.

Música e Som: Conceitos Básicos

O som é detetado pelo nosso cérebro quando uma pressão variável estimula o nosso tímpano. Trata-se de uma pequena membrana que, quando movida pela pressão do ar (ou pela água, caso estejamos debaixo de água), gera estímulos elétricos que o cérebro processa como «som». Se essa pressão variável oscilar regularmente a uma determinada frequência (um determinado número de vezes por segundo), ouvimos um tom. É por isso que os tons (ou notas) são medidos em Hertz (Hz), ou ciclos por segundo.

A audição humana é capaz de perceber sons entre 20 Hz e 20 000 Hz (esta gama é única para cada pessoa e, normalmente, diminui com a idade). As vibrações de pressão com frequências inferiores a 20 Hz ou superiores a 20 000 Hz são inaudíveis. São denominadas, respetivamente, infra-sons e ultra-sons. Não os ouvimos, mas ainda assim conseguimos senti-los, através do sentido do tato no caso dos infra-sons e através do sentido da temperatura no caso dos ultra-sons.

As principais características do som são:

Volume, intensidade ou volume sonoro: A potência de uma onda sonora (quanto mais alto, maior a potência; quanto mais baixo, menor a potência).

Frequência ou tom do som: O número de vezes que a pressão sonora oscila entre os tímpanos dos nossos ouvidos. De acordo com a teoria musical, algumas dessas frequências são designadas por notas no contexto dos sistemas de afinação.

Timbre: É a característica espectral do som, a sua qualidade sonora, a sua «impressão digital», uma sensação da «cor» do som. É isto que nos permite distinguir entre uma trompete e uma guitarra quando tocam a mesma nota com o mesmo volume. Também nos permite distinguir entre as nossas vozes humanas.

Existem várias outras características que definem o som, mas estas são as principais que podemos utilizar neste contexto. Outras características que poderiam ser facilmente utilizadas numa sala de aula para a sonificação são:

Duração: Quanto tempo cada som dura.

Ritmo: A frequência com que os sons se repetem e o padrão que seguem. Por exemplo, um metrónomo é um dispositivo que produz sons curtos e uniformemente espaçados a um número definido de batidas por minuto (BPM). Outros dispositivos utilizam esta característica como saída de sonificação (Contador Geiger - Wikipédia) e em dispositivos de estacionamento para automóveis.

Posicionamento 3D: A posição de uma fonte sonora no espaço — por exemplo, se o som provém do altifalante esquerdo ou direito num sistema estéreo. Muito mais complexos, mas basicamente com o mesmo conceito, são os sistemas surround 5.1 ou 7.1, até aos sistemas ambisônicos, onde a posição da fonte sonora pode ser ainda mais detalhada através da utilização de múltiplos canais (Sistemas de reprodução ambisônicos - Wikipédia)

O contexto é importante

Ao conceber os sons de saída, devemos ter em conta qual será o público do sistema concebido. Em que contextos irão ouvir esses sons. É impossível ter a certeza disso e conhecer os gostos dos nossos ouvintes-alvo, mas é aconselhável refletir sobre o assunto.

Qual é o perfil do ouvinte? Trata-se de jovens estudantes? Em que tipo de som estariam interessados em ouvir? Mas também: em que tipo de interação sonora poderiam envolver-se, de acordo com as suas competências e potencialidades? Percebem alterações em características sonoras menos evidentes (por exemplo, o timbre)?

Os sons que produzimos devem ser considerados no contexto em que serão reproduzidos. Devem ser capazes de captar a atenção do ouvinte e destacar-se do ruído de fundo e, se possível, não devem ser percebidos como ruído ou como algo incómodo. Por exemplo, mapear todos os valores de uma única variável para todos os valores de frequência num determinado intervalo pode soar desagradável, em comparação com o seu mapeamento para uma escala musical familiar, como a escala cromática no mundo ocidental. Ou manipular a velocidade de uma batida regular em vez de reproduzir durações aleatórias pode ser mais eficaz. Depende da atitude e do gosto do ouvinte, claro. Além disso, é importante ter em conta o gosto do próprio designer de som. É conveniente considerar quem será o ouvinte, mas, por outro lado, não é obrigatório produzir sons convencionais para agradar ao suposto «gosto comum».

Para além de considerações de gosto e estética, devemos ter em conta as condições reais: no caso de um som de fundo contínuo, resultante de uma sonificação destinada a monitorizar um fluxo de dados, devemos, portanto, considerar a potencial fadiga do ouvinte face a esse tipo de som. Podemos considerar a diferença entre a utilização de sons familiares (por exemplo, até mesmo amostras gravadas de vozes e frases dos ouvintes-alvo) e sons novos e especiais sintetizados digitalmente. Os designers de sistemas de sonificação devem, no mínimo, estar cientes da variedade de impactos diferentes que os seus sons podem ter sobre o ouvinte (os sons sintetizados podem surpreender!).

Precisamos de reunir um conjunto diversificado de técnicas e recursos musicais. Os designers de sonificação devem garantir que a sua paleta de sons seja tão rica e variada quanto os dados que pretendem representar.

Qualidade do resultado

A sonificação não deve ser apenas compreensível, mas também envolvente, oferecendo, idealmente, informação de forma tão eficaz quanto, ou mesmo mais clara do que, um gráfico visual. A qualidade da sonificação é igualmente importante. Isto inclui tanto a excelência técnica do áudio como a sua «narrativa musical» — a forma como descreve a evolução dos dados, mantendo-se esteticamente agradável. Embora a «agradabilidade» seja subjetiva, uma sonificação apelativa ajuda a manter a atenção do ouvinte e garante que os dados são comunicados de forma eficaz, tal como discutido na secção «O contexto é importante».

As sonificações podem utilizar sons físicos (naturais) ou digitais, dependendo dos recursos e da abordagem. Os sons físicos provêm de fontes acústicas, como o corpo humano, percussão ou instrumentos tradicionais, executados através de notação, gestos ou improvisação. Os sons digitais, no entanto, são gerados ou processados utilizando computadores, estações de trabalho de áudio digital (DAWs) ou dispositivos eletrónicos. Embora detalhes técnicos como a compressão, a taxa de amostragem ou a profundidade de bits influenciem a qualidade do áudio digital, o ponto-chave é o impacto do sistema de reprodução: um sistema de som de alta qualidade (por exemplo, altifalantes de computador) proporcionará uma experiência mais rica do que um simples alarme sonoro.

Qualidade musical

O designer deve ter em conta o tipo de narrativa que está a suscitar no ouvinte. Isso significa, por exemplo, utilizar sons graves e assustadores para representar os parâmetros do aquecimento global (Música do planeta a aquecer ou O som das alterações climáticas da Amazónia ao Ártico); Como queremos estimular o utilizador a prestar atenção à saída do nosso sistema, também pode ser útil realizar um inquérito sobre o tipo de música que o ouvinte aprecia. Um som musical geralmente e inicialmente aceitável, com a menor probabilidade possível de ser rejeitado pela maioria dos destinatários, seria aquele que obedecesse aos princípios fundamentais de simetria e proporção, uma vez que estes moldaram a nossa perceção comum de «música» no mundo atual. 

No entanto, o projeto Soundscapes incentiva todas as abordagens de sonificação, desde que satisfaçam a inspiração do criador ou as exigências culturais, bem como as necessidades estéticas ou informativas do público ou do grupo-alvo a que se destinam.;

Nas páginas seguintes, as formas práticas de implementar as abordagens acima referidas, com ou sem o tratamento de conjuntos de dados provenientes de medições ou de sensores, são intituladas como: Atividades sem equipamento, Sonificação em tempo real e Sonificação a posteriori.

Referências

  1. https://soundscapes.nuclio.org/wp-content/uploads/2026/03/Sounds-of-the-Stars-A-SoundScapes-Scenario.pdf
  2. https://www.schoolofthefuture.eu/en/community/oi-ihoi-ton-astron
  3. https://soundscapes.nuclio.org/index.php/344-2/
  4. Arons, B. (1992). A review of the cocktail party effect. Journal of the American Voice I/O society, 12(7), 35-50.
  5. Kramer, G., Walker, B. N., Bonebright, T., Cook, P., Flowers, J., Miner, N., et al. (1999). The Sonification Report: Status of the Field and Research Agenda. Relatório elaborado para a National Science Foundation por membros da International Community for Auditory Display. Santa Fe, NM: International Community for Auditory Display (ICAD).