© 2016 por BarbaAudioSolutions orgulhosamente criado para educação profissional.

Buscas Espaciais: A evolução da otimização dos sistemas sonoros para grandes eventos.

02.09.2019

O processo é muito mais do que apenas girar alguns botões em um equalizador até gostarmos.

 

 

A boate da Berkeley Square em 1980. O autor personalizou um antigo “sistema de análise” usando um osciloscópio capaz de monitorar qualquer um dos amplificadores do sistema através de um switchbox (à esquerda da console). A equalização era feita através um equalizador gráfico de 1/3 de oitava, usando um RTA IE30 alugado para ajuste (e depois redefinido por ouvido). Observe o reprodutor de fita, os controladores de alto-falantes Meyer Sound de primeira geração e o relógio digital.

 

O procedimento de ajuste do sistema de reforço sonoro em minha primeira turnê de arena aconteceu em 1978 e teve dois passos:  

 

1) Ouvir uma música tocada por um cassete e ajustar o equalizador gráfico de 8 bandas.

2) Sentar na house mix e dizer “teste 1-2” em um microfone Shure SM545 e ajustar o equalizador gráfico de 8 bandas. As únicas variáveis ​​a serem definidas eram os níveis de crossover e a equalização na house.

 

No início dos anos 80, o procedimento se expandiu para três etapas:

 

1) Equalizar o sistema visualmente, olhando para o analisador de tempo real (RTA) na posição de mixagem. 

2) Equalizar o sistema de ouvido, ouvindo um cassete na posição de mixagem.

3) Reajuste do sistema falando em um microfone Shure SM58.

 

Nós percorremos um longo caminho desde então, pelo menos em alguns lugares. Vamos analisar por um momento o que compreende a otimização de sistemas na era atual.

 

O processo é muito mais do que apenas girar alguns botões em um equalizador até gostarmos. Há um grande número de operações que devem ser realizadas antes desse "teste de gosto pessoal" final.

 

O sistema deve ser verificado para garantir que todos os cabos estejam corretos. A polaridade deve ser verificada, assim como a incompatibilidade de fase entre os diferentes modelos deve ser compensada. Os cruzamentos acústicos entre alto-falantes cobrindo diferentes faixas devem ser otimizados. A latência deve ser monitorada no caminho do sinal, especialmente no mundo moderno dos sistemas digitais de áudio e de rede. A capacidade de nível máximo e o nível de ruído devem ser conhecidos para obter a melhor estrutura de ganho e maximizar a faixa dinâmica. Qualquer fonte de compressão ou distorção no caminho do sinal deve ser encontrada.

 

Uma vez concluída a verificação, precisamos tomar decisões de calibração como: diretividade do alto-falante, ângulo de projeção, espaçamento, tempos de atraso, níveis relativos e equalização. Deve ficar claro até aqui que as limitações do RTA torna-o incapaz de executar de forma completa o conjunto de operações de otimização.

 

No entanto, essas limitações não impediram o RTA de ser a ferramenta dominante no passado. Como dito em outros artigos, ele era barato, pequeno e fácil de usar. Era uma ferramenta simples, mas  em muitos aspectos era também uma época mais simples. O processo foi simplesmente denominado na época de “equalização”, pois era a única coisa em que o RTA era útil.

 

Como os próprios sistemas de som e os analisadores evoluíram o processo de otimização evoluiu para além da equalização. Como veremos, os analisadores e sistemas de som evoluíram juntos, já o RTA tende a desaparecer definitivamente.

 

Evoluindo para Otimização

 

Nos primeiros dias deste trabalho havia apenas uma única ação considerada no escopo de otimização: equalização. Isso é extremamente importante porque o EQ do sistema é um parâmetro de “temperar a gosto”. Quando introduzimos a medição de alta resolução na posição FOH, tornou-se mais uma opinião sobre como definir o EQ para o local. Nós já tinhamos o RTA, as faixas de reprodução, o SM58 e o som da banda tocando.

 

O moderno analisador de transformada de Fourier (FFT) pode adicionar um grande detalhamento da frequência e resposta de fase à discussão, mas no final estamos todos ponderando nas configurações de equalização do sistema no local. Eu chamei isso de “cabo de guerra do EQ”, com discussões intermináveis ​​sobre ouvido versus analisadores, que nunca podem ser resolvidos. O analisador moderno se torna verdadeiramente útil somente quando passamos da equalização simples para a otimização: fazendo com que o som soe igual em todos os lugares.

 

Para o grande desconhecido

Há tanto que sabemos agora que não sabíamos nos anos 80. Ninguém havia medido a resposta de um sistema de som em uma arena cheia, com a banda no palco e foi capaz de comparar isso com a resposta da sala vazia.

 

A resposta dos alto-falantes foi diferente para músicas em diferentes tons musicais? (Não, os alto-falantes nem ligam se você cantar desafinado). 

 

A resposta foi diferente para as músicas tranquilas versus músicas barulhentas? (Não, a menos que o sistema não seja linear, ou seja, limitado). 

 

O sistema de som produziu frequências de batimento durante um show? (Não, as frequências de batimento estão em nossas cabeças - não as vemos no analisador). 

 

O equalizador gráfico foi realmente a melhor ferramenta para alinhar os sistemas de som? (Não, isso foi comprovado no primeiro dia do SIM.)

 

A resposta do sistema muda entre a sala vazia e cheia? (Sim, mas não há uma tendência simples e consistente.)

 

Todos nós sabíamos por nossas próprias experiências que o som mudava quando o público chegava. Mas muda em um sentido global (por exemplo, mais 250 Hz para todos) ou muda localmente (por exemplo, mais 250 Hz aqui e menos 250 Hz lá)? A resposta para essa questão teve que esperar até 1987, quando começamos a medição multicanal e pudemos medir em oito locais diferentes durante o show, enquanto comparamos vazio e cheio. (E, a propósito, a resposta é local - cada área muda à sua maneira.)

 

Tudo isso pode parecer estranho agora, mas antes de fazer essas medições, isso simplesmente não era demonstrável e, portanto, desconhecido. Muitas vezes há eventos em nossas vidas cuja importância só percebemos em retrospectiva anos depois. Este não era um deles. John Meyer e eu sabíamos nesses primeiros shows que essa forma inovadora de medição se tornaria o mainstream. Demorou 20 anos a mais do que esperávamos.

 

Primeiros Shows

 

No início dos anos 80, os primeiros sistemas que medimos com o SIM (abreviação de “medição de fonte independente”) davam suporte aos shows de rock em arenas. Eles tinham uma complexidade de sinal mínima, eram sistemas simples LR sem subdivisão de sinal.Portanto, não tínhamos EQs separados para os Out Fills, Front Fills, etc. Não havia nada a fazer senão equalização e nenhum lugar para medir além da posição de mixagem. Por que medir as áreas laterais se você não vai fazer nada a respeito delas? Nós não tivemos permissão para desligar partes do sistema nos amplificadores ou em qualquer ponto de subdivisão.

 

Durante esse período inicial, aprendemos a equalizar sistemas, mas isso foi o máximo que pudemos  alcançar. A otimização teve um apelo limitado ao mainstream do rock 'n' roll, porque não fez o mais importante: torná-lo mais alto. A única coisa que poderia prometer era tornar a resposta mais uniforme em toda a sala, o que poderia até torná-la menos barulhenta na posição de mixagem. Quem precisa disso?

 

Pouco tempo depois (1984), começamos a fazer shows em arenas com o cantor italiano de ópera Luciano Pavarotti. O promotor vendeu assentos ao redor da arena, incluindo as laterais e fundo, o que levou a um projeto de sistema complexo e a primeira aplicação real de otimização de sistema. O sistema tinha quatro clusters principais (centro, lateral L, lateral R e fundo) e cada um deles tinha várias seções no plano vertical.

 

Havia 10 subsistemas no total, cada um com seu próprio equalizador e controle de nível. Não havia atraso digital com ajuste fino / ou bom o suficiente, então tivemos que alinhar fisicamente os pontos de rigging para obter um alinhamento de tempo respeitável. Não houve mais cabo de guerra de equalização. A missão: faça com que pareça igual em todos os lugares e desenvolva as ferramentas para isso. Construímos um switch multicanal personalizado que permitia acessar todos os equalizadores do sistema. Poderíamos medir e equalizar cada seção do sistema enquanto observávamos a resposta no microfone (sim, um único microfone, - tínhamos apenas um microfone que foi movido por todo o local).

 

Foi desenvolvido um procedimento, um processo passo a passo que incluía a medição individual de cada subsistema e suas colaborações ao sistema como um todo. Também foi elaborada uma estratégia de posicionamento do microfone que impulsionou a configuração do EQ do subsistema individual e seu nível relativo. O estágio secundário incluiu a equalização dos subsistemas. A etapa final foi a otimização contínua durante o show. Como havia apenas um microfone, você pode adivinhar onde ele foi colocado.

 

Preocupações adicionais

O processo para definir o EQ foi mais complexo do que se pode imaginar. Lembre-se de que visualizamos a resposta de frequência com três funções de transferência (Sala / EQ / Resultado) em sete segmentos lineares. 

 

A sequência de equalização segue o padrão:

A) Encontre o problema

B) Corrija o problema

C) Verifique o resultado. 

 

Para encontrar a resposta original, visualizamos a função de transferência da sala, onde vimos um pico, armazenamos e recuperamos a resposta.

O engenheiro deve adaptar a situação de campo com soluções metódicas que muitas vezes exigem muito mais do que apenas girar botões em um equalizador. Nesse caso, uma solução física era necessária para ajustar o sistema enquanto a água vazava pelo teto do backstage. (O autor é retratado no Carnegie Hall, 2013.)

 

Em seguida, mudamos para a resposta do EQ e comparamos com a resposta da sala que tínhamos salvo na memória. Nós giramos os botões do EQ até que a atenuação fosse proporcional ao pico. (Na verdade, na prática, visualizamos o EQ invertido, de modo que fazer o complemento era tão fácil quanto combinar os dois traços. Isso era muito mais fácil e preciso do que tentar ver que eles eram opostos). Em seguida, alternamos para a resposta resultante, onde vimos que o pico foi achatado pela atenuação no EQ.

 

OK, concluímos o processo de EQ até 250 Hz. Havia mais seis rodadas para chegar ao final do espectro. Eram 21 medições no total, levaria apenas cerca de quatro minutos para obter os 63 traços. Nós também precisávamos ter certeza de que nos lembraríamos (em nossa cabeça) onde o traço se localizava no nível low end à medida que avançássemos - não queríamos perder nosso ponto de referência, não é?

 

A outra parte divertida era ter certeza de puxar o traço correto da memória. Não podíamos comparar a resposta Sala até 250 Hz EQ com a resposta até 500 Hz. O analisador não se importava, pois, uma vez armazenada, era apenas uma linha verde. Nós é que tínhamos de manter isso honesto.

 

Logo, adicionamos o computador antigo para armazenar os dados, nomeá-los e enviá-los de volta ao analisador (um Hewlett-Packard HP 3582). O computador tratava de gerenciar a biblioteca de 63 traços e mantê-los em ordem. Sem ele, seriamos obrigados a apagar nosso trabalho a cada 15 segundos e começar do zero. Depois de tudo isso, chegava a hora de mover o microfone para repetir o processo novamente para os próximos 10 subsistemas.

 

Teatro musical

Nossa próxima grande oportunidade foi o teatro musical, trabalhando com os designers de som Abe Jacob e Andrew Bruce. Neste universo, já havia níveis extremos de subdivisão do sistema: esquerdo, direito, dentro, fora, superior, inferior, música, vocal, surround, FX e muito mais. Cada um desses subsistemas precisava de atenção individual, e eles também exigiam uma combinação perfeita entre si quando integrados com o todo.

 

O escopo do trabalho agora incluía pan e tilt, equalização individual, ajuste de nível, ajuste de atraso, splay angular, espaçamento e equalização combinada. Agora tínhamos todas as peças de otimização moderna a disposição, mas não havia um sistema de análise que pudesse lidar com essa complexidade de trabalho: ainda tínhamos apenas um único microfone e uma capacidade extremamente limitada para gerenciar os dados multicanais.

 

No ano de 1986, em Londres, o evento Chess foi um ponto de virada para mim. Passei noite após noite movendo um único microfone para cima e para baixo, para dentro e para fora, e em todos os três níveis do teatro Prince Edward. Eu consertava no andar de cima para descobrir que quebrava no andar de baixo, fazia a mesma coisa ao contrário. Toda vez que mudávamos alguma coisa em algum lugar, isso mudava as coisas em outro lugar. Quatro ingredientes críticos foram necessários para otimizar com sucesso os complexos sistemas multicanais interativos do teatro musical: acesso a múltiplos equalizadores, múltiplos microfones, memória computacional para gerenciar os dados e uma metodologia sistemática.

É impossível exagerar a importância da memória para este trabalho. Há apenas uma quantidade limitada que podemos aprender com qualquer conjunto de dados em um analisador. A tela mostra o que temos aqui e agora, mas não tem o contexto sobre como isso se relaciona com o onde e quando. O traço mais bonito do mundo não significa nada até o relacionarmos com outros locais da sala.

Otimização é uma busca espacial. Como podemos dizer que soa igual ao redor da sala se não temos dados de toda a sala para que assim possamos comparar?

 

Vários microfones

Uma otimização atual com oito microfones dispostos em uma linha da frente para trás no teatro Ruth Eckerd Hall em Clearwater- Flórida. O uso de vários microfones nos permite ver as diferenças na resposta da frente para trás e fazer ajustes conforme a necessidade. Neste caso, os microfones superiores caíram de nível a partir do meio e da frente, até que um ajuste angular ascendente foi feito no arranjo. Isto foi seguido por ajustes de EQ e redução de nível para as linhas mais próximas.

 

Como afirmado anteriormente, o SIM 1 nos deu vários microfones e acesso a todos os equalizadores. Agora, podíamos vagar livremente pelo sistema e expandir nossos conhecimentos e capacidades. Lembre-se da minha experiência de sobe e desce na sala em Londres com um único microfone. Isso nunca mais teria que acontecer novamente. Eu poderia manter microfones em todos os níveis do teatro e ver o que acontecia em todos os lugares enquanto eu mudava alguma coisa. O ciclo de tentativa e erro encolheu tremendamente.

 

O PC ainda era o HP 3582, o que significava que ainda precisávamos ver a resposta de frequência em sete seções. Não éramos mais rápidos do que antes, mas estávamos em vários locais e tínhamos uma biblioteca de dados organizada.

 

Um dos primeiros usuários do SIM 1 foi a Soundcraft para a turnê em estádios de Yuming  Matsutoya em 1987. O sistemas SIM era tão novo que eu estava ainda soldando peças na placa de circuito impresso na noite anterior ao envio para o Japão que ia antes de mim.

 

Esta foi uma aplicação extremamente importante. Nós agora tivemos a chance de medir toda a sala com o público no local durante o show. Com a sala vazia, poderíamos armazenar a resposta em cada local. Então, poderíamos comparar suas respostas quando a sala estivesse cheia. Por três anos nós medimos apenas na posição de mixagem durante os shows, então não tínhamos provas de quais mudanças ocorreriam em outros pontos do local. Agora estávamos prontos para descobrir. Nos shows de Yuming, pudemos provar claramente que a resposta muda localmente, de forma única em cada parte da sala, em vez de uma mudança global (como toda a sala recebe um pico em 250 Hz). Estávamos esperando por uma resposta fácil, mas agora sabíamos o que estávamos enfrentando.

 

Outro aspecto importante dos shows da Yuming é o retorno ao universo dos show de rock. Vários microfones no local mostraram o quão diferente o som era da frente para trás e da frente para o lado. Os engenheiros da Soundcraft estavam prontos para aplicar os princípios de subdivisão que aprendemos durante a fase experimental do SIM.

Os sistemas superiores, inferiores, laterais e etc... foram analisados ​​separadamente com microfones locais e equalizados. Em seguida, fizemos ajustes de nível e atraso e concluímos o processo com equalização geral.

 

Em 1987 o processo moderno estava começando a tomar forma. Naquela época, levou muito mais tempo e conhecimento, já que cada resposta de frequência era de sete segmentos, o atraso teve que ser decodificado da fase e ainda tínhamos apenas uma quantidade muito limitada de memória.

Mesmo assim, olho para trás como um dos períodos de aprendizado mais críticos para a otimização de sistemas. Uma vez que você observou um sistema em uma sala com múltiplos microfones, não há como voltar atrás.

 

Métodos da Era Moderna

 

A era moderna começa em 1991 com a introdução do SIM II. As 21 operações (de quatro minutos cada) necessárias para obter uma resposta de frequência completa levavam agora apenas 13 segundos.

 

A configuração de atraso não precisa mais de uma chave de decodificação da fase; poderíamos ler o tempo diretamente na resposta ao impulso. Com o SIM 1 original, havia vários microfones, mas ainda era uma provação demorada movê-los e obter uma nova resposta.

 

Agora poderíamos aproveitar ao máximo a velocidade e facilidade de operação e colocar vários microfones em movimento. Este é o momento em que as estratégias de posicionamento de microfones começaram sua evolução em categorias.

 

A posição no eixo (chamada de “primária” na época) foi usada para EQ e ajuste de nível, enquanto a posição fora do eixo (chamada de “secundária”) ajudou a orientar os alto-falantes visando sua relação com a resposta no eixo.

 

 

Há muitas maneiras de resolver os desafios enfrentados na otimização, mas deve haver uma metodologia. Aqui está um exemplo de posicionamento de mic estratégico e os traços esperados e necessários para encontrar o splay ideal entre dois elementos arranjados.

 

Foram desenvolvidos procedimentos que usaram múltiplos microfones de maneira padrão. Roger Gans foi pioneiro na “técnica estrela”, que colocava o microfone no eixo, encima, embaixo e no lado, o suficiente para ver diferenças nos dados e estabelecer um EQ com média espacial. A aquisição dessas quatro posições foi mais rápida que uma única resposta no SIM 1 e pudemos ver todos os quatro traços de uma só vez em cores!

Outro movimento importante foi a combinação de técnicas para os  sistemas principais , down fill, side fills, front fills, etc. O SIM II nos permitiu colocar microfones nos três locais críticos: no eixo do sistema principal, no eixo dos subsistemas e no ponto de crossover entre eles. Aprendemos como obter o ângulo de dispersão ideal, o nível relativo e o atraso para fornecer uma transição perfeita entre esses três locais. Durante a vida útil de quatro anos do SIM 1, apenas um único curso de treinamento foi oferecido, mas as coisas estavam prestes a mudar.

 

 

A otimização de um sistema consiste em uma série de etapas como: objetivo, splay, espaço, nível, equalização e atraso. Cada alto-falante requer atenção individual, configurações relacionadas ao seu subgrupo e, finalmente, configuração que otimiza sua combinação com os outros. A metodologia inclui uma ordem planejada de operações, um exemplo do que é mostrado aqui.

 

Duas coisas aconteceram agora que os traços eram compreensíveis e o sistema muito mais rápido:

 

1). Aprendemos muito rápido por causa de todo o registro de coisas que estávamos querendo ver, mas não possuímos a ferramenta.

 

2). Estávamos prontos para ensinar a outras pessoas o que sabíamos (mesmo que tivéssemos acabado de aprender na semana anterior). Mais de 25 anos depois, ainda estou aprendendo e continuo ensinando o que acabei de aprender.

 

Tudo isso teve um impacto substancial no desenho dos sistemas de som. Eu pessoalmente aprendi a maior parte do que sei sobre desenho de sistema, analisando minuciosamente os prós e os contras de outros designers, já que seus sistemas eram vistos sob o microscópio multicanal. Os projetistas de som também ficaram mais confortáveis ​​com o aumento da complexidade em seus projetos quando viram que era mais fácil combinar os sistemas com maior eficácia do que antes.

 

O SIM II também teve um impacto significativo no desenvolvimento de alto-falantes, já que a ferramenta poderia ser usada no laboratório de pesquisa e na linha de produção, bem como no campo (uma reversão do antigo paradigma da Hewlett Packard).

 

À medida que nossas técnicas de otimização avançavam, os engenheiros também foram capazes de fornecer feedback sobre as descobertas em campo, o que pode ser observado na plataforma comum do laboratório. Eles também poderiam fornecer informações valiosas sobre a qualidade do sistema de alto-falantes que proporcionavam o melhor resultado nas otimizações. E da mesma forma que os alto-falantes melhoraram, nossas técnicas também evoluiram.

 

 

Please reload

 Siga o #DICASDOBARBA 
  • YouTube - Black Circle
  • Facebook B&W
 POSTS recentes: 

03.09.2019

Please reload

 procurar por TAGS: 
Please reload