Jipihorn's Blog

février 27, 2006

L\’avenir des filtres actifs.

Filed under: Uncategorized — jipihorn @ 2:14

Retour au blog, après cette pause volontaire pour que le précédent message reste un peu de temps car il me semble très caractéristique de l’incompréhension entre les deux mondes.

Cela fait quelques temps déjà que le filtrage actif gagne du terrain. L’arrivée d’appareils comme le Behringer DCX2496 n’y est pas étrangère car le prix et la souplesse sont inégalables. En fouillant un peu, on découvre qu’il existe pas mal de références de filtres numériques, souvent chers, souvent finalement équivalents quand on compare à fonctionalités équivalentes. La tentation de considérer le pas cher comme pas bon est forte et pourtant, les différences de prix sont largement non justifiées.

Majoritairement, les filtres numériques simulent les filtres analogiques conventionnels. Basés sur le modère IIR, ils sont faciles à définir et à utiliser. Malheureusement, ils héritent des limitations de leurs pendants analogiques, essentiellement du coté de la phase. Il existe des topologies IIR à phase quasi-constante ou lineaire mais elles ne sont pas utilisées. Certains passent beaucoup de temps à essayer de faire au mieux avec ces filtres, mais c’est une démarche qui me semble être inutile par rapport au peu que l’on gagne, quand on gagne quelque chose.
Toute cela pour dire que le filtrage analogique conventionnel ne peut pas fournir de réponse au fantasme du filtre parfait. Quelques soient les méthodes pour essayer de s’en approcher, il restera des problèmes. Pourtant, ce n’est pas si grave, car l’impact sur le son est finalement bien faible par rapport aux efforts consentis. Il est beaucoup plus important d’aligner les sources que de tenter de corriger la phase visuellement en essayant de faire des beaux carrés qui de toutes façon ne seront pas beaux.

Quid de l’avenir, alors ?

Tout d’abord, l’avenir sera au PC dédié. Que ce soit pour du décodage multicanaux ou filtrage numérique, la solution des racks propriétaires est vouée à disparaitre. Le principal défaut de ces dernier est qu’ils ne sont pas complètement ouverts. Le matériel est lié plus ou moins étroitement au logiciel. Pour le décodage par exemple, que se passera-t-il pour la prochaine norme qui mourra peut de temps après ? Combien faudra-t-il payer la mise à jour sous la forme d’une carte d’extension avec son logiciel embarqué ?
Une fois que l’on comprend que tout ceci n’est qu’un pur problème logiciel, on comprend mieux qu’une base universelle avec des cartes d’acquisition basées sur des standards (comme le PCI, l’ASIO par exemple) puisse être mise à jour en deux clics.

Ensuite, l’avenir du filtrage sera le filtre FIR. Il faut bien comprendre que la limitation majeure de cette topologie est la puissance de calcul necessaire pour la synthèse des filtres. Dans une moindre mesure, la longueur de ces filtres peut nécessiter aussi de la puissance pour les utiliser. Mais, c’est sur que personne n’utiliserait la methode brute d’évaluation selon la définition des FIR.
Si l’on veut dépasser les modèles courants utilisés dans les TACT par exemple, il faut des programmes de calcul difficiles à implanter dans des DSP mais beaucoup plus simples dans un CPU standard avec des langage haut-niveau. Le FIR n’en est qu’au commencement au niveau implémentation pratique. Habituellement, ils ne sont utilisés que pour modéliser un filtre à amplitude arbitraire par des algorithmes anciens comme celui de Parks-McClellan. Ces techniques sont largement dépassées depuis, par exemple, avec les projection dans le plan complexe de l’algorithme de Remez. En 2006, un bon soft de filtrage FIR doit proposer la synthèse à amplitude complexe arbitraire. Ca sera le cas, c’est certain. Cela implique aussi qu’il y ait une partie mesure intégrée. Car à quoi sert le filtrage si l’on ne peut pas vérifier ce qu’il se passe ?

L’avenir sera au PC (au sens large) qui gèrera le tout dans son rack format hifi comme les boitier Arisetec. La puissance des processeurs le permet, surtout que ces traitement se prêtent particulièrement bien au calcul parallèle. Comme l’avenir est au CPU multi-coeur (il faut bien suivre la loi de Moore), la puisance augmentera en conséquence… Mais avec un simple AMD X2, on peut à l’aise utiliser des dizaines de filtres FIR avec des dizaines de milliers de points à 192 Khz en virgule flottante 80 bits. Quand à la synthèse des filtres, le temps réel n’est pas obligatoire mais ce qui pouvait prendre des dizaines de minutes avant se résume maintenant en secondes…

Et avec ça, terminé les bidouillages avec décalage, déphasages, fréquences de coupures inégales et faibles pentes (même si le FIR à forte pente n’est pas forcément nécessaire).

Mais j’y reviendrai en pratique…

Jipi.

Propulsé par WordPress.com.

%d blogueurs aiment cette page :