Jipihorn's Blog

novembre 5, 2012

Le CD a-t-il une dynamique de 96 dB ?

Filed under: Audiophilie, Fondamentaux, Vidéo Blog — jipihorn @ 8:26

Dans le nombre des clichés audio, celui-ci revient inexorablement (surtout pour démontrer à quel point le CD, c’est pourri). Mais est-ce bien le cas ?

Jipi.

27 commentaires »

  1. Merci encore
    Tres tres bien expliqué.

    Commentaire par Caumont Dimitri — novembre 13, 2012 @ 1:00

  2. Le lecteur cd est arrivé à maturité. On dépasse maintenant les 100dB de dynamique en rapport signal/bruit numérique, les convertisseurs sont excellents, la bande passante est tirée au cordeau, les distorsions en sortie des étages analogiques sont négligeables. Comparez avec les 60 dB de dynamique théoriques disponibles sur un 33trs, une dynamique qui plonge au fur et à mesure des passages sous le diamant (d’abord les aigus puis après le reste), une régularité de la bande passante plutôt passable, une diaphonie intolérable aujourd’hui, la distorsion d’intermodulation élevée en sortie de cellule (~1% et plus sur un disque en excellent état) comme le montre ce document (regardez les chiffres, pas les commentaires ni les notations svp…):

    Cliquer pour accéder à testbericht_concerto_hifinews.pdf

    Un autre test comparatif cd/vinyle, montre qu’en dehors de la production, les défauts de linéarité du vinyle se remarquent d’autant plus avec l’usure et la position de la cellule sur le disque:
    http://forum.hardware.fr/hfr/VideoSon/HiFi-HomeCinema/resultats-comparatif-vinyle-sujet_87812_1.htm
    Rien ne justifie actuellement l’achat d’une platine TD sauf pour ceux qui possèdent une collection de galettes noires grande comme ça. Pourtant, les « espaces vinyle » ne cessent de se développer: différentes enseignes proposent des platines allant du prix démocratique au prix exorbitant, les plus chères sont souvent relookées vintage et sont réservées à une clientelle pour qui le prestige et la sacralisation de l’objet l’emportent sur la raison. Parallèlement à cette niche économique on voit repousser comme des champignons, des 33 trs dans les bacs. J’ai eu l’occasion d’acheter deux ou trois réeditions « blue note »: c’est vraiment de la m… Les disques sont voilés, ça craque, ça siffle tout au long des sillons. Pour espérer la « qualité vinyle », il faut se rabattre sur le 180g, mais là bonjour les prix: j’ai vu un coffret Miles Davis à presque 400 euro! Alors pour le fétichiste, le collectionneur compulsif, autant se satisfaire en allant aux puces ou chez Emmaüs ça revient nettement moins cher.
    A l’heure de la dématérialisation, le cd subit la crise de plein fouet: à l’instar du vinyle, le marketing audiophile (very bad commerce) ne manque pas une occasion pour profiter de cette crise et vendre cher un produit qui ne devrait pas l’être. C’est le cas du SHMCD ou blu-spec cd:
    http://www.futura-sciences.com/fr/news/t/technologie-1/d/blu-spec-cd-un-nouveau-format-de-cd-audio-chez-sony_17267/
    les preuves permettant d’attester de la supériorité de ces supports, font cruellement défaut:
    http://chaud7.forumactif.fr/t342-shm-cd
    Personnellement, en comparant la production « normale » et SHMCD d’un même album, je n’ai jamais pu faire la moindre différence à l’écoute, par contre la différence de prix est
    effectivement là: le déjà mythique SHMCD est 10 à 15 euro plus cher que la production classique. Même chose en ce qui concerne le SACD qui est d’ailleurs un échec commercial
    complet. Mais il y’a parfois des initiatives intelligentes dans les réeditions comme ce label « real gone jazz » qui propose des versions remasterisées de plusieurs albums d’un même musicien dans un coffret épais, contenant trois ou quatre cd d’excellente qualité, vendu aux alentours de 10 euro (pas les coffrets ultra plats et chers où il faut un pied de biche pour sortir la galette irisée de son support…):
    http://american-music.forum-actif.eu/t1846-eight-classic-albums-jazz
    Revnons à nos moutons et à la course au bruit numérique qui ne doit pas cacher les autres qualités essentielles d’un lecteur cd: la correction d’erreurs, le filtrage, et les étages analogiques. Il est par ailleurs étonnant de constater que les platines cd pro restent sagement dans une dynamique de 100 dB avec le classique 16bits/44,1Khz surréchantillonné 8 fois:

    Cliquer pour accéder à DN-C635_manual_fr.pdf

    … alors que les DAC et les cd du commerce « haut de gamme » sont de plus en plus sophistiqués et scandaleusement chers. Il y’a certainement une raison simple à cela: elle tient dans le contenu du support cd lui-même. C’est à dire, la prise de son, le mixage et la production (concrêtement la dynamique réelle):
    http://fredhammersmith.blogspot.fr/2008/08/dynamique-et-musique-le-rock-champion.html
    On constate au travers de ces exemples d’albums, qu’une dynamique de 60 dB est déjà exceptionnelle et rare avec 30 dB de niveau maximum par rapport au niveau moyen (ça fait un
    gain en tension de 10^(30/20)=32 par rapport à ce niveau moyen; attention aux enceintes si l’ampli est puissant et efficace…). Or 100 dB de dynamique de bruit numérique suffit à lire correctement des signaux aussi faibles que -60dB sans trop de distorsion. Alors vous choisissez quoi? Le lecteur à 200-300 euro proprement construit, fiable et qui fait bien son boulot ou le transport de chez Accuphase accompagné de son DAC aux sorties plaquées or 24 carat recommandés par la « presse spécialisée » et vendus au prix du lingot.
    Un test ABX en aveugle pourrait finir par vous convaincre …
    http://www.matrixhifi.com/ENG_marco.htm
    La dynamique, c’est avant tout le talent de l’ingénieur du son point final.

    Le lecteur cd est arrivé à maturité. On dépasse maintenant les 100dB de dynamique en rapport signal/bruit numérique, les convertisseurs sont excellents, la bande passante est

    tirée au cordeau, les distorsions en sortie des étages analogiques sont négligeables. Comparez avec les 60 dB de dynamique théoriques disponibles sur un 33trs, une dynamique qui

    plonge au fur et à mesure des passages sous le diamant (d’abord les aigus puis après le reste), une régularité de la bande passante plutôt passable, une diaphonie intolérable

    aujourd’hui, la distorsion d’intermodulation élevée en sortie de cellule (~1% et plus sur un disque en excellent état) comme le montre ce document (regardez les chiffres, pas

    les commentaires ni les notations svp…):

    Cliquer pour accéder à testbericht_concerto_hifinews.pdf

    Un autre test comparatif cd/vinyle, montre qu’en dehors de la production, les défauts de linéarité du vinyle se remarquent d’autant plus avec l’usure et la position de la

    cellule sur le disque:
    http://forum.hardware.fr/hfr/VideoSon/HiFi-HomeCinema/resultats-comparatif-vinyle-sujet_87812_1.htm
    Rien ne justifie actuellement l’achat d’une platine TD sauf pour ceux qui possèdent une collection de galettes noires grande comme ça. Pourtant, les « espaces vinyle » ne cessent

    de se développer: différentes enseignes proposent des platines allant du prix démocratique au prix exorbitant, les plus chères sont souvent relookées vintage et sont réservées à

    une clientelle pour qui le prestige et la sacralisation de l’objet l’emportent sur la raison. Parallèlement à cette niche économique on voit repousser comme des champignons, des

    33 trs dans les bacs. J’ai eu l’occasion d’acheter deux ou trois réeditions « blue note »: c’est vraiment de la m… Les disques sont voilés, ça craque, ça siffle tout au long des

    sillons. Pour espérer la « qualité vinyle », il faut se rabattre sur le 180g, mais là bonjour les prix: j’ai vu un coffret Miles Davis à presque 400 euro! Alors pour le

    fétichiste, le collectionneur compulsif, autant se satisfaire en allant aux puces ou chez Emmaüs ça revient nettement moins cher.
    A l’heure de la dématérialisation, le cd subit la crise de plein fouet: à l’instar du vinyle, le marketing audiophile (very bad commerce) ne manque pas une occasion pour

    profiter de cette crise et vendre cher un produit qui ne devrait pas l’être. C’est le cas du SHMCD ou blu-spec cd:
    http://www.futura-sciences.com/fr/news/t/technologie-1/d/blu-spec-cd-un-nouveau-format-de-cd-audio-chez-sony_17267/
    les preuves permettant d’attester de la supériorité de ces supports, font cruellement défaut:
    http://chaud7.forumactif.fr/t342-shm-cd
    Personnellement, en comparant la production « normale » et SHMCD d’un même album, je n’ai jamais pu faire la moindre différence à l’écoute, par contre la différence de prix est

    effectivement là: le déjà mythique SHMCD est 10 à 15 euro plus cher que la production classique. Même chose en ce qui concerne le SACD qui est d’ailleurs un échec commercial

    complet. Mais il y’a parfois des initiatives intelligentes dans les réeditions comme ce label « real gone jazz » qui propose des versions remasterisées de plusieurs albums d’un

    même musicien dans un coffret épais, contenant trois ou quatre cd d’excellente qualité, vendu aux alentours de 10 euro (pas les coffrets ultra plats et chers où il faut un pied

    de biche pour sortir la galette irisée de son support…):
    http://american-music.forum-actif.eu/t1846-eight-classic-albums-jazz
    Revnons à nos moutons et à la course au bruit numérique qui ne doit pas cacher les autres qualités essentielles d’un lecteur cd: la correction d’erreurs, le filtrage, et les

    étages analogiques. Il est par ailleurs étonnant de constater que les platines cd pro restent sagement dans une dynamique de 100 dB avec le classique 16bits/44,1Khz

    surréchantillonné 8 fois:

    Cliquer pour accéder à DN-C635_manual_fr.pdf

    … alors que les DAC et les cd du commerce « haut de gamme » sont de plus en plus sophistiqués et scandaleusement chers. Il y’a certainement une raison simple à cela: elle tient

    dans le contenu du support cd lui-même. C’est à dire, la prise de son, le mixage et la production (concrêtement la dynamique réelle):
    http://fredhammersmith.blogspot.fr/2008/08/dynamique-et-musique-le-rock-champion.html
    On constate au travers de ces exemples d’albums, qu’une dynamique de 60 dB est déjà exceptionnelle et rare avec 30 dB de niveau maximum par rapport au niveau moyen (ça fait un

    gain en tension de 10^(30/20)=32 par rapport à ce niveau moyen; attention aux enceintes si l’ampli est puissant et efficace…). Or 100 dB de dynamique de bruit numérique suffit

    à lire correctement des signaux aussi faibles que -60dB sans trop de distorsion. Alors vous choisissez quoi? Le lecteur à 200-300 euro proprement construit, fiable et qui fait bien son boulot ou le transport de chez Accuphase accompagné de son DAC aux sorties plaquées or 24 carat recommandés par la « presse spécialisée » et vendus au prix du lingot.
    Un test ABX en aveugle pourrait finir par vous convaincre …
    http://www.matrixhifi.com/ENG_marco.htm
    La dynamique, c’est avant tout le talent de l’ingénieur du son point final.

    Le lecteur cd est arrivé à maturité. On dépasse maintenant les 100dB de dynamique en rapport signal/bruit numérique, les convertisseurs sont excellents, la bande passante est tirée au cordeau, les distorsions en sortie des étages analogiques sont négligeables. Comparez avec les 60 dB de dynamique théoriques disponibles sur un 33trs, une dynamique qui plonge au fur et à mesure des passages sous le diamant (d’abord les aigus puis après le reste), une régularité de la bande passante plutôt passable, une diaphonie intolérable aujourd’hui, la distorsion d’intermodulation élevée en sortie de cellule (~1% et plus sur un disque en excellent état) comme le montre ce document (regardez les chiffres, pas les commentaires ni les notations svp…):

    Cliquer pour accéder à testbericht_concerto_hifinews.pdf

    Un autre test comparatif cd/vinyle, montre qu’en dehors de la production, les défauts de linéarité du vinyle se remarquent d’autant plus avec l’usure et la position de la cellule sur le disque:
    http://forum.hardware.fr/hfr/VideoSon/HiFi-HomeCinema/resultats-comparatif-vinyle-sujet_87812_1.htm
    Rien ne justifie actuellement l’achat d’une platine TD sauf pour ceux qui possèdent une collection de galettes noires grande comme ça. Pourtant, les « espaces vinyle » ne cessent de se développer: différentes enseignes proposent des platines allant du prix démocratique au prix exorbitant, les plus chères sont souvent relookées vintage et sont réservées à une clientelle pour qui le prestige et la sacralisation de l’objet l’emportent sur la raison. Parallèlement à cette niche économique on voit repousser comme des champignons, des 33 trs dans les bacs. J’ai eu l’occasion d’acheter deux ou trois réeditions « blue note »: c’est vraiment de la m… Les disques sont voilés, ça craque, ça siffle tout au long des sillons. Pour espérer la « qualité vinyle », il faut se rabattre sur le 180g, mais là bonjour les prix: j’ai vu un coffret Miles Davis à presque 400 euro! Alors pour le fétichiste, le collectionneur compulsif, autant se satisfaire en allant aux puces ou chez Emmaüs ça revient nettement moins cher.
    A l’heure de la dématérialisation, le cd subit la crise de plein fouet: à l’instar du vinyle, le marketing audiophile (very bad commerce) ne manque pas une occasion pour profiter de cette crise et vendre cher un produit qui ne devrait pas l’être. C’est le cas du SHMCD ou blu-spec cd:
    http://www.futura-sciences.com/fr/news/t/technologie-1/d/blu-spec-cd-un-nouveau-format-de-cd-audio-chez-sony_17267/
    les preuves permettant d’attester de la supériorité de ces supports, font cruellement défaut:
    http://chaud7.forumactif.fr/t342-shm-cd
    Personnellement, en comparant la production « normale » et SHMCD d’un même album, je n’ai jamais pu faire la moindre différence à l’écoute, par contre la différence de prix est effectivement là: le déjà mythique SHMCD est 10 à 15 euro plus cher que la production classique. Même chose en ce qui concerne le SACD qui est d’ailleurs un échec commercial complet. Mais il y’a parfois des initiatives intelligentes dans les réeditions comme ce label « real gone jazz » qui propose des versions remasterisées de plusieurs albums d’un même musicien dans un coffret épais, contenant trois ou quatre cd d’excellente qualité, vendu aux alentours de 10 euro (pas les coffrets ultra plats et chers où il faut un pied de biche pour sortir la galette irisée de son support…):
    http://american-music.forum-actif.eu/t1846-eight-classic-albums-jazz
    Revnons à nos moutons et à la course au bruit numérique qui ne doit pas cacher les autres qualités essentielles d’un lecteur cd: la correction d’erreurs, le filtrage, et les étages analogiques. Il est par ailleurs étonnant de constater que les platines cd pro restent sagement dans une dynamique de 100 dB avec le classique 16bits/44,1Khz surréchantillonné 8 fois:

    Cliquer pour accéder à DN-C635_manual_fr.pdf

    … alors que les DAC et les cd du commerce « haut de gamme » sont de plus en plus sophistiqués et scandaleusement chers. Il y’a certainement une raison simple à cela: elle tient dans le contenu du support cd lui-même. C’est à dire, la prise de son, le mixage et la production (concrêtement la dynamique réelle):
    http://fredhammersmith.blogspot.fr/2008/08/dynamique-et-musique-le-rock-champion.html
    On constate au travers de ces exemples d’albums, qu’une dynamique de 60 dB est déjà exceptionnelle et rare avec 30 dB de niveau maximum par rapport au niveau moyen (ça fait un gain en tension de 10^(30/20)=32 par rapport à ce niveau moyen; attention aux enceintes si l’ampli est puissant et efficace…). Or 100 dB de dynamique de bruit numérique suffit à lire correctement des signaux aussi faibles que -60dB sans trop de distorsion. Alors vous choisissez quoi? Le lecteur à 200-300 euro proprement construit, fiable et qui fait bien son boulot ou le transport de chez Accuphase accompagné de son DAC aux sorties plaquées or 24 carat recommandés par la « presse spécialisée » et vendus au prix du lingot.
    Un test ABX en aveugle pourrait finir par vous convaincre …
    http://www.matrixhifi.com/ENG_marco.htm
    La dynamique, c’est avant tout le talent de l’ingénieur du son point final.

    Commentaire par FRANCIS LIBRE — novembre 14, 2012 @ 7:40

  3. Le lecteur cd est arrivé à maturité. On dépasse maintenant les 100dB de dynamique en rapport signal/bruit numérique, les convertisseurs sont excellents, la bande passante est tirée au cordeau, les distorsions en sortie des étages analogiques sont négligeables. Comparez avec les 60 dB de dynamique théoriques disponibles sur un 33trs, une dynamique qui plonge au fur et à mesure des passages sous le diamant (d’abord les aigus puis après le reste), une régularité de la bande passante plutôt passable, une diaphonie intolérable aujourd’hui, la distorsion d’intermodulation élevée en sortie de cellule (~1% et plus sur un disque en excellent état) comme le montre ce document (regardez les chiffres, pas les commentaires ni les notations svp…):

    Cliquer pour accéder à testbericht_concerto_hifinews.pdf

    Un autre test comparatif cd/vinyle, montre qu’en dehors de la production, les défauts de linéarité du vinyle se remarquent d’autant plus avec l’usure et la position de la cellule sur le disque:
    http://forum.hardware.fr/hfr/VideoSon/HiFi-HomeCinema/resultats-comparatif-vinyle-sujet_87812_1.htm
    Rien ne justifie actuellement l’achat d’une platine TD sauf pour ceux qui possèdent une collection de galettes noires grande comme ça. Pourtant, les « espaces vinyle » ne cessent de se développer: différentes enseignes proposent des platines allant du prix démocratique au prix exorbitant, les plus chères sont souvent relookées vintage et sont réservées à une clientelle pour qui le prestige et la sacralisation de l’objet l’emportent sur la raison. Parallèlement à cette niche économique on voit repousser comme des champignons, des 33 trs dans les bacs. J’ai eu l’occasion d’acheter deux ou trois réeditions « blue note »: c’est vraiment de la m… Les disques sont voilés, ça craque, ça siffle tout au long des sillons. Pour espérer la « qualité vinyle », il faut se rabattre sur le 180g, mais là bonjour les prix: j’ai vu un coffret Miles Davis à presque 400 euro! Alors pour le fétichiste, le collectionneur compulsif, autant se satisfaire en allant aux puces ou chez Emmaüs ça revient nettement moins cher.
    A l’heure de la dématérialisation, le cd subit la crise de plein fouet: à l’instar du vinyle, le marketing audiophile (very bad commerce) ne manque pas une occasion pour profiter de cette crise et vendre cher un produit qui ne devrait pas l’être. C’est le cas du SHMCD ou blu-spec cd:
    http://www.futura-sciences.com/fr/news/t/technologie-1/d/blu-spec-cd-un-nouveau-format-de-cd-audio-chez-sony_17267/
    les preuves permettant d’attester de la supériorité de ces supports, font cruellement défaut:
    http://chaud7.forumactif.fr/t342-shm-cd
    Personnellement, en comparant la production « normale » et SHMCD d’un même album, je n’ai jamais pu faire la moindre différence à l’écoute, par contre la différence de prix est effectivement là: le déjà mythique SHMCD est 10 à 15 euro plus cher que la production classique. Même chose en ce qui concerne le SACD qui est d’ailleurs un échec commercial complet. Mais il y’a parfois des initiatives intelligentes dans les réeditions comme ce label « real gone jazz » qui propose des versions remasterisées de plusieurs albums d’un même musicien dans un coffret épais, contenant trois ou quatre cd d’excellente qualité, vendu aux alentours de 10 euro (pas les coffrets ultra plats et chers où il faut un pied de biche pour sortir la galette irisée de son support…):
    http://american-music.forum-actif.eu/t1846-eight-classic-albums-jazz
    Revnons à nos moutons et à la course au bruit numérique qui ne doit pas cacher les autres qualités essentielles d’un lecteur cd: la correction d’erreurs, le filtrage, et les étages analogiques. Il est par ailleurs étonnant de constater que les platines cd pro restent sagement dans une dynamique de 100 dB avec le classique 16bits/44,1Khz surréchantillonné 8 fois:

    Cliquer pour accéder à DN-C635_manual_fr.pdf

    … alors que les DAC et les cd du commerce « haut de gamme » sont de plus en plus sophistiqués et scandaleusement chers. Il y’a certainement une raison simple à cela: elle tient dans le contenu du support cd lui-même. C’est à dire, la prise de son, le mixage et la production (concrêtement la dynamique réelle):
    http://fredhammersmith.blogspot.fr/2008/08/dynamique-et-musique-le-rock-champion.html
    On constate au travers de ces exemples d’albums, qu’une dynamique de 60 dB est déjà exceptionnelle et rare avec 30 dB de niveau maximum par rapport au niveau moyen (ça fait un gain en tension de 10^(30/20)=32 par rapport à ce niveau moyen; attention aux enceintes si l’ampli est puissant et efficace…). Or 100 dB de dynamique de bruit numérique suffit à lire correctement des signaux aussi faibles que -60dB sans trop de distorsion. Alors vous choisissez quoi? Le lecteur à 200-300 euro proprement construit, fiable et qui fait bien son boulot ou le transport de chez Accuphase accompagné de son DAC aux sorties plaquées or 24 carat recommandés par la « presse spécialisée » et vendus au prix du lingot.
    Un test ABX en aveugle pourrait finir par vous convaincre …
    http://www.matrixhifi.com/ENG_marco.htm
    La dynamique, c’est avant tout le talent de l’ingénieur du son point final.

    Commentaire par FRANCIS LIBRE — novembre 14, 2012 @ 8:13

  4. Excellent et très instructif ! Toutefois, je suppose que le suréchantillonage va ajouter son propre bruit du fait que les données insérées entre chaque échantillon ne sont qu’une approximation. Or je n’ai pas vu cette contribution du bruit dans l’équation montrant la réduction globale avant fs/2. Une précision serait la bienvenue sur ce point qui parait du coup moins magique. Mais je suppose que le bruit introduit est certainement inférieur à la réduction.
    Aussi pour les sceptiques qui disent qu’au final on n’aura jamais un tension en sortie de DAC plus précise que +/- 1/2 LSB donc que c’est du vent, il aurait été intéressant de montrer que le signal en dessous de ces +/- 1/2 lsb est reconstruit par une modulation dans le temps du dernier bit introduit par le nombre plus élevé d’échantillons en sortie. Enfin je suppose que c’est comme ça car je ne vois pas d’autres moyens de créer l’information sous les 96db qui étaient avant noyée dans le bruit numérique. Si c’est bien comme ça que cela foncionne, est-il possible de revenir sur fs de départ (acquisition) en remplaçant cette modulation du dernier bit dans le temps par des bits supplémentaire ? et qu’elle serait le nombre de bit supplémentaires équivalents à un suréchantillonage x N ? Ca me semble tout à fait faisable par exemple 16/44 -> 16/192 –> 24/44 (plus de bits mais même fréquence). Or j’ai lu ailleurs que la technique de suréchantillonage s’accompagne forcément d’une augmentation du nombre d’échantillons ET du nombre de bit.

    Commentaire par Jacques EXBRAYAT — décembre 5, 2012 @ 12:47

  5. Bonjour,

    Très intéressant, quelques remarques cependant :
    – trop de redites, c’est bien de vouloir convaincre, mais bon… y a des moments c’est bon : on a compris!
    – je ne comprends pas du tout ta remarque à 17′ : ta largeur (temporelle) d’échantillon c’est bien 1/F, d’ailleurs après tu intègres par rapport au temps.
    – quid comme le dit Jacques du bruit de quantification lié au suréchantillonnage?
    – j’ai été très perturbé par l’utilisation de Vmax au début pour différencier l’amplitude su signal vs celle du bruit, car après tu utilise Vrms de Vmax… est-ce que tu vois ce que je veux dire, Vmax pour moi c’est réservé à V(t) = Vmax f(t).
    – tu pourrais utiliser l’expression de « bruit de quantification », c’est tout à fait acceptable et permet de bien différencier le bruit analogique de celui lié au processus d’échantillonnage.
    – tu peux aller plus vite sur certains points car le niveau que tu demandes est déjà un peu élevé.

    Commentaire par Glubb — décembre 14, 2012 @ 1:17

    • Pour les redites, c’est simplement parce que je n’ai pas le temps de faire de l’édition. C’est une seule prise avec les défauts que ça a. J’essaie de faire une vidéo par semaine et je ne vais passer le week-end à éditer – éditer est excessivement long. C’est le principe de départ et je suis le premier à vouloir que ce soit beaucoup mieux que ça.

      A propos de ce que je dis vers 17′ sur le T. Non, je persiste, ça n’est pas la fréquence d’échantillonnage, mais la durée pendant laquelle le signal reste constant à la valeur (qui est un multiple de la période échantillonnage). Le T est variable avec la pente du signal, mais la valeur RMS n’en dépend pas – c’est pourquoi le calcul est possible. Mais j’admets que dire qu’il n’a aucun rapport avec Fs est un peu exagéré : c’est un multiple de 1/fs. C’était délibéré pour éviter justement la confusion (et j’ai loupé mon coup).

      Il peut y avoir un bruit de sur-échantillonnage si l’interpolateur n’est pas suffisamment bon (il est nul pour le passe bas parfait). Néanmoins, ce bruit n’arrive qu’une fois (il sera le même quelque soit le taux, car le signal interpolé est le même) et est réduit dans les mêmes proportions quand on augmente le taux. L’étude des interpolateurs nécessiterait une vidéo au moins aussi longue pour juste voir la base. Malgré tout, on peut avoir des versions quasiment aussi proches que l’on veut de l’idéal quand c’est fait dans le domaine numérique, tout dépend du nombre de coefficients pour le quasi-brickwall.

      Le Vmax au début (si c’est bien ce que j’ai compris) est le signal maximum disponible. Il n’y a pas de contrainte sur le type de signal et le plus important disponible est un signal continu pleine échelle (qui est égal à sa valeur RMS par définition). C’est aussi le Vmax modulé par la valeur binaire dans le DAC (au signe près, ce qui ne change rien en soi). Ou alors, je n’ai pas compris la remarque.

      Je suis dans un pur domaine digital donc il n’y a pas de confusion possible. Que le signal numérisé ait du bruit ou non n’a aucune importance, ça fait partie du signal d’origine et je n’ai pas parlé du processus de quantification, je ne parle que de nombres stockés.

      J’avoue que j’improvise complètement de début à la fin, ce qui n’exclue pas les redondances et un mauvais équilibre du contenu. J’essaie de faire au mieux, mais j’ai fait mon choix : je préfère donner plus de vidéo quitte à ce qu’elles soient brutes plutôt que d’en diffuser moins. C’est le principe que j’ai choisi à priori. Ce qui serait plus gênant, c’est que je me contredise. Et là, il ne faut pas hésiter une seconde à me mettre face à la connerie que j’aurais dite.

      Jipi.

      Commentaire par jipihorn — décembre 22, 2012 @ 6:31

  6. Un rapport de l’AES daté de 2007, démontre qu’il n’y a aucune différence à l’écoute entre les supports haute définition (SACD, DVD) et le classique CD, seule la production permet de trancher et de faire la différence. Le bruit numérique se fera timidement entendre qu’en chambre sourde.
    http://chaud7.forumactif.fr/t159-l-aes-a-lache-une-bombe
    Pour ceux qui ont la chance de posséder l’article de l’AES, on comprend pourquoi le SACD est devenu un échec commercial. Et à la vue de tous les test ABX, la polémique sur le bruit numérique n’a plus lieu d’être en 2012… Mais bon, il y’a toujours des insatisfaits, des as de la masturbation intellectuelle, qui refusent d’admettre que le mieux est souvent l’ennemi du bien quand on pousse une technologie dans ses derniers retranchements. A ce moment là autant passer à autre chose, pourquoi pas un système de lecture quantique…
    http://chaud7.forumactif.fr/t5-post-it-annuaire-des-tests-abx

    Commentaire par FRANCIS LIBRE — décembre 19, 2012 @ 8:03

  7. Bonjour,

    1°) « Le Vmax au début (si c’est bien ce que j’ai compris) est le signal maximum disponible. Il n’y a pas de contrainte sur le type de signal et le plus important disponible est un signal continu pleine échelle (qui est égal à sa valeur RMS par définition). C’est aussi le Vmax modulé par la valeur binaire dans le DAC (au signe près, ce qui ne change rien en soi). Ou alors, je n’ai pas compris la remarque. »
    Tu n’as pas compris la remarque : il s’agit simplement de la convention d’utilisation de Vmax. La notation : « Xmax » est pratiquement toujours réservée pour les phénomènes périodiques (X étant une amplitude en volts, mètres, joules…). La valeur max d’une variable V qui évolue de façon non périodique est bcp plus souvent notée : max(V)… Il n’ya rien de faux dans ce que tu as écrit.

    2°) Le pb au sujet de la fréquence d’échantillonnage à 17′ : ce que tu as dessiné au tableau est très ambigüe : le graphique du haut ne peut pas être mis en relation directe avec celui du bas… il faudrait supprimer les traits verticaux qui relient tes deux graphiques… on est à la limite d’une confusion entre échantillonnage et quantification.

    3°) En ce qui concerne tes vidéos : tu ne sembles pas bien à l’aise, tu présentes les choses comme lors d’un cours magistral, mais malheureusement ça passe pas : tu es nerveux, pointilleux sur certains points et pas sur d’autres, un peu brouillon… Ca rejoint ce que j’avais dit au sujet de la réponse à une vidéo au sein d’une autre vidéo.
    On te sens très sur la défensive, avec le désir non d’expliquer mais de rallier à une cause…

    Quant à la possibilité d’expliquer quelque chose grâce à un cours magistral, à fortiori en vidéo, à mon avis c’est peine perdue… c’est vrai que tu fais plus un genre d’ED / TP, mais là non plus ça colle pas : il faut interagir avec celui auquel on explique, c’est pas le cas ici.

    Commentaire par Glubb — décembre 29, 2012 @ 9:47

  8. J’ajoute à propos de cette histoire de T et de fréquence d’échantillonnage, que ce que tu as fait au tableau est vraiment contradictoire du fait des traits pointillés verticaux d’un part et de la remarque en rouge « rien à voir avec Fs échantillonnage ». Par contre effectivement et comme tu l’as écrit : T=k/Fs avec k entier.
    Il faudrait refaire la vidéo et corriger ce point.

    Commentaire par Glubb — décembre 30, 2012 @ 4:11

  9. En cherchant bien j’ai trouvé une synthèse du test ABx effectué par L’A.E.S comparant le CD standard aux supports haute résolution:

    Cliquer pour accéder à audible.pdf

    Commentaire par FRANCIS LIBRE — juillet 28, 2013 @ 11:04

  10. Bonjour Jipihorn. Merci pour tes vidéos.
    Celle-ci m’a laissé perplexe sur le point du suréchantillonnage. J’ai donc fait le test avec une sinusoïde de 30 Hz générée directement en numérique.
    J’ai mesuré le bruit défini par « la différence entre le signal de référence (représenté ici par un fichier 16 bits) et le fichier 8 bits ». J’ai fait cette mesure pour un fichier 8 bits 11025 Hz (fichier de référence converti en 8 bits, puis reconverti en 16 bits), et pour un fichier de 8 bits rééchantillonné 4 fois. J’obtiens exactement la même chose avec et sans suréchantillonnage. Le bruit est bien conforme au diagramme que tu présentes au début, avec un signal triangulaire interrompu de temps en temps un demi-tour. Dans les deux cas, l’extraction du bruit donne ce même signal, avec la même amplitude et le même spectre. Le bruit reste coupé à 5000 Hz, même après suréchantillonnage de 11025 à 44100 Hz sur le fichier 8 bits. D’ailleurs, on voit le ringing du passe-bas sur le fichier rééchantillonné, et ce même ringing est du coup reporté sur le bruit.
    Par contre, si j’échantillonne directement la sinusoïde à 44100 Hz, le bruit du fichier 8 bits a un spectre plus large (et pas de ringing visible à 5000 Hz), mais l’amplitude est exactement la même. Du coup, la puissance totale du bruit est plus grande qu’à 11025 Hz.
    Je ne constate donc pas du tout ce que tu indiques pour le changement de spectre du bruit lors d’un suréchantillonnage. A mon avis, c’est faux. Rééchantillonner de modifie pas le spectre du bruit.
    Mais peut-être qu’on ne parle pas du même « bruit ». Pour moi, le bruit est la différence entre le signal codé par le fichier numérique et une référence ayant servi à créer ce fichier (signal analogique, fonction mathématique, etc…). Sommes-nous d’accord sur ce point ?

    Commentaire par Pio2001 — octobre 12, 2014 @ 8:35

  11. Ça n’est pas dans ce sens la que ça se passe – cela voudrait-dire qu’on retrouve de l’information qui n’existe pas.

    L’opération consiste à acquérir le signal d’origine à une fréquence d’échantillonnage supérieure.

    Après un filtrage passe bas digital ou analogique, son rapport S/N est amélioré par gommage du bruit hors bande. A aucun moment, on part d’un signal normal dont on voudrait essayer de trouver de l’information cachée via un sur-échantillonnage, et a aucun moment la fréquence échantillonnage ne change. Quand on fait du 1 bit, on ne revient jamais à 44.1Kz.

    C’est vrai que le titre amène à confusion en parlant de CD parce que, bien sur, on ne peut pas retrouver l’information perdue du CD due à la quantification. Par contre, si le CD était échantillonné à 4 ou 8x 44.1Kz, puis filtré pour laisser passer que 22.5K (comme un CD normal) , il aura un meilleur rapport S/N alors qu’il reste sur 16 bits. Je parlais du sur-échantillonnage comme autre moyen d’avoir du SNR quand on n’a pas moyen d’avoir plus de précision en bit.

    J.

    Commentaire par jipihorn — octobre 12, 2014 @ 9:22

  12. Merci pour ta réponse rapide 🙂
    Il y a donc bien une erreur dans la vidéo : à partir de 44:00, tu explique comment suréchantillonner « après coup » un CD, en insérant des zéros, et tu en conclus que ce procédé permet de rejeter une partie de la puissance du bruit en dehors de la bande utile.
    Pour la dilution du bruit, j’ai pu en effet obtenir un certain résultat (si je filtre le fichier-bruit de 44100 Hz à 5000 Hz, j’obtiens une amplitude RMS 0.9 dB plus faible que celle du fichier-bruit de 11025 Hz) De plus, je ne suis pas du tout au point pour tout ce qui est mesures RMS et amplitude du spectre en fonction de la fréquence d’échantillonnage et de la taille de la fenêtre FFT. Je te fais donc confiance.

    Commentaire par Pio2001 — octobre 12, 2014 @ 10:25

    • J’ai répondu un trop vite hier (juste avant d’aller me coucher), ce qui fait que à la fois la vidéo et ce que j’ai écrit son justes, mais dans leur contexte séparé.

      La subtilité ici est que l’on crée un nouveau flux binaire sur-échantillonné, filtré par un interpolateur et éventuellement envoyé à un DAC, via un filtre passe bas d’antialiasing qui coupe à la fréquence d’origine. C’est ce que je décrit dans la vidéo, et c’est ce qui est utilisé dans les Dacs interpolateurs. Tu ne peux pas comparer les fichiers binaires comme ça, tu trouveras toujours le même type d’erreur (c’est ce que je dis dans mon message précédent, tu ne crées pas d’information entre les pas de quantization sur les données seules). C’est en sortie de chaine globale (par exemple sortie de DAC) que tu verras un S/B meilleur.

      Je me rends compte que c’est incroyablement plus difficile à expliquer qu’à comprendre car selon la manière dont on manipule les données, c’est illogique (comme ta manipulation de fichier) ou « évident » (quand on est dans une chaine numérique complète CD-sortie de DAC). Cette amélioration de S/R n’a lieu que dans un chaine complète, pas dans une analyse partielle des données.

      Y pas mal d’infos sur les DACs interpolateurs qui montrent le principe : http://www.analog.com/static/imported-files/tutorials/MT-017.pdf par exemple.

      Si tu veux vraiment tester le principe, il te faudrait un flux numérique (comme tu as fait), le passer dans des filtres interpolateurs et mesurer en sortie de DAC cadencé aux bonnes fréquences. Regarder les fichier au niveau pure erreur à chaque échantillon ne dira rien, elle a toujours la même taille (+/- 0.5 LSB). Mais quand on manipule plus d’échantillons (avec de la redondance), on a statistiquement quelque chose de complètement différent. La clé est dans le filtre interpolateur; c’est lui qui rend le truc possible. Il n’est jamais idéal (en sin(x)/x) en pratique, mais il faut bien comprendre qu’il interpole en tenant compte (théoriquement) de tous les points qui ont déjà eu lieu (tout dépend du filtre, certains ont une latence et utilisent des échantillons avant/après, ça ne change pas le principe) et non pas seulement les deux qui encadrent le point recherché.

      Pour comprendre pourquoi le bruit diminue, imagine deux situations où on interpole 4x deux point séparés de 1lsb tout en gardant le même nombre de bits.

      Selon les points utilisés pour l’interpolation, les 3 valeurs créées ne sont pas forcément identiques dans les deux cas.

      on peut avoir d’un coté
      n, n+1,n+1,n+1,n+1
      et
      n,n,n,n,n+1
      de l’autre.

      Tout dépend des points qui ont servi à l’interpolation. On voit bien que ce flux, en sortie de Dac, après filtrage antialiasing sortira deux choses différentes car ce filtrage (passe bas) « moyennera » ce flux et électriquement, le premier cas aura un niveau un peu plus élevé que le second. On aura créé électriquement quelque chose qui sera entre deux bits (dans le domaine analogique). Poussé à l’extrême, c’est le principe du PWM ou du Delta Sigma sur 1 bit. Si on voulait le voir dans le domaine numérique pur, il faudrait un filtre interpolateur avec une précision supérieure au flux (certains Dacs le font). Ici, on aura des valeurs intermédiaires de précision inférieure au LSB d’origine.

      C’est la clé pour le fonctionnement des Dacs 1 bit et du noise shaping. Si c’était faux, ces Dacs se retrouveraient avec un S/B de 6 dB indépendamment de la fréquence de travail !

      Un phénomène similaire peut se trouver dans les planchers de bruit des FFT dans un analyseur de spectre par exemple. Pour un même signal, plus le nombre de points est grand (pour une durée donnée, donc Fs croissant), plus il est bas, car chaque point contient une contribution du bruit inférieure; le bruit étant dilué sur plus d’échantillons. Et si on ne prend qu’une partie du spectre, on a globalement un bruit inférieur. C’est valable en numérique et analogique (c’est le « process gain »).

      J.

      Commentaire par jipihorn — octobre 13, 2014 @ 8:29

  13. J’ai beaucoup apprécié l’explication mathématique concernant la dynamique de 96 db du CD et l’impact du bruit numérique. Pourriez-vous faire une présentation semblable pour expliquer la reconstruction du signal analogique à partir des données numériques du bon vieux CD. Comment une fréquence de 20 KHz (près de la moitié de celle d’échantillonnage de 44,1 Khz) peut-elle être reconstituée en sinusoïde pure et en amplitude d’autant plus qu’il n’y a que 2 ou 3 échantillons numériques pour reconstituer cette sinusoïde.

    Merci!

    Louis Boiteau

    Commentaire par Louis Boiteau — décembre 4, 2014 @ 7:57

  14. Dans ma question j’avais oublié comment la phase du signal analogique peut-elle être reconstituée?

    Louis Boiteau

    Commentaire par Louis Boiteau — décembre 5, 2014 @ 5:01

  15. Pour info, voici l’exposé sur le bruit numérique en pdf:

    Cliquer pour accéder à ENSI2.TS.S5.pdf

    En théorie, la dynamique du cd n’est pas de 96dB mais 84dB (bon, oui, c’est chipoter), car 2 Bits sont alloués à l’identification des pistes, ce qui nous fait 14 bits pour le signal audio.
    On peut donc obtenir, au maximum, 14 x (2×3) = 84 dB.
    En théorie… Oui, car il serait intéressant de savoir à partir de quel niveau un petit signal commence à être dégradé par le bruit de quantification, ou plus exactement: le bruit de quantification est-il responsable de la détérioration des petits signaux? (cf, extrait de piano enregistré à -60dB dans sur un cd de la NRDS qui faisait « foi » pour qualifier la qualité des convertisseurs des lecteurs cd parmi les innombrables tests subjectifs réalisés par cette revue mythique, heureusement disparue aujourd’hui).

    Commentaire par FRANCIS LIBRE — septembre 9, 2015 @ 11:26

    • Bonjour ! Il y a erreur, le CD utilise bien 16 bits pour coder la valeur des échantillons. La confusion peut venir des tout premiers convertisseurs audio, qui, paraît-il, travaillaient sur 14 bits au lieu de 16 (info à vérifier), ou du fait que sur la piste d’un CD, les 8 premiers bits sont transcodés en un mot de 14 bits, et les 8 suivants en un second mot de 14 bits. On peut vérifier sur la norme ECMA-130, qui est une version gratuite et allégée du Red Book, la norme CD audio, ou faire soi-même l’expérience de préparer des données sur 16 bits, de les graver sur CD audio, de lire le CD, d’enregistrer le flux numérique S/Pdif sur une carte son en mode bit-exact, et de vérifier qu’on a bien récupéré les valeurs originales au bit près.

      Commentaire par Pio2001 — septembre 9, 2015 @ 7:53

  16. Merci pour ce rectificatif et la citation de la norme ECMA-130.
    En ce qui concerne le noise shaping, quelques précisions sont apportées ici:
    https://fr.wikipedia.org/wiki/Dither_(audio)
    D’après Bob Katz, la quantification peut induire de la distorsion d’intermodulation à cause du repliement d’harmoniques dues à cette quantification dans le domaine audible, d’où l’utilisation du noise shaping (rajouter du bruit au bruit, comme l’a expliqué jipi, afin de le faire tomber (le bruit, pas Jipi) sur le plancher des vaches et ainsi annuler ce phénomène de repliement). Le mieux étant l’ennemi du bien, je suppose qu’il doit y avoir des limites imposées par cette technique.
    D’autre par, l’upsampling est largement utilisé dans les lecteurs cd qui contiennent des DAC 32bits/192KHz, par exemple, dans quel but? Car le fichier d’origine 16/44KHz ne peut guère donner plus que ce qu’il contient? Est-ce pour limiter les rotations de phases à partir de 2KHz du classique 16/44 et ajouter de la « précision » dans l’aigu? Et enfin sans doute pour limiter le phénomène de repliement et augmenter la plage dynamique. Pourtant, la majorité des enregistrements contiennent des harmoniques qui ne dépassent pas les 15KHz…
    Existe t-il des test d’écoute en ABx comparant le 16/44 au modèles suréchantillonnés qui prouve la supériorité de ces derniers?
    D’autre par, j’ai remarqué que les lecteurs pro (Tascam, Marantz pro, Denon pro…) ne semblent pas être upsamplés ou utiliser le noise shaping…
    Même topo en ce qui concerne la production de cd remasterisés en 24/96. Quel intérêt? Car le pressage est toujours en format 16/44. D’ailleurs j’ai pu vérifier en écoutant des albums « blue note » édités dans les années 90 et les mêmes en import japonais 24/96: je n’ai constaté AUCUNE différence à l’écoute au casque entre les deux versions, si différence il y a, c’est que le mixage a été refait.
    Enfin, la dématérialisation subit également les mêmes phénomènes de mode en commercialisant la HD:
    http://www.bhmag.fr/tests-dossiers/scandale-fichiers-audios-haute-definition-13193

    Commentaire par FRANCIS LIBRE — septembre 10, 2015 @ 11:18

  17. …Exemple, sur ce modèle de lecteur cd pro:

    Cliquer pour accéder à 20121203_dn500c_lit_final.pdf

    Rien indique que ce modèle est upsamplé et utilise le noise shaping dans la lecture des formats cd. La plage dynamique est bien dans les 96dB théoriques.
    La qualité du convertisseur, du système de corrections d’erreurs et de filtrage, la qualité de l’étage analogique ne sont ils pas plus importants que la course à celui qui aura la plus grosse?
    Et voici un tableau de fréquences et des harmoniques de divers instruments:

    Commentaire par FRANCIS LIBRE — septembre 10, 2015 @ 12:52

  18. Attention à Bob Katz et ses connivences avec le milieu audiophile. Il convient de lire ses commentaires avec prudence.
    Quand aux écrêtages observés sur des cd, ceux-ci proviennent d’une production négligée et non pas du format cd lui-même. C’est la guerre du volume que se livrent les maisons de productions, guerre destinée à satisfaire une clientèle de plus en plus avide de sensations et créer ainsi des générations de sourds prématurés, déjà abrutis par les médias (comme ça, ils ferment leur gueule et de toute façon, ils ont la baraque et la bagnole à payer…). Alors on ramène tous les instruments vers le 0 dBfs quitte à écrêter certains passages dans le résultat final. La dynamique de ces productions d’excède guère les 10dB. Heureusement, cela ne concerne que la « musique » bruyante, pop rock ect… Le jazz et le classique restent relativement épargnés, mais dans ce cas, on observe des excès d’un autre genre: satisfaire une clientèle « d’élites » qui cherche à se démarquer de la norme considérée comme dégradante. Avez-vous vu fleurir les SACD et autres SHMCD? Remarquez le grand retour du vinyle qui est une vaste entreprise d’escroquerie, puisque les pressages d’albums anciens sont réalisés à partir de masters numériques voir repiqués à partir du cd de référence!

    Commentaire par FRANCIS LIBRE — septembre 10, 2015 @ 3:49

  19. Bon, un lecteur cd non upsamplé a bien une dynamique théorique de 98 dB.
    Mais dans ce cas, le test du piano enregistré à -60 dB a t-il une signification?
    Peux t-on réellement mettre en évidence le phénomène de repliement lors d’une écoute?
    Merci d’apporter une réponse claire à ce sujet.

    Commentaire par FRANCIS LIBRE — septembre 11, 2015 @ 5:20

    • Bonjour Francis Libre,
      Il y a dû y avoir une erreur de transcription ou de traduction quelque part dans le texte de Bob Katz, à moins qu’il n’ait formulé sa phrase de façon très imprécise : la quantification (sur 16 bits) rajoute du bruit, tandis que l’échantillonnage (sur 44100 Hz), produit du repliement. Ce sont deux choses différentes. Il aurait dû écrire la « numérisation » provoque repliement, distorsions etc.

      Ta remarque sur l’upsampling est juste : le CD étant à l’origine à 44100 Hz, 16 bits, on ne peut pas en extraire davantage. On distingue ici le suréchantillonnage « oversampling », qui est une technique interne aux convertisseurs et permettant de réaliser un excellent filtrage anti-repliement (= antialiasing = passe-bas), et la conversion de fréquence d’échantillonnage « upsampling », dont on se demande à quoi elle peut servir. Il faut se rappeler qu’au début des années 2000, l’upsampling était considéré comme un défaut, et non une qualité. A mon avis, c’est d’abord une solution pour réduire les coûts : les puces audio dédiées aux cartes son et lecteurs multimédia réalisent un upsampling dans le but de faire du mixage. Si les fabricants de lecteur de CD se contentent de prendre une carte son multimédia et de la visser dans une boîte, ils obtiennent un lecteur de CD facile à concevoir, mais cela a pour effet secondaire que l’électronique fait de l’upsampling. Au lieu de reconfigurer le système pour qu’il ne fasse pas d’upsampling, on ne touche à rien et on communique au public en faisant croire que c’est une qualité que la concurrence ne propose pas !

      S’il existe des tests ABX qui prouvent que le 44.1 kHz 16 bits n’est pas parfait ? Disons qu’ils sont anecdotiques. Si on utilise un casque fermé et qu’on monte le son à fond, on peut discerner le bruit de quantification de 16 bits brut. Mais si le CD a bénéficié de dithering, cela devient très difficile. Et le bruit 16 bits sans dither est déjà plus faible que le bruit de fond d’un microphone professionnel. Quant à la fréquence, il est pratiquement impossible de réussir un ABX entre deux fichiers numériques haute résolution, l’un d’eux ayant été converti en 44.1 kHz et reconverti en haute résolution. Certains parviennent à réussir l’ABX entre un fichier 44.1 kHz 16 bits et une copie de ce fichier réalisée à travers un lecteur de CD et une carte son qui renumérise le résultat en 44.1 kHz 16 bits à nouveau. A l’univrsité de Dortmund, 80 auditeurs ont tenté le test du son haute résolution contre résolution CD. Un seul a réussi. Enfin, l’étude la plus citée est celle d’Ooashi, avec les encéphalogrammes. Elle prétend avoir réussi, mais comporte des incohérences (les effets mesurés sont décalés de 30 secondes par rapport aux signaux présentés !), ainsi qu’un conflit d’intérêt, puisqu’elle a été sponsorisée par Pioneer pour promouvoir son super-tweeter.

      Concernant l’intérêt de CD remasterisés en 24/96, la question est double. Pourquoi remasteriser en 24/96 ? C’est simple, pour éviter que les erreurs d’arrondi propres au 16/44 ne se cumulent au fil des opérations et ne finissent par devenir audibles. Pourquoi remasteriser ? Ca c’est un autre débat. Quand un enregistrement est bon, il est inutile de le remasteriser, le numérique ne se dégrade pas avec le temps. Pire : en repartant de bandes magnétiques analogiques, qui vieillissent très mal, on obtient un résultat inférieur à la copie originale de ces mêmes bandes sur CD réalisée des années plus tôt. C’est le cas pour Tangerine Dream, flagrant sur les deux CD de l’album Ricochet. La bande était fichue quand le second CD a été enregistré, alors que le premier CD est bon. Si par contre, c’est pour recompresser la dynamique à mort, en mettant au passage les aigus à fond, c’est un gâchis complet. On se demande parfois si ce ne sont pas les ingénieurs de l’époque qui, avec l’âge, sont devenus sourds comme des pots, et mettent aujourd’hui les aigus à fond pour retrouver le son dont ils se rappellent. Certains remasters sont tout de même du bon travail. Un dépoussièrage léger et soigneux pour rééquilibrer les fréquences et les canaux gauche et droits, ou les fondus, comme sur les SACD de Depeche Mode, par exemple.

      Tu parles de course au volume pour les musiques bruyantes… si seulement le celtique pouvait être épargné ! C’est un style musical qui en souffre énormément, et qui n’en a surtout pas besoin.

      Le test du piano à -60 db n’a rien de particulier si on ne part pas du principe que la qualité doit être identique une fois qu’on remonte le son, ce qui est évidemment impossible. Il permet d’entendre le bruit de quantification. Reste à savoir s’il a été produit avec ou sans dither, et quel type de noise shaping a été utilisé si dither il y avait. Cela change beaucoup le bruit audible.

      Pour mettre en évidence de façon audible le repliement (et l’écrêtage aussi), il existe un fichier audio de test très particulier (et très dangereux pour le matériel !) appelé « udial » (chercher udial.ape hydrogenaudio). Le moindre repliement provoque de violentes distorsions sur ce signal, qui est en fait une sinusoïde modulée de 20000 Hz jouée à pleine puissance. Attention, plus d’un tweeter a déjà été détruit par ce signal. Le plus sage est de ne le jouer qu’au casque, ou alors, avec des enceintes, il faut impérativement régler le son à un volume modéré, et ne surtout pas le monter pour jouer le fichier.
      Le plus difficile est finalement de trouver un lecteur de CD ou une carte son ayant du repliement. Dans la grande majorité des cas, il n’y a aucun repliement, donc rien à entendre.

      Commentaire par Pio2001 — septembre 11, 2015 @ 11:27

  20. Merci pour ta réponse claire et précise Pio.
    Conclusion:
    Les lecteurs cd vendus dans le grand public sont ils simplement upsamplés sans oversampling?
    Les lecteurs pros possèdent ils systématiquement des convertisseurs antiliaising, raison pour laquelle ils ne sont pas upsamplés?
    Voici quelques liens déjà cités, concernant la guerre du volume:

    Cliquer pour accéder à LA_GUERRE_DU_VOLUME_Alexis_WOLFF_-_2010_.pdf

    Cliquer pour accéder à LA_GUERRE_DU_VOLUME-SEBASTIEN_PABLO.pdf

    Commentaire par FRANCIS LIBRE — septembre 12, 2015 @ 10:09

  21. Et ici le principe de fonctionnement du convertisseur numérique/analogique Delta Sigma:

    Cliquer pour accéder à cours_convertisseurs.pdf

    Je suppose que la plupart des lecteurs en sont équipés.

    Commentaire par FRANCIS LIBRE — septembre 13, 2015 @ 6:02

  22. Difficile de se repérer dans la jungle du numérique, alors voici une rétrospective du monde de l’audio contemporain sans bombardement de formules mathématiques, mais cependant bien documentée par des courbes et diagrammes explicites. On y apprend par exemple, sans se torturer les neurones, pourquoi le jitter est un mythe en haute fidélité. Dommage que le premier paragraphe ne soit pas accessible:
    http://www.yamahaproaudio.com/europe/fr/training_support/selftraining/audio_quality/
    La démat? Oui, il faut vivre avec son temps. Indispensable dans une collectivité, un réseau entreprises, ou un studio d’enregistrement, mais est-elle nécessaire dans une installation hifi domestique? C’est une question qui mérite d’être posée et comme dirait Chaud7: « Il faut renouveler en permanence le superflu! ». C’est un peu comme de nombreux audiophiles qui tentent de faire fonctionner un système à pavillons dans une salle de séjour de quelques mètres cubes traités au pifomètre…
    Enfin une séance d’écoutes réalisées par des amateurs de tests ABx (une catégorie hélas sous représentée dans le monde de l’audio). Ici il s’agit de tester des DAC: http://www.homecinema-fr.com/forum/general-haute-fidelite/kangourou-abx-6-21-11-dac-oh-dac-t29924787.html
    Le matériel chinois, malgré les préjugés proférés par les intégristes s’en sort très bien… Seule le fiabilité n’est pas toujours au rendez-vous.
    Le « péril jaune » a le don d’exaspérer l’audiophile qui n’a que des argument subjectifs à apporter sur le matériel fabriqué par des petites mains chinoises:
    http://forums.melaudia.net/showthread.php?tid=4912
    Et on comprend cette attitude, car qui est le plus ridicule dans cette affaire? Celui qui achète une « contrefaçon » chinoise d’un ampli Krell qui peut fort bien se révéler très bon sur le banc de mesures, ou celui qui en son temps a acheté du Krell made in US à 10000 euros?

    Commentaire par FRANCIS LIBRE — septembre 23, 2015 @ 8:21

  23. Bonjour jipi,
    Merci pour vos videos, qui sont très instructives.
    Concernant les ouvrages de références je vois que nous sommes à peu près en phase.
    Je vouilais apporter deux indications/contradictions concernant deux points :
    – Sur le jitter (une autre de vos vidéos) : je ne sais s’il s’agissait d’un raccourci destiné aux spectateurs, mais non les PLLs ne suppriment pas le jitter (et heureusement), mais ils peuvent l’atténuer dans de plus ou moins grandes proportions.
    – la dynamique au-dela de 96 db grace au surechantillonnage. J’en ai tout d’abord perdu mon latin, puis failli l’accepter, avant de voir (pour ce qu’il me semble) l’erreur.
    En fait, vous dites que le bruit est divisé pour aller pour moitie (cas 2*Fs) entre 0 et Fs/2,et une autre moitié entre Fs/2 et Fs. ce qui est tout à fait vrai.
    Malheureusement, le signal utile en fait tout autant, et donc le rapport signal/bruit (numérique) reste malheureusement le même.
    L’avantage du sur echantillonnage est que le filtrage analogique de sortie se fait avec des filtres plus doux, puisque la fréquence de coupure peut s’etaler entre 20k et 44kHz environ, alors que sans , la coupure se fait entre 20 et 22kHz.

    Cordialement, et bonne continuation

    Thierry Nivon

    Commentaire par thierry nivon — janvier 3, 2016 @ 10:35


RSS feed for comments on this post. TrackBack URI

Laisser un commentaire

Propulsé par WordPress.com.