Warum sind -135dB hörbar?

Player, Streamer, Wandler, Vorverstärker usw.
Antworten
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Warum sind -135dB hörbar?

Beitrag von Ralf Koschnicke »

Hallo zusammen,

das klingt zunächst einmal ziemlich verrückt, es geht aber auch nicht um direktes Hören von Signalen mit diesem Pegel. Die Frage spielt zugegeben eher in der Signalverarbeitung eine Rolle. Das Thema spielt aber auch bei digitaler Lautstärkereglung, SRC oder noch komplexeren Operationen bei Hifi eine Rolle. Es geht darum, wann und warum Rechengenauigkeit hörbar ist. Ich setze Hoffnung in die geballte Fachkompetenz hier im Forum und vielleicht hat jemand eine Idee. Nun die Beschreibung dessen was ich meine:

An verschiedenen Stellen, wenn ich kangliche Unterschiede über die Rechengenauigkeit versuche gegenzuchecken, finde ich Differenzsignale von unter -135dB (Differenzbildung über phasengedrehtes Addieren auf Sampleebene). Nun kann man wohl kaum behaupten, dass -135dB hörbar sind. Dennoch können beide Ursprungssignale, aus denen die Differenz gebildet wird, deutlich unterschiedlich klingen. Kann ich so direkt nicht erklären...

Ein Ansatz könnte folgender sein: Das gemessene Differenzsignal sagt ja nur aus, dass jeder Abtastwert ein bestimmtes Maß neben dem Sollwert liegt. Ich kann leider nicht am rekonstruierten Signal mit nötiger Genauigkeit messen und die Samples sind ja noch nicht das anhörbare Analogsignal. Das Differenzsignal ist auch kein gleichmäßig verteiltes Rauschen, sondern i.d.R. ist das Musiksignal mindestens noch rhythmisch zu erkennen. Man hat also einen Fehler, der mit dem Signal korreliert ist. Weiß jemand, ob so etwas bei der Rekonstruktion zu Verzerrungsprodukten o.ä. mit höherem Pegel führen kann? Sprich, dass sich bei der Interpolation bei der DA-Wandlung diese Fehler aufsummieren? Irgendwas in der Richtung müsste es denke ich sein.

Noch ein konkretes Beispiel: Das ganze zeigt sich z.B. beim Vergleich diverser digitaler Softwaremischer. Hier ist es im Prinzip auch relativ breiter Konsens, dass jede Software anders klingt. Ein Test zum Anhören ist folgender: Man nehme 10-mal das gleiche Signal genau samplesynchron parallel, senke jedes um 20dB und addiere alle wieder. Dann erhält man mathematisch genau das Ursprungssignal. Hier kann man dann jedoch einen Unterschied zwischen Original und per Mischung erzeugter Variante hören. Differenz ca. -135dB.

Auch interessant ist folgender Test: Es wird 5-mal ein Signal mit 5-mal dem phasengedrehten addiert. Hier müsste sich eigentlich alles gegenseitig bis aufs letzte Bit auslöschen. Man findet jedoch wieder eine Differenz in ähnlicher Größenordnung. Das hier hat mich völlig verblüfft. Denn mit einem und dem dazu phasengedrehten Signal gibt es die hundertprozentige Auslöschung. Und dann bei nur 5-mal so vielen Signalen, gibt es selbst bei 32Bit-Fließkomma Rundungsfehler.

Eine Software hatte ich, die mit 64Bit-Fließkomma rechnete. Da löschten sich auch die fünf Signale vollständig aus. Interessanterweise war das dann auch die Mischung, die beim ersten Test mit den 10 Additionen bei -20dB klang wie das Original.

Sind nun alles interessante Beobachtungen und daraus folgere ich, dass Digital nochmal ordentlich zulegen kann, wenn wir in ein paar wenigen Jahren mal durchgängig 64Bit-Fließkomma arbeiten. Nur bei den Fehlern unter -135dB würde doch niemand an hörbare Differenzen denken???

Viele Grüße
Ralf
Fortepianus
Aktiver Hersteller
Beiträge: 3692
Registriert: 17.12.2008, 12:41
Wohnort: Stuttgart

Beitrag von Fortepianus »

Hallo Ralf,

interessante Beobachtungen, die Du da machst. Sie erinnern mich daran, dass ich ebenfalls Unterschiede bei verschiedenen ASRC-Chips ausgemacht habe, deren Fehler rein rechnerisch in ebenfalls der jenseits von -130dB-Region liegen. Erklärung habe ich aber auch noch keine.

Viele Grüße
Gert
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Danke Gert,

hat zumindest etwas beruhigendes, dass wir nun schon zu zweit sind :wink:

Grüße
Ralf
play-mate
Aktiver Hörer
Beiträge: 448
Registriert: 26.02.2010, 08:18
Wohnort: Berlin

Beitrag von play-mate »

Hallo Ralf,

Zu deinen Beobachtungen : sind wir hier im absolut digitalen Bereich ?
-oder kommt eine Wandlung dazwischen ?


Gesehen mit den Unzulänglichkeiten von Interpolation, ist die Aufgabe : analoge Signale in digitale Werte umzusetzen, relativ einfacher als aus digitalen Werten wieder analoge Signale zu machen....

Immerhin denke ich dass du schon Fließkomma und Dither -Ungenauigkeiten einkalkuliert hast.
Hmmmm ?

Gruß leif
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Hallo Leif,

naja, das Konsequenteste bei aller Digitaltechnik wäre ja, wenn wir uns einen BNC-Stecker hinterm Ohr implantieren lassen würden. :wink: Aber wenn ich von hörbar spreche, spreche ich von nach DA-Wandlung. Alles andere sind reine Rechenoperationen auf digitaler Ebene.

Aber die Rückfrage ist sehr gut nachzuvollziehen, weil es vermutlich erstmal schwer zu verstehen ist. Der eine Test mit der zehnfachen Addition ist doch eigentlich eine sehr, sehr simple Aufgabe für eine Rechenmaschine; insbesondere im Vergleich zu einer realen Musikmischung. 20dB Absenkung sind in 32Bit Fließkomma eigentlich keine echte Herausforderung und nur 10 Signale zu addieren sollte auch banal sein. Umso überraschter war ich, dass sich diese 10er Mischung deutlich schlechter als das Original anhörte.

Übrigens wird das Resultat mit steigender Abtastrate immer besser. Das Diiferenzsignal wird auch messbar immer kleiner; im Umfang von weniger als 5/6dB Veränderung zwischen schlechtestem (44,1kHz) und bestem (354,8kHz) Signal. Wie gesagt, bis zum Anhören alles digitale Rechenoperationen ausgehend von ein und demselben Originalsignal. Die Qualität des Testsignals muss natürlich sehr gut sein, will man nicht nur messen sondern auch hören. Die Qualität der AD-Wandlung ist ansonsten aber raus aus dem Vergleich.

Viele Grüße
Ralf
JoeBroesel
inaktiv
Beiträge: 570
Registriert: 17.01.2008, 21:24
Wohnort: Rosenheim

Beitrag von JoeBroesel »

Hi,

die Erklärung könnte z.B. sein, daß DA und AD-Wandler nach bestimmten Prinzipien funktionieren. An irgendeiner Stelle wird z.B. in letzter Instanz immer abgerundet, etwa beim letzten Bit, bei anderen Realisierungen gibt es andere Muster. Das kann man dann evtl. auch hören, und ist am leichtesten im Rauschen in Mustern erkennbar. (Nenne ich mal Muster-Rauschen) Dem echten Rauschen (nenne ich mal Wärme-Rauschen) ist dann etwas überlagert, mit einer ungleichmäßigen Verteilung, das man dann raushören kann (z.B. bestimmtes Quantisierungsrauschen).

Um das Muster-Rauschen wieder in ein Wärme-Rauschen zu verwandeln, wird Dither (= künstliches Rauschen) hinzugefügt. Damit gehen alle systematischen Muster-Rauschen dann unter.

Gut beschrieben finde ich das im Buch "Mastering Audio" von Bob Katz, auf den Seiten 52-60.
(Ich habe mal Bob Katz eine E-Mail geschrieben, und er hat mir sogar ausführlichst geantwortet)

Rainer.
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4663
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Ralf Koschnicke hat geschrieben:Ein Test zum Anhören ist folgender: Man nehme 10-mal das gleiche Signal genau samplesynchron parallel, senke jedes um 20dB und addiere alle wieder. Dann erhält man mathematisch genau das Ursprungssignal.
Hallo Ralf,

es zeigt sich hier schön, wie leicht man daneben liegen kann. Klar ist ja, dass die Absenkung 20 dB ist, also einem Abschwächen um genau den Faktor 10 entspricht. Und laut Mathematik sind gilt nun
x/10 * 10 = x/10 + x/10 + x/10 + x/10 +x/10 + x/10 + x/10 + x/10 + x/10 + x/10 = x

Tja, nun ist das aber in der Digitaltechnik mit Lücken behaftet. Grund: die Darstellung von unendlichen Zahlen mit endlichen Anzahlen von Bits. Zumeist wird heute noch im Musikbereich (z.B. Plugins, ASIO ...) mit 32 bits = single float precision gearbeitet.

Schaun wir doch mal nach. Ein Beispielprogramm liefert da für ein 16-Bit-Signal, welches "zufällig" das niederwertigste Bit angeknipst hat, die normierte Gleitkommazahl 1/32768. Ausgabe mit 18 Nchkommastellen:
1/32768 = 0.000030517578125000
Nun 1/32768/10 gerechnet und 10 mal addiert ergibt jedoch 0.000030517581762979

Das ist in diesem Beispiel ein Unterschied von -228 dB. Aber es ist ein Unterschied. Weiterhin ist auch festzustellen, dass die Reihenfolge von Berechnungen eine Rolle spielt. Speziell dann, wenn man dabei intern an irgendwelche Bereichsgrenzen kommt. Also ob man z.B. zwei Zahlen miteinander multipliziert und dann dividiert oder zuerst dividiert und dann multipliziert. Da gilt das Kommutativgesetz nicht mehr.

Dies ist der Grund, weshalb ich bei Acourate grundsätzlich mit 64 bit double float rechne und in einigen besonderen Abschnitten auch mit 128 bit extended float. Einfach, um zu vermeiden, dass sich im Laufe vieler tausend Berechnungen kleinste Fehler aufsummieren und dann, wie von Dir beanstandet, hörbar werden.

Also: bei der Wiedergabe reichen 16 bit oder besser 24 bit allemal. Bei der Be-/Verarbeitung der Signale im Studio (oder auch beim online-Falten :D ) kann die Auflösung nicht hoch genug sein.

Grüsse, Uli
Bild
Fortepianus
Aktiver Hersteller
Beiträge: 3692
Registriert: 17.12.2008, 12:41
Wohnort: Stuttgart

Beitrag von Fortepianus »

Hallo Uli,
uli.brueggemann hat geschrieben:Das ist in diesem Beispiel ein Unterschied von -228 dB. Aber es ist ein Unterschied. Weiterhin ist auch festzustellen, dass die Reihenfolge von Berechnungen eine Rolle spielt. Speziell dann, wenn man dabei intern an irgendwelche Bereichsgrenzen kommt. Also ob man z.B. zwei Zahlen miteinander multipliziert und dann dividiert oder zuerst dividiert und dann multipliziert. Da gilt das Kommutativgesetz nicht mehr.
ja, ich glaube auch, dass da der Hund begraben liegt. Mein Schwiegervater, Autor unzähliger Mathebücher, führt auch immer gerne vor, wie groß die Rundungsfehler bei einem Taschenrechner werden können, wenn man die richtige Reihenfolge bei einer Rechnung nicht beachtet. Das Problem bei Operationen im Digitalbereich ist ja, dass bereits eine einfache Multiplikation zweier Zahlen mit gleicher Stellenzahl diese verdoppelt, wenn das Ergebnis korrekt sein soll. Da kommt ganz schön was an erforderlicher Rechengenauigkeit zusammen, wenn man komplexere Operationen durchführt.

Viele Grüße
Gert
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Hallo Uli,

besten Dank, dass Du Dich hier einklinkst. Nun das verblüffende ist ja noch nicht einmal, dass Rundungsfehler auftreten. Gefühlsmäßig hätte ich bei diesen einfachen Operationen nur nicht damit gerechnet, weil gemeinhin 32Bit float als so wahnsinnig gut hingestellt wird. Als ich das festgestellt habe, dachte ich gleich an Dich, weil ich irgenwann mal abgespeichert hatte, dass Du mit viel höheren Quantisierungen arbeitest. Somit überrascht Dich meine Schilderung gar nicht, klar. Wobei die beschriebenen Operationen ja viel, viel simpler sind als das was Du machst.

Die spannende Frage ist jedoch nicht, warum die Rundungsfehler auftreten, sondern warum die hörbar sind. Wenn Du schon so lange diese sehr hohen Auflösungen benutzt, gehst Du ja auch von Notwendigkeit aus. Du hast Dich doch bestimmt einmal gefragt, warum diese geringen Rechenfehler hörbar sind, oder?
An verdammt vielen Orten wird nämlich von Unhörbarkeit ausgegangen. Du bist da eher eine löbliche Ausnahme.

Grüße
Ralf
uli.brueggemann
Aktiver Hersteller
Beiträge: 4663
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Hallo Ralf,

ich zähle mich zu der Gruppe von Leuten, die erst einmal annehmen, dass es richtig ist, wenn einer berichtet was er hört. Speziell wenn dann auch noch viele berichten. Ich stell das also nicht unmittelbar in Abrede.

Aber ich will dann eben auch wissen, warum. Und dann sollte es messbar sein. Wenn man es aber nicht messen kann, heisst das nicht unbedingt, dass man falsch gehört hat. Man muss eben auch seine Mess- und Bewertungsmethoden überprüfen. Und vielleicht bewirken ja nun gerade die Begrenzungen der Rechenmethode wiederum Effekte, die denn doch das Hörergebnis beeinflussen.

Beispiel: Mit Dithering spielen wir ja auch am kleinsten Bit herum, es hat trotzdem hörbare Einflüsse. Dazu gibt es ja auch Nachweise und Begründungen. Was wäre nun, wenn das kleinste Bit nun signalabhängig als Klirrkomponente auftritt?

Insofern finde ich auch die Arbeit von Cheever interessant, siehe auch http://www.aktives-hoeren.de/viewtopic. ... 045#p34045

Grüsse, Uli
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Danke Uli,

da sind wir doch ganz beieinander. :D Ich werde mir das Paper mal vornehmen. Besten Dank!

Auch das Thema Dither muss ich mir nochmal im Detail vornehmen. Aus der Praxis kenne ich die Notwendigkeit nur zu gut. Der Ansatz ist bestimmt vielversprechend. Hier geht es ja um das Erzeugen einer Dekorrelation ... das klingt zugegeben nach Parallelen ...

Viele Grüße
Ralf
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Hallo zusammen,

nun am Wochenende habe ich etwas Zeit gefunden, das von Uli freundlicherweise erwähnte PDF zumindest mal quer zu lesen und auch sonst noch etwas zu recherchieren. Jedes Detail im PDF anzuschauen war mir jedoch zu komplex, zumal der Artikel ja doch in einen ganz anderen Bereich zielt. Ich versuche mal eine knappe Zusammenfassung, soweit ich es hoffentlich richtig verstanden habe:

Herr Cheever geht von der Situation aus, dass manch messtechnisch schlechter Verstärker dennoch gut klingt, manchmal jedoch auch genau umgekehrt. Deshalb sucht er einen anderen bzw. weiter gefassten Begriff als den üblichen Klirrfaktor für die Beschreibung von nichtlinearen Verzerrungen. Die These: Das Ohr reagiert unterschiedlich auf unterschiedliche Arten von Verzerrungen, weil eine bestimmte Art und Weise von Verzerrungen für das Ohr normal ist - weil auch von ihm selbst produziert - und es deshalb dafür unempfindlicher ist als für andere "fremd" klingende. Herr Cheever schlägt dann noch ein Messverfahren vor.

Auf der anderen Seite findet man im Netz viel über Quantisierungsfehler und auch deren Vermeidung per Dither. Auch liest man sehr häufig über die durch Quantisierungsfehler erzeugten nichtlinearen Verzerrungen und wie schädlich diese sind. Es wird erstaunlich einstimmig angemahnt, diese tunlichst zu vermeiden. Erstaunlich deshalb, weil man doch schon bei den 16Bit der CD ja eigentlich hätte mit Unhörbarkeit argumentieren können (in welchem Wohnraum kann ich -90dB hören?) und dennoch wurde eine richtige Wissenschaft daraus gemacht, möglichst viel aus den 16Bit heraus zu holen (auch Thema Noiseshaping). Nur eine präzise Quantifizierung ist anscheinend schwierig. Einziger konkreter Fund war eine Tabelle mit Quantisierungsfehler und zugehörigem Klirrfaktor. Bei Pegeln im genannten Bereich (-135dB) kämen wir da allerdings auch schon in Bereiche mit 2-3 Stellen hinter dem Komma. Es sei jedoch daran erinnert, dass der Klirrfaktor dann nur von den Quantisierungsstufen abhängt und nicht vom Signalpegel, d.h. der Klirrfaktor gerade bei kleinen Pegeln im Verhältnis groß wird; somit genau anders herum als bei Analogtechnik und das ist für die Signalform Musik womöglich besonders kritisch.

Genau an der Stelle kommen dann vielleicht die Überlegungen von Cheever ins Spiel. Also ich messe bei dem zu Beginn genannten Beispiel nichts anderes als einen Quantisierungsfehler. Ob der bei der AD-Wandlung entstanden ist oder später bei der Kalkulation, ist erst mal egal. Quantisierungsfehler erzeugen nichtlineare Verzerrungen. Allgemein erkannt ist die Notwendigkeit zur Vermeidung solcher. Bei der genauen Bewertung von Messergebnissen hat man wohl aber generell das gleiche Problem, das Cheever bei Verstärkermessungen mit seinem Messverfahren umgehen möchte: Welcher Klirrfaktor wie starke akustische Auswirkungen hat, wissen wir nicht wirklich.

D.h. höchstwahrscheinlich kommen wir in dieser Frage nicht weiter. Allerhöchstens kann man vielleicht mitnehmen, dass ein Differenzsignal in dieser Größenordnung, d.h. ein Quantisierungsfehler von -135dB zu einem Klirrfaktor führt der sonst nicht unbedingt als unbedenklich eingestuft wird. Schon zu rein analogen Zeiten war die Bewertung von Klirrfaktor schwierig. Wir erinnern uns an den großen Klirrfaktor von Röhren, der aber wegen der harmonischen Obertonstruktur i.d.R. weitaus weniger störend war als manch super geringer Transistorklirr.

Alles in allem kann man zwar wohl nicht zwingend davon ausgehen, dass solche Werte vernachlässigbar sind, weil man -135dB nicht hört. Nur kann man leider nichts Genaues sagen ... irgendwie recht unbefriedigend ... wäre eigentlich mal ein schönes Forschungsgebiet. Zumal ja offenbar doch viele feststellen, dass extreme Rechengenauigkeit ein relevantes Thema ist, siehe beispielsweise Ulis Acourate mit 64 bzw. 128Bit.

Viele Grüße
Ralf
Antworten