Hallo zusammen,
ich habe eine andere Sicht auf den
Jitter. Als erstes die Definition gemäß
Wikipedia:
Als Jitter (engl. für ‚Fluktuation‘ oder ‚Schwankung‘) bezeichnet man das zeitliche Taktzittern bei der Übertragung von Digitalsignalen, eine leichte Genauigkeitsschwankung im Übertragungstakt (engl.: Clock).
Dirk argumentiert mit dem Puffer. Ist der Puffer groß genug gleicht sich das wieder aus, da der DAC (oder die Masterclock) neu reclocked.
Nun folgen meine
Thesen.
Das Problem ist, dass die Musik zeitkritisch ist. Die Daten müssen irgendwann aus dem Speicher, sonst gehen Datenpakete verloren und man hört dann zum Beispiel die oft geschilderten Knackser. Also Schallplatte mal digital.
Hier kommt eine für mich weitere wichtige Komponente ins Spiel: die
Latenzen. Die relevanten Latenzen sind jedoch nicht die Audiolatenzen, sondern die
Latenzen auf OS-/Prozessebene!
Störende Latenzen liegen im Datenstrom und in der Datenverarbeitung begründet. Beim Rendern von Audiosignalen (z. B. von Flac in PCM oder DSD) und der Übertragung dieser Daten entstehen Latenzen. Sie ergeben sich aus der von der Soft- und Hardware benötigten Zeit, die Daten zu verarbeiten. Bei der Datenübertragung spielen zudem der Sample-Puffer (engl. Buffer) eine Rolle, die bei Audiokarten üblicherweise im Bereich zwischen 64 und 512 Samples liegen, um ein Abreißen des Datenstroms zu verhindern. Und natürlich muss auch das Übertragungsprotokoll RAAT von der CPU codiert werden.
Während die Latenz eine feste Zeit zwischen Aktion und Reaktion definiert, beschreibt Jitter die Schwankungen innerhalb dieser Zeit. Je kürzer ich die Latenzen halte, desto geringer können die Taktschwankungen ausfallen. Und genau das sind meine Erfahrungen. Egal wo ich die Latenzen optimiert habe (USB-Puffer, Ethernet-Puffer, latenzminimierte Solarflare NIC, etc.) gab es eine Klangverbesserung.
Es gibt also einen Zusammenhang zwischen
Jitter und Latenzen.
Es bleibt noch die Frage offen, warum das
Reclocking etwas bringt, obwohl der DAC die Signale aus dem Puffer neu taktet. Ich kann hier nur vermuten. Wenn die Zuspielung möglichst
taktgenau, jitterminimiert mit geringsten Latenzen erfolgt hat die DAC-Clock einfach weniger Arbeit. Der DAC-Puffer wird nicht übermäßig voll und kann zeitnah abgearbeitet werden. Aufgrund der hohen Taktgenauigkeit sind die (kleineren) Datenpakete in der richtigen Reihenfolge sofort verfügbar.
Wie auch immer. Es muss nicht richtig sein, was ich schreibe. Nur weil etwas (noch nicht) wissenschaftlich fundiert erklärt werden kann, muss das Gehörte nicht falsch sein. Dieses Problem haben wir bei Kabel(klang) ja auch.
Grüße Gabriel