Jitter, Clocks und Netzteile vor Glasfaserstrecken

chriss0212

Jitter, Clocks und Netzteile vor Glasfaserstrecken

Beitrag von chriss0212 »

Moin

Zuerst einmal: ich möchte absolut nicht in Frage stellen, dass es klangliche Unterschiede gibt... aber wenn ich es mir irgendwie zumindest in einem mini Ansatz erklären könnte würde es mir helfen selber daran zu glauben und mich dem Thema mehr zu öffnen.

In letzter Zeit nutzen ja viele die 10G und 11G Netzwerkstrecken. Das dies durch galvanische Trennung zu Vorteilen im Klang führen kann, kann ich mir im Ansatz noch erklären. Aber wie ein Netzteil oder Jitter VOR der LWL Strecke bei einer Paketorientierten Datenübertragung noch Einfluß auf den Klang nehmen kann... ich habe da tatsächlich noch nicht einmal einen Ansatz einer Erklärung.

Es ist sogar noch schlimmer... eigentlich widerspricht es dem, was ich bisher in der digitalen Datenübertragung meine verstanden zu haben...

Wäre wirklich dankbar, wenn es hier Hinweise gäbe, die mir einfach helfen hier offen an das Thema heran zu gehen. :cheers:

Danke und viele Grüße

Christian
StreamFidelity
Aktiver Händler
Beiträge: 1599
Registriert: 24.09.2017, 14:50
Wohnort: Hansestadt Rostock
Kontaktdaten:

Grundlegender Unterschied zwischen analog und digital

Beitrag von StreamFidelity »

Hallo Christian,

ich hatte an anderer Stelle etwas zitiert:
StreamFidelity hat geschrieben: 15.07.2020, 19:33 Nur warum soll eine Kaskadierung den Klang verbessern? Einen interessanten Erklärungsansatz habe ich im whatsbestforum gefunden. Da schreibt Blackmorec (übersetzt) im Thread Netzwerkverbesserungen und ihre Auswirkungen auf die Klangqualität:
Bei der HiFi-Wiedergabe gibt es einen grundlegenden Unterschied zwischen analog und digital. Analog beginnen Sie mit der Aufnahme und alles, was stromabwärts geschieht. Die Addition (von Rauschen) oder Verlust (von Detail oder Auflösung), kann nicht vom ursprünglichen Signal unterschieden werden und wird daher zusammen mit dem Signal abgespielt. Wenn Sie also mit der ursprünglichen Leistung bei 100% beginnen, verlieren Sie Details und Auflösung und fügen bei jedem Schritt des Weges zur endgültigen Wiedergabe Rauschen hinzu. Sie beginnen also mit 100% und enden möglicherweise mit etwa 50%. Alles, was Sie durch ein Upgrade Ihres Systems tun können, ist, Verluste an Komponenten und Kabeln zu minimieren, sodass Sie anstelle von 50% beispielsweise 60% erhalten.

Digital ist anders. Während das eigentliche Signal analog ist (Spannungen), ist das Format des Signals digital. Alles, was im analogen Bereich hinzugefügt wird, kann angepasst oder entfernt werden. Entlang der digitalen Audiokette kann analoges HF-Rauschen eingeführt werden und es können Zeitsteuerungsfehler (Jitter) auftreten, die Phasenrauschen verursachen. Solange jedoch das digitale Format erhalten bleibt, können wir Kästchen in der Kette hinzufügen, um die analoge Seite des Kabels zu "überholen". Rauschen kann unterschieden und entfernt werden, Signale können neu synthetisiert und Jitter- und Phasenrauschen entfernt werden usw.

...Der Switch verwendet das digitale Format dieses Signals, um die Gleichstromversorgung des Switch zu modulieren und ein neues analoges Signal nach demselben digitalen Format zu erstellen. Je sauberer das am Schalter ankommende Signal ist, desto genauer kann es den Gleichstrom in ein neues Signal umwandeln. Wenn Sie Switches kaskadieren, übergeben Sie dem nächsten Switch im Wesentlichen eine sauberere Vorlage, die für die Synthese verwendet werden soll.

Der Unterschied zwischen analog und digital besteht also im Wesentlichen darin, dass Sie in Analog Downstream-Verluste minimieren können, während Sie in Digital viele Upstream-Verluste korrigieren sowie Downstream-Verluste minimieren UND weiter korrigieren können.

Die Schlussfolgerung, die ich aus dem oben Gesagten ziehen würde ist, dass mit einer hohen Wahrscheinlichkeit ein exzellentes digitales Ergebnis ein exzellentes analoges Ergebnis übertrifft, basierend auf unserer Fähigkeit, Fehler zu korrigieren und die Perfektion sowohl von Upstream- als auch Downstream-Signalen wiederherzustellen.
Im wesentlichen geht es bei digital um die Rekonstruktion in analog, wobei das Jitter- und Phasenrauschen eine große Rolle spielt. Ob das nun "die Erklärung" ist weiß ich nicht. Den gedanklichen Ansatz, dass bei digital die Chance auf eine 100% Rekonstruktion besteht, welches bei analog im Grunde genommen so gut wie ausgeschlossen ist, finde ich interessant.

Grüße Gabriel
Bild
chriss0212

Beitrag von chriss0212 »

Hallo Gabriel

Leider gibt mir das wenig Erklärung auf die Fragestellung.

Abgesehen davon, würde ich die Schlussfolgerung schon arg bezweifeln, da jedem natürlichen Signal ein Analoges Signal zu grunde liegt, welches erst einmal digitalisiert werden muss ;)

Also weiterhin fragende Grüße

Christian
bastelixx
Aktiver Hörer
Beiträge: 297
Registriert: 08.11.2015, 17:31

Beitrag von bastelixx »

Hallo Christian,

ich beantworte für mich solche Fragen mit empirischen Versuchen. Ich kann auf meinem Multimedia-PC die Daten von der Festplatte abspielen oder die gestreamte Musik aus dem Netz durch PC durchschleifen und über die Anlage hören. Ich habe keine hörbare Unterschiede mit dem Netzwerkkabel und ohne feststellen können. Somit ist für mich die Frage beantwortet. Alles Anderes ist für mich nur hochstilisierte theoretische Spinnerei. Oder vielleicht meine Ohren sind zu schlecht. :mrgreen:

Gruß
Stanislaw
Bild
Fujak
Moderator
Beiträge: 5752
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Christian,

Deine Frage ist mehr als berechtigt aber ebenso wenig in letzter Konsequenz zu beantworten. Grundsätzlich helfen (zumindest mir) zwei Dinge dabei:

1. Jedes Digitalsignal wird auf analoge Weise übertragen, nämlich in Form einer Rechteck-Kurve. Das hilft zu verstehen, dass digital nicht fehlerfrei bedeutet. Ob diese analog übertragene Rechteckkurve mit ihren Maximal- und Minimal-Spannungswerten einen Datenstrom oder Datenpakete überträgt, ist dabei erst einmal unerheblich. Datenpakete suggerieren, dass innerhalb jedes Pakets der Inhalt frischeversiegelt und damit haltbar sei. Wie im wirklichen Leben kann sowohl der Inhalt als auch die Form "verbeult" sein - sprich: die Rechteckkurve wäre dann stark deformiert.
Denn dass eine Rechteckkurve tatsächlich eine Rechteckkurve ist, kann man getrost als Märchen betrachten. Zum einen weist die "Rechteckkurve" eine ziemlich unregelmäßige Linienführung auf, zum anderen handelt es ist es durch die Auf- und Abstiegsflanken in Wirklichkeit um ein Trapez - rechte Winkel sind also Fehlanzeige. Idealtypisch aber nennen wir es halt trotzdem Rechteckkurve. ;-)

Damit komme ich zu Punkt 2.

2. Solange Rechteckkurven in der digitalen Domain bleiben, gibt's keine Probleme. Ich gehe dabei von hinreichenden Datenintegrität bei der Übertragung aus (in unserem Fall nennen wir das bitgenau). Die Probleme fangen an, wo uns die Daten zu Gehör gebracht werden sollen. Dazu müssen die trapezförmigen Rechteckkurven mit ihren Schaltzuständen von 0/1 vom D/A-Wandler ausgelesen werden und in analoge Spannungswerte übersetzt werden - und zwar Spannungswerte, die zu einem bestimmten Zeitpunkt vorherrschen müssen, damit wir dies als das Frequenzgemisch wahrnehmen können, welches wir Musik nennen.
Interpretiert wird die Rechteckkurve an ihren Auf- und Abstiegsflanken. Auf dem Weg von 0 zu I durchläuft das Rechtecksignal im Zeitverlauf beliebig viele Durchgangspunkte, ab der das Signal noch als 0 oder bereits schon als I vom D/A-Wandler interpretiert werden könnte. Je steiler die Flanke, desto kürzer die zeitliche Strecke, und damit desto geringer die möglichen Zeitfehler.
Auch ein Datenpaket kann dadurch zu früh oder zu spät geöffnet/decodiert werden und der darin enthaltene Inhalt kann bei der Decodierung ebenfalls Zeitfehler zugefügt bekommen und dadurch das Musiksignal verfälschen: ein Frequenzgemisch eines Instrumentes wird angereichert durch analoge Frequenzen, die da nicht hingehören, andere werden wiederum verschluckt. Wir nennen das in der analogen Domäne Artefakte. Nach meiner Erfahrung addieren sich in der digitalen Domain Zeitfehler, sodass jede digitale Komponente in einer Kette ihre Fehler dazugibt, egal ob es sich um eine Netzwerk-Komponente, ein Datenspeicher oder auch um eine Software-Komponente (man denke an Klangunterschiede zwischen Minimserver und dem Synology-Musikserver) handelt. Eine galvanische Trennung übrigens sorgt lediglich dafür, dass nicht noch weitere Deformationen durch Stromphänomene hinzugefügt werden, die bereits bestehenden Deformationen werden aber auch über LWL von Komponente zu Komponente weitergereicht und addieren sich (leider).

Eine saubere Clock sorgt dafür, dass die trapezförmigen Rechteckkurven möglichst idealtypisch (insbes. die Flanken mit kurzen An- Abstiegszeiten) geformt werden. In den G-Mods über die LWL-Konverter hat Gert sehr schön über das Oszilloskop gezeigt, wie eine bessere Clock, die Rechteckkurve vor allem an den Flanken sauberer "zeichnet".
In einer Netzwerk-Topologie: Je näher die beste Clock in der Kette am D/A-Wandler sitzt, desto mehr kann ausgebügelt werden, weil das Signal nicht mehr durch weitere Komponenten beeinträchtigt werden kann (gerade wenn man über I²S in den D/A-Wandler geht, sollte die letzte Clock pieksauber sein, weil sich der D/A-Wandlungsprozess darauf referenziert).
Unglücklicherweise aber vermag die "letzte Clock" nicht alles auszubügeln, was vorher schon deformiert wurde. Insofern lohnt es sich, auch in vorangehenden Komponenten, die Clocks zu optimieren. Der Effekt ist nur nicht ganz so deutlich.

Manches habe ich sehr verkürzt dargestellt. Aber in den Grundzügen ist es das theoretische Gerüst, welches in der Praxis für mich eine gute Landkarte zur Orientierung darstellt. Ich hoffe, dass sie auch Dir ein wenig weiterhilft.

Grüße
Fujak

P.S. @bastelixx: Du hast auf eine Frage geantwortet, die hier nicht gestellt wurde. Die Frage lautete nicht, ob man Unterschiede hört oder nicht (Deine Antwort: Du hörst keine Unterschiede), sondern der Themenersteller möchte ausgehend von der Tatsache, dass er klangliche Unterschiede anerkennt, eine plausible Erklärung dazu.
Bild
beltane
Aktiver Hörer
Beiträge: 3164
Registriert: 14.11.2012, 09:58
Wohnort: Hannover und Göttingen

Beitrag von beltane »

Hallo Christian,

ergänzend zu den sehr ausführlichen Erklärungsansätzen von Fujak könnte vielleicht auch das Whitepaper von Uptone Audio helfen, das über einen Link auf der Website des Etherregen zu finden ist:

https://uptoneaudio.com/products/etherregen

Dort nach unten scrollen bis zum Link.

Oder diesen Link nutzen:

https://cdn.shopify.com/s/files/1/0660/ ... 1583429386

Viele Grüße

Frank
Bild
SolidCore
Aktiver Hersteller
Beiträge: 1863
Registriert: 12.12.2014, 10:38
Wohnort: NRW / Moers

Netzteile

Beitrag von SolidCore »

Hallo zusammen

Alle Antworten waren sehr gut. Aber war die Kernfrage nicht der Einfluss der Netzteile ?

Ich nehme Fujaks aufgezeigtes Rechtecksignal nochmal auf, welches fast nie wie im Idealfall aussieht.
Die LWL-Strecke überträgt es so, wie es davor generiert wird. LWL hat keine Reparatur-Funktion.

Nun vereinfache ich es mal:
Zuerst muss man sich vom Gedanke befreien, jedes Gerät leitet ein Signal ganz simpel unverfälscht weiter.

Jeder Switch, Reclocker, Datenwandler und Schnittstelle werden einfach umso genauer in ihrer Arbeit,
je besser ihre eigene Versorgung, sprich ihr Netzteil, sind. Je mehr Schmutz das Netzteil mitbringt,
umso eher und stärker verformt sich das Rechtecksignal vom Ideal weg. Selbst ein Reclocker oder ein Ether-Regen
kann ab einem bestimmten Punkt nicht mehr 100% das Idealsignal generieren. Und ist selbst immer noch
abhängig von seinem Netzteil. Somit lohnt es auch in vielen Fällen, diese auszutauschen.
Das tauschen der internen Clocks, und optimieren der inneren Spannung, unterstützen diesen Prozess,
ersetzen ihn aber nicht vollständig.

Zu guter letzt dann die Brücke zum Klang. Je mehr das Rechtecksignal sich dem Ideal nähert, umso sauberer
und richtiger klingt es auch.

Gruß
Stephan
Bild
chriss0212

Beitrag von chriss0212 »

Vielen Dank für Eure Antworten.

Was ein digitales und was ein analoges Signal ist, ist mir so weit alles klar. Aber die Frage ist ja, wie kann es bei einer Paketorientierten Übertragung die dann noch per ein LWL komplett getrennt ist ein Netzteil auf der Senderseite einen Unterschied machen.

Ein Ansatz, der mir gerade einfällt: wir sind uns ja einig: auf der Empfängerseite ist die clock und die Qualität des Signals sehr wichtig... da es eine Paketorientierte Übertragung ist ... muß da nicht der Sender ab und an zum Empfänger werden, um quasi das Handshaking zu organisieren? Ist aber nur stochern im Nebel. ;)

Grüße

Christian
StreamFidelity
Aktiver Händler
Beiträge: 1599
Registriert: 24.09.2017, 14:50
Wohnort: Hansestadt Rostock
Kontaktdaten:

Beitrag von StreamFidelity »

Hallo Christian,
chriss0212 hat geschrieben: 04.08.2020, 00:15 wir sind uns ja einig: auf der Empfängerseite ist die clock und die Qualität des Signals sehr wichtig...
Sind wir uns da einig? Wie kommt es dann bei mir zur Klangsteigerung, wenn sich die gute Sellarz-Clock im Sender (11GTek) befindet und im Empfänger (10GTek PCIe-Karte) nur eine "normale" 25MHz Clock?

Grüße Gabriel
Bild
Fujak
Moderator
Beiträge: 5752
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Christian,

zunächst: besseres Netzteil gleich saubereres Clocksignal, also präzisere Umschaltpunkte, die für die D/A-Wandlung dem DAC mitgeteilt werden. Die Clock im senderseitigen LWL-Modul wird für die Umsetzung des drahtgebundenen Ethernetsignals in das LWL-Signal benötigt, denn egal ob stream- oder paketorientierte Datenübertragung, beides braucht einen Takt. Wenn bereits auf der Senderseite der Header und die eigentlichen Nutzdaten eines Datenpakets über einen präziseren Takt auf der Empfängerseite angeliefert werden, dann addieren sich auf der Empfängerseite weniger Fehler. Denn auch bei einer besseren Clock auf der Empfängerseite, schlagen die Fehler der Senderseite dennoch zu einem gewissen Prozentsatz durch (es handelt sich ja nicht um ein Reclocking im eigentlichen Sinne). Insofern ist die Beobachtung von Gabriel (und anderen) nachvollziehbar, dass auch die Senderseite von einer besseren Clock und/oder einem besseren Netzteil profitiert.

Wenn ich allerdings nur ein Modul mit Linearnetzteil oder besserer Clock optimiert habe, würde ich es auf der Empfängerseite einsetzen, weil die empfängerseitige Clock bei der Umsetzung von LWL auf Ethernet in den meisten Setups größeren Einfluss auf den anschließenden Zuspieler / Streamer und die nachfolgende D/A-Wandlung ausübt.

Grüße
Fujak
Bild
matia100
Aktiver Hörer
Beiträge: 565
Registriert: 03.09.2011, 01:08
Wohnort: Dresden

Beitrag von matia100 »

Hallo zusammen,
Fujak hat geschrieben:Wenn ich allerdings nur ein Modul mit Linearnetzteil oder besserer Clock optimiert habe, würde ich es auf der Empfängerseite einsetzen
Das entspricht auch genau meiner Erfahrung: Die beste Clock so nah und direkt wie möglich an das Endgerät bringen.
Clockaufbesserungen auf der Strecke davor tragen auch dazu bei, aber am Ende ist deren Wirksamkeit am größten.

Maßnahmen wie LPS oder Modifikation von Clocks mit besserem Phasenrauschen führen in der Regel in ihrer Gesamtheit zu geringerem Noise auf der Übertragungsstrecke und damit auch zu einer besseren Rekonstruktion des Signals. Nach meiner Beobachtung kann ein galvanisches Abtrennen der Strecke die vorgelagerten Stufen aber nahezu unhörbar machen. Danach allerdings folgt ohnehin immer eine Neukonstruktion des Signals. Wie gut das Signal im WLAN-Empfänger oder LWL-SFP-Modul im Switch wiederhergestellt wird ist dabei verschieden.

Es wird oft der Begriff der "paketorientierten Übertragung" eingesetzt und damit insinuiert alles sei fehlerfrei. Das muß hinterfragt werden: Ein Audiostream wird realtime wiedergegeben (was weg ist ist weg !), es gibt unterschiedliche Protokolle, Stichwort UDP im Unterschied zu TCP. Was wird im Endgerät wie benutzt? Wer hat dazu in den technischen Daten seines Streamers schon mal was gefunden?

Audiophile gehen empirisch vor, meist durch try & error. Deshalb kam hierfür die Idee eines Reclocking durch Kaskadierung von Switcheinheiten auf. Waren die am Ende der Strecke und wurden mit dezidiert reclockenden Switches durchgeführt (bspw. EtherRegen mit externer Referenz) konnten Verbesserungen gehört werden. Welche der Maßnahmen ist ursächlich aber welcher Methodik zuzuschreiben?

Viele Grüße
Matthias
Bild
Dilbert
Aktiver Hörer
Beiträge: 253
Registriert: 01.02.2013, 16:28

Beitrag von Dilbert »

Hallo

zumindest bei Deiner Frage nach UDP und TCP kann ich Dir Antworten: Ist in der Regel TCP und damit paketorientiert.
Solltest auch vielleicht den Ansatz von FUJAK hinterfragen, daß sich Jitter aufaddiert, dann müsste beim Streamen nur noch ein völlig verjittertes Signal ankommen, bei den vielen Routern, die dazwischen liegen, und die haben alle viel Jitter weil werden nicht von audiophilen Netzteilen versorgt :-).

Grüsse

Frank
Bild
matia100
Aktiver Hörer
Beiträge: 565
Registriert: 03.09.2011, 01:08
Wohnort: Dresden

Beitrag von matia100 »

Hallo Frank,

bin nicht sicher ob wir uns richtig verstanden haben:
Dilbert hat geschrieben: Ist in der Regel TCP und damit paketorientiert.
Würde gern mehr wissen wollen was Du mit "in der Regel" alles einschließt und woraus sich das für Dich erschließt. Ich nannte einen Audiostream, nehmen wir mal beispielhaft einen Radiostream, der im Format AAC oder MP3 verteilt wird. Ist das TCP oder UDP? Woran erkenne ich das?

http://www-i4.informatik.rwth-aachen.de ... CP_UDP.pdf
Dilbert hat geschrieben:Solltest auch vielleicht den Ansatz von FUJAK hinterfragen, daß sich Jitter aufaddiert,
Hier reden nun wirklich aneinander vorbei.
Für mich hat Fujak richtig darauf hingewiesen, daß sich in einer Übertragungsstrecke Entjitterungsmaßnahmen (und auf die kommt es an, nicht auf deren Gegenteil) additiv verhalten können. Die Kaskadierung einzelner Maßnahmen kann zu mehr Verbesserung führen.

Grüße
Matthias
Bild
Dilbert
Aktiver Hörer
Beiträge: 253
Registriert: 01.02.2013, 16:28

Beitrag von Dilbert »

Hallo

also OK, Audio-Streaming Dienste (Spotiy, Tidal, Quobuz) genau wie Radio-Streams werden über http oder https übertragen und sind nicht realtime, und http oder https ist immer TCP. Da TCP eine Fehlerkorrektur beinhaltet werden fehlerhafte Pakete eben nochmal gesendet. Zu Fehlern kommt es erst, wenn die Bandbreite so gering wird oder soviele Pakete wiederholt gesendet werden müssen, so daß der Puffer leerläuft, dann gibt es Unterbrechungen.

UDP wird bei real-time-Streaming z.B. VOIP oder dem jetzt so beliebten Skype oder Teams verwendet. UDP kennt keine Fehlerbehandlung und wenn z.B. aufgrund von Bandbreitenproblemen der Stream nicht mehr "in-time" ankommt, kommt es zu hörbaren Fehlern. Jeder der häufiger in Telefon- oder Videokonferenzen ist, hat diese Effekte bestimmt schon mal gehört, wenn die Stimme erste zerhackt ankommt, plötzlich ganz abbricht, wie mit einem WaWa-Effekt verzerrt wird oder ähnliche Artefakte.

Ich bezog mich auf die Aussage on FUJAK (Hervorhebung durch mich)
Auch ein Datenpaket kann dadurch zu früh oder zu spät geöffnet/decodiert werden und der darin enthaltene Inhalt kann bei der Decodierung ebenfalls Zeitfehler zugefügt bekommen und dadurch das Musiksignal verfälschen: ein Frequenzgemisch eines Instrumentes wird angereichert durch analoge Frequenzen, die da nicht hingehören, andere werden wiederum verschluckt. Wir nennen das in der analogen Domäne Artefakte. Nach meiner Erfahrung addieren sich in der digitalen Domain Zeitfehler, sodass jede digitale Komponente in einer Kette ihre Fehler dazugibt, egal ob es sich um eine Netzwerk-Komponente, ein Datenspeicher oder auch um eine Software-Komponente (man denke an Klangunterschiede zwischen Minimserver und dem Synology-Musikserver) handelt. Eine galvanische Trennung übrigens sorgt lediglich dafür, dass nicht noch weitere Deformationen durch Stromphänomene hinzugefügt werden, die bereits bestehenden Deformationen werden aber auch über LWL von Komponente zu Komponente weitergereicht und addieren sich (leider).
Grüsse

Frank
Bild
Fujak
Moderator
Beiträge: 5752
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Frank,

den Begriff "addieren" bitte nicht streng mathematisch verstehen. Dann käme am Ende tatsächlich nur noch audiophiles Kauderwelsch an. Stattdessen bitte in folgendem Sinne verstehen: Wenn man nahe der D/A-Wandlung beste Stromversorgung und beste Clocks einsetzt und das Klangbild dadurch deutlich an Präzision gewinnt, hört man dennoch deutlich heraus, ob eine weiter entfernt liegende Netzwerk-Komponente weniger oder mehr Jitter aufweist. Insofern fügt jede Netzwerk-Komponente im heimischen Netzwerk mehr oder weniger stark ihren "jitter-Anteil" hinzu.

Wir hatten das Phänomen vor vielen Jahren bereits ausführlich erörtert, als es um meine Experimente mit der Kaskadierung mehrerer Reclocker (MC-3+ von Mutec) ging. Bei jedem weiteren Reclocking eines bereits vorher reclockten Signals hörte man weitere Verbesserungen.

Grüße
Fujak
Bild
Antworten