Klangliche Unterschiede von Audioplayern

Fujak
Moderator
Beiträge: 5753
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Uli,
uli.brueggemann hat geschrieben:Fujak berichtet ja trotz seiner Fireface über unterschiedlichen Klang je nach Playersoftware.
... und - um noch eines draufzusetzen - trotz vorgeschalteter asynchroner USB-SPDIF-Anbindung, und trotz nachfolgendem Reclocking, bevor das Signal in den DAC gelangt.

Man hört Unterschiede, die es nach den meisten hier geäußerten Erklärungsansätzen nicht geben dürfte:
Auch in einer Fireface steckt ein DSP. Theoretisch sollte damit die Karte immun sein gegenüber der Wahl eines Audioplayers (vorausgesetzt, der spielt bitperfekt)
Insofern greifen viele der hier aufgezeigten Zusammenhänge aus meiner Sicht (noch) zu kurz, um die Unterschiede zu erkären.

Es bleibt spannend.

Grüße
Fujak
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9189
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Bernd Peter hat geschrieben: jetzt wo Du es sagst, das habe ich auch schon mal gelesen, daß elektronische Schwankungen im Digitalbereich bei der D/A Wandelung in den Analogbereich rübergereicht werden.
Das Kind hat einen Namen: Jitter wird in Modulationsrauschen umgesetzt. Das macht eine Rauigkeit und nervige Höhen, Verlust an räumlicher Abbildung: http://www.aktives-hoeren.de/viewtopic.php?f=30&t=1812

Schwankungen auf der Versorgungsspannung verursachen Jitter. Störungen auf der Masse sind ebenbürtig.

HF hat viele Nebenwirkungen. Wenn Baugruppen unzureichend entkoppelt an gemeinsamer Stromversorgung hängen, keine wohlüberlegte Masseführung haben, beeinflussen sie sich gegenseitig, und dann gibt es noch das, was Gert als digitales Übersprechen bezeichnet.

Grüße Hans-Martin
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Zusammen!

Ich denke das es in den Tiefen der Programmierung einer Audioengine liegt. Die korrekte Durchnummerierung der einzelnen Datenpakete, korrektes Latenzmanagment welches auch auf dynamische Belastungszustände der Rechnerarchitektur reagiert.....

Auffälig ist bei Samplitude Pro X das ich keinen Unterschied zwischen der analogen Ursprungsdatei und der daraus mit Samplitude aufgenommenen Datei hören kann egal wie oft ich mir diese im AB-Vergleich auch anhöre.....egal welches Musikmaterial und Instrument....

Die Software arbeitet in meiner Gerätekonfiguration mit RME HDSPe 32 AES PCIe Karte und RTW Districon Modular ADDA Wandler transparent.

Grüße Truesound
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4670
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Truesound hat geschrieben:Ich denke das es in den Tiefen der Programmierung einer Audioengine liegt. Die korrekte Durchnummerierung der einzelnen Datenpakete, korrektes Latenzmanagment welches auch auf dynamische Belastungszustände der Rechnerarchitektur reagiert.....
Ja, das mag wohl sein. Leider hat aber ein Normalsterblicher keinen Einfluss darauf, wie denn nun MS sein Treibergebäude intern aufbaut (was übrigens absolut komplex ist, es geht auch nicht bloss um 2 Kanäle rein/raus). Es gibt keine Fundstelle zu einem ALSA-Treiber Quellcode bei Google (welcher ja hardware-spezifisch ist), folglich wissen wir nicht, was da wirklich betrieben wird (DSP-Programmierung auf der Soundkarte mit eingeschlossen). Apple hält sich da bedeckt über Internas der Audio-API, selbst bei Linux ist es reichlich kompliziert (man muss da nur mal die Diskussionen im realtime-Linux-Forum verfolgen).
Truesound hat geschrieben:Auffälig ist bei Samplitude Pro X das ich keinen Unterschied zwischen der analogen Ursprungsdatei und der daraus mit Samplitude aufgenommenen Datei...
Aufnehmen wollen wir hier ja noch nicht einmal, nur abspielen. Da ist nun die Frage, ob Samplitude eigene Treiber verwendet oder die Windows API oder ASIO. Das lässt sich sicher feststellen. Das Kommando
pnputil.exe -e (als Admin ausgeführt) listet alle Treiber auf. Da müsste dann seitens Samplitude ebenfalls ein zertifizierter Treiber vorhanden sein. Ansonsten verwendet Samplitude auch nix anders als was schon vorgegeben ist und verlässt sich auch nur darauf, dass irgendjemand auf die Punkte
Die korrekte Durchnummerierung der einzelnen Datenpakete, korrektes Latenzmanagment welches auch auf dynamische Belastungszustände der Rechnerarchitektur reagiert.....
geachtet hat.

Grüsse
Uli
Bild
Thias
Aktiver Hörer
Beiträge: 233
Registriert: 25.12.2011, 08:53
Kontaktdaten:

Beitrag von Thias »

uli.brueggemann hat geschrieben: ... Da ist nun die Frage, ob Samplitude eigene Treiber verwendet oder die Windows API oder ASIO. ...
Samplitude verwendet natürlich auch die Treiber, die auf die Hardware abgestimmt sind. (Bei mir waren das ASIO RME Hammerfall 9632). Prinzipiell sind da ASIO, MME oder WDM möglich. Im professionellen Bereich hat sich denke ich ASIO aber durchgesetzt. Geringe Latenzen lassen Echtzeitmonitoring zu.

Bild

(Quelle: Samplitude)

Vielleicht besteht noch ein Unterschied, wie gut oder direkt die Treiber angesprochen werden.
Wenn es wie bei RME vor dem eigentlichen DA über eine weitere Software TotalMix geht (mit komplexen Berechnungen, die natürlich nur paketweise erfolgen können), ist der eigentliche Player noch weit von einem Takteinfluß entfernt.

Klangliche Unterschiede können da eigentlich nur im Rechenalgorithmus liegen, welcher aber völlig unabhängig von der Rechnerlast ist.
Bild
gregor
Aktiver Hörer
Beiträge: 669
Registriert: 08.03.2010, 20:08

Beitrag von gregor »

Thias hat geschrieben:Klangliche Unterschiede können da eigentlich nur im Rechenalgorithmus liegen, welcher aber völlig unabhängig von der Rechnerlast ist.
Hallo Thias,

das deckt sich nicht mit meiner Erfahrung, dass z. B. Audirvana Plus schlechter klingt, wenn ich besonders viel Rummel auf dem Rechner veranstalte. Klanglich besonders schlecht wirkt sich hoher Datenverkehr auf dem USB-BUS aus. Der Effekt wird noch stärker, wenn man statt AIFF-Files die verlustfrei komprimierten ALAC-Files abspielt: während bei niedriger Prozessorlast ein Unterschied zum WAV-Pendant AIFF nur schwer herauszuhören ist, fällt es bei großer Prozessorauslastung sehr leicht.

Zudem denke ich, dass die Rechenzeit sehr wohl eine Rolle spielt, auch wenn heutige Prozessoren davon scheinbar unendlich viel zur Verfügung zu haben scheinen. Ich erinnere mich dabei immer an ein Interface, mit dem ich in den 90ern Ereignismessungen im Milisekundenbereich durchführen sollte. Mein Rechner hatte seinerzeit einen 80286 mit 10 Mhz und die Ansteuerung des Interface war in TurboPascal geschrieben. Anfangs waren die Messungen meist unbrauchbar. Erst als ich die Steuerroutinen des Herstellers komplett in Assembler neu geschrieben hatte, konnte ich die Performance der Hardware voll nutzen, der Hersteller hatte sämtliche Warteschleifen in sog. "while-Schleifen" geschrieben; meine Assemblerroutinen taten rein logisch das gleiche, nur eben viel schneller.
Dadurch konnte ich die Zeitfehler bei der Ansteuerung und auch beim Auslesen des Interface ganz erheblich reduzieren und folglich meine Messgenauigkeit deutlich steigern. Ein Herabsetzen der Buffergrößen erhöhte die Messgenauigkeit weiter.

Folglich wage ich die Behauptung, dass das klangliche Ergebnis einer Playersoftware dann besser ist, wenn diese möglichst hardwarenah programmiert ist und gleichzeitig möglichst wenige unnötige Routinen auf dem Rechner ausgeführt werden. Daher gefallen mir viele Strategien, die die CMP2-Enthusiasten verfolgen.

Spannend finde ich dabei, dass Aspekte der Programmierung, z. B. die Wahl von Buffergrößen sekundäre Auswirkungen auf die Soundqualität haben können, da sich aus ihnen Störfrequenzen ergeben können. Darüber hinaus erzeugt jede Rechenaktivität (hardwareabhängig) elektromagnetischen Müll, der über Antennen (Kabel) in den DAC übertragen werden kann. Für sich genommen, mögen diese sekundären Effekt marginal sein, in der Summe können sie hörbar werden; die Kunst besteht wohl darin, bei einem Spiel mit so vielen Unbekannten an den richtigen Schrauben zu drehen.

Beste Grüße

gregor
Bild
Thias
Aktiver Hörer
Beiträge: 233
Registriert: 25.12.2011, 08:53
Kontaktdaten:

Beitrag von Thias »

gregor hat geschrieben: ...Ich erinnere mich dabei immer an ein Interface, mit dem ich in den 90ern Ereignismessungen im Milisekundenbereich durchführen sollte. Mein Rechner hatte seinerzeit einen 80286 mit 10 Mhz und die Ansteuerung des Interface war in TurboPascal geschrieben. Anfangs waren die Messungen meist unbrauchbar. Erst als ich die Steuerroutinen des Herstellers komplett in Assembler neu geschrieben hatte, konnte ich die Performance der Hardware voll nutzen, der Hersteller hatte sämtliche Warteschleifen in sog. "while-Schleifen" geschrieben; meine Assemblerroutinen taten rein logisch das gleiche, nur eben viel schneller.
Dadurch konnte ich die Zeitfehler bei der Ansteuerung und auch beim Auslesen des Interface ganz erheblich reduzieren und folglich meine Messgenauigkeit deutlich steigern. Ein Herabsetzen der Buffergrößen erhöhte die Messgenauigkeit weiter.
... das glaube ich gern, der Rechner wurde an der Grenze betrieben und ein schnelleres Programm, niedrigere Puffergrößen erhöht Messgenauigkeiten, Abtastraten usw.

Aber bei Audio haben wir nur mal simple 44,1 kHz odermax. 192 kHz.

Wenn ich meinen HTPC mit 20% oder mit 60% Last betreibe (z.B. Datendownload), ich höre da keinen Unterschied. (Quad 2 MHz, JRiver, RME FF, FIR Faltung...). Erst wenn die Auslastung über 80% geht gibt es Knackser.
Nur mal als Beispiel:
Um einen Puffer in der DA-Wandlung abzuarbeiten braucht es (nur mal so als Beispiel) 100 ms, das ist durch den Takt bestimmt. Wenn ich es in diesen 100 ms nicht schaffe den Puffer mit einem neuen Paket zu befüllen kommt es zu Aussetzern.
Wenn der Puffer nach 50 ms befüllt ist, ist es also ok.
Durch Priorisierung, Abschaltung von Diensten usw. kann ich den Puffer vielleicht schon nach 10 ms befüllt haben, aber was soll das für einen Vorteil haben? Kann mir jemand erklären, warum es klangliche Vorteile haben soll, wenn der PC 90 ms wartet, bis er wieder rechnen darf? Die Rechenergebnisse bzw. Bits sind ja immer die gleichen.
Eine gleichmäßige Befüllungszeit werde ich nie erreichen, ein PC arbeitet nun mal diskontinuierlich, aber das ist ja auch überhaupt nicht nötig.
Für den USB-Bus gilt das Gleiche, wenn der überlastet ist, gibt es Aussetzer. Dann sollte man andere Geräte von diesem Bus nehmen.
Wenn ein Datenpaket nicht rechtzeitig da ist, gibt es drop outs. Verschlechterung einer Bühne, "Musikalität" etc. kann damit nicht zusammenhängen, denn dazu müssten die Zahlenwerte geändert werden.

Sorry, aber ich kann das weder hören noch nachvollziehen oder verstehen... :oops: bin aber für überzeugende Argumente offen. :cheers:

Es versteht sich natürlich, dass der DAC entkoppelt sein soll, d.h. kein HF-Müll einstreuen darf und die Spannungsversorgung unabhängig sein muss. Aber das setze ich voraus für einen guten DAC.
Bild
Fujak
Moderator
Beiträge: 5753
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Thias hat geschrieben:Sorry, aber ich kann das weder hören noch nachvollziehen oder verstehen... :oops: bin aber für überzeugende Argumente offen. :cheers:
Das für mich letztlich überzeugendste Argument ist für mich der hörbare Unterschied. Deshalb meine Frage an Dich, welche Player-Software Du bislang im direkten Hörvergleich ausprobiert hast.

Um nict missverstanden zu werden: Ich möchte mit dieser Frage nicht aussagen, dass ich kein Interesse an einer schlüssigen technischen Erklärung hätte. Ich glaube aber, dass wenn man Unterschiede hört, sich vielleicht bei der Suche nach einer Erklärung möglicherweise in andere Richtungen bewegt, als wenn man sie nicht hört.

Wir unterhalten uns ja nicht darüber, ob die Datenpakete zuverlässig angeliefert werden (was sich im Falle von Fehlern in schnöden Aussetzern bemerkbar machen würde). Wir unterhalten uns ja über die - wenn man so will - "analoge Komponente" des SPDIF-Signals, nämlich ein Rechtecksignal welches dem DAC sagt, wann er schalten soll, und welches eine bestimmte Prägnanz in seiner Flanke aufweisen muss, um zum richtigen Zeitpunkt zu schalten. Die Qualität der Flanke sowie die Genauigkeit in der Frequenzkonstanz sind die beiden entscheidenden Faktoren, die durch unterschiedliche Player-Programmierung und Einbindung ins System beeinflusst werden können.

Im La Rosita-Thread hat HerbertZ beschrieben, dass die Größenordnungen in denen hier Genauigkeit gefordert ist, offenbar deutlich höher liegen, als man gemeinhin annimmt. Sein Reclocker von DcS ist bereits schon sehr sehr gut. Dass eine Rb-Clock mit ihrer vielfach genaueren Clock hier nochmal klanglich eins draufsetzt verdeutlicht die hörbaren Größenordnungen - übrigens bei einem Sonos-Streamer der durch die Gertifizierung bereits auf einem hohen Niveau spielt. Gleiches berichtet Uli im Eingangsposting des neuen Thread über den Audio-Fokus.

Wenn man über das entsprechende (sehr teure) Mess-Equipment verfügen würde, so könnte man beim Einsatz verschiedener Audio-Player das Clocksignal am SPDIF-Ausgang mit Oszilloskop sichtbar machen und hätte damit zumeindest einen Beleg für diesen Zusammenhang. Welche Vorgänge im Computer bzw. in der Programmierung der Playersoftware im einzelnen dafür verantwortlich sind, bliebe allerdings weiterhin im Dunkeln. Aber es wäre zumindest ein Nachweis für die Zusammenhänge erbracht.

Grüße
Fujak

Grüße
Fujak
Bild
Thias
Aktiver Hörer
Beiträge: 233
Registriert: 25.12.2011, 08:53
Kontaktdaten:

Beitrag von Thias »

Fujak hat geschrieben: Das für mich letztlich überzeugendste Argument ist für mich der hörbare Unterschied. Deshalb meine Frage an Dich, welche Player-Software Du bislang im direkten Hörvergleich ausprobiert hast.
Ich bin irgendwann mal vom WMP zu JRiver umgestiegen. Foobar und VLC hatte ich auch mal kurz probiert. JRiver klang für mich am besten, wobei ich da keine "harten Hörvergleiche" durchgeführt habe, eher "Langzeitempfinden".

Aber wie gesagt, bei unterschiedlicher Rechnerlast höre ich keine Unterschiede.
Fujak hat geschrieben:Wir unterhalten uns ja nicht darüber, ob die Datenpakete zuverlässig angeliefert werden (was sich im Falle von Fehlern in schnöden Aussetzern bemerkbar machen würde). Wir unterhalten uns ja über die - wenn man so will - "analoge Komponente" des SPDIF-Signals, nämlich ein Rechtecksignal welches dem DAC sagt, wann er schalten soll, und welches eine bestimmte Prägnanz in seiner Flanke aufweisen muss, um zum richtigen Zeitpunkt zu schalten. Die Qualität der Flanke sowie die Genauigkeit in der Frequenzkonstanz sind die beiden entscheidenden Faktoren, die durch unterschiedliche Player-Programmierung und Einbindung ins System beeinflusst werden können.
Jetzt kommen wir der Sache näher. Das SPDIF-Signal beinhalten die Zeitinformation sogar im gleichen Signal, da gibt es bessere Lösungen (I²S wird dem SPDIF deutlich bevorzugt, da die Taktung getrennt übertragen wird. Auf jeden Fall ist aber die Zeitinformation enthalten und da kann Jitter entstehen. Manche Geräte führen zwar eine Neutaktung durch, da ist die Größe des Puffers entscheident.

Es ist die Soundkarte, die SPDIF erzeugt, dort wär also als erstes anzusetzen. Der Player hat meines Wissens damit also noch nichts zu tun.

Die andere Variante, meines Wissens arbeitet USB asynchron, also reine Paketverarbeitung ohne zeitliche Taktung und die Zeitinformation wird als Zahl übertragen. Der Takt wird erst z.B. in der FF erzeugt und diesem die Daten zugeordnet. In der Paketverarbeitung, also ohne Taktbezug spielen die Flanken überhaupt keine Rolle.

Eine "Bio"- oder Rb-Clock kommt doch erst bei der DA-Wandlung zur Geltung, also wenn der Zeit ein Analogwert zugeordnet wird (s. Beispiel Postband).

Grüße
Thias
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Zusammen!

Hat jemand der einen USB-DAC oder USB -SPDIF/AES EBU Konverter betreibt schon mal dieses Gerät ausprobiert:

Bild

http://www.cesys.com/de/produkte/katego ... zAodmSXylQ

Grüße Truesound
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Ulli!

Glasfaser erinnert mich dabei an etwas anderes was es im Audiobereich schon lange gibt.... aber das ist ein anderes Thema:

Bild

http://www.rme-audio.de/products_hdspe_madi.php

Bild

http://www.rme-audio.de/products_adi_8_qs.php

Grüße Truesound
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4670
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Mir geht bei der ganzen Diskussion zum Klang von Audioplayern immer ein Gedanke im Kopf rum:

Wieso gibt es bei den Programmierern von Audioplayern gute und schlechte Programmierer?
Wenn es nur gute Programmierer gibt, wäre die Wahl des Players bezgl. Klangqualität egal.
Wenn es nur schlechte gibt, wäre die Qualität sowieso im Keller.
Also muss es anscheinend gute und auch schlechte Programmierer geben. Oder?

Wenn es nun besagte gute/schlechte Programmierer gibt stellt sich die Frage:

Wieso gibt es anscheinend nur gute Programmierer bei den Audiotreiberm und Betriebssystem-APIs ? Die Treiber scheinen alle perfekt zu sein, keiner diskutiert in diesem Bereich. Auch die DSP-Programmierung auf den Karten muss wohl immer top sein.
Trotzdem gibt es ja immer wieder neue Updates bei den Soundkartenherstellern. Man muss sich dauernd den neuesten Treiber besorgen. Wobei man nicht weiss, ob da nicht einer mit dem Hintern was umwirft, was er oder ein anderer vorne mühsam aufgebaut hat.

Wer denn nun genau für was verantwortlich ist wissen wir nicht. Aber irgendwie finde ich die Diskussion doch irgendetwas einseitig. Seh ich da was falsch?

Grüsse
Uli
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4670
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

modmix hat geschrieben:Und nicht jeder mag's, weil die Flanken oft nicht so genau detektiert werden, wie es gut wäre...
Ulli,

RME definiert im Standard 1 für MADI für eine Leitung 56 Kanäle mit 48/24 Abtstrate/Auflösung.
Ob dabei die Flanken hinreichend genau detektiert werden?

Grüsse
Uli
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4670
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

modmix hat geschrieben:Natürlich ist ein Player Teil einer Wiedergabekette. Tausche ich in der Kette nur den Player und es klingt anders, liegt es doch nahe, den Grund im Player oder auch in der Nutzung der Treiber durch den Player zu suchen.

Einverstanden?
Klar doch, wenn Du bei einem Player dann angibst:
Er klingt hervorragend (oder auch nicht).
Getestet mit Mainboard xyz, CPU xyz, Betriebssystem xyz, Soundkarte xyz, Treiber xyz, Parametereinstellung xyz, parallel laufenden Prozessen use.
Oder lässt sich direkt schlussfolgern, dass es mit abc (irgendwas aus der Liste ausgetauscht) auch so der Fall ist?

Grüsse
Uli
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

modmix hat geschrieben:Hallo Truesound,
Truesound hat geschrieben:Glasfaser erinnert mich dabei an etwas anderes was es im Audiobereich schon lange gibt....
Na klar. Und nicht jeder mag's, weil die Flanken oft nicht so genau detektiert werden, wie es gut wäre...
Bei Adnaco reden wir von Glasfaser für USB bis einschließlich 3.0 - das ist etwas schneller als Toslink.

Beste Grüße
Ulli
Hallo Ulli,

das vorgestellte ist MADI das höchstens mit den Anschlüssen mit Toslink zu vergleichen ist. Über MADI gehen 64 Audiokanäle in der Übertragung bei 44,1/48 kHz.......privat kaum von der Übertragungsmenge her auszureizen. 500-1000 Meter ist für optisch MADI kein Problem....Toslink verwendete Lichtleiter aus Plastik MADI ist echte Glasfaser....

Grüße Truesound
Bild
Antworten