Klangliche Unterschiede von Audioplayern

mm2
Aktiver Hörer
Beiträge: 295
Registriert: 17.05.2010, 22:12
Wohnort: München

Beitrag von mm2 »

Hallo zusammen,
Die ASIO-Schnittstelle ist eindeutig definiert. Und zwar per Bufferswitch. Es gibt bei der Wiedergabe zwei Puffer mit der Größe 512, 1024 ... Samples. Zumeist lässt sich die Puffergröße im Interface wählen.
als Tipp bei gleichem Player nur mal die Puffergröße im ASIO Treiber verändern, bei mir ist das hörbar.

Wie kann das sein, nachvollziehbar ist dass die Häufigkeit ( Frequenz ) des Umschaltens von der Puffergröße abhängt. Wir hören nach wie vor bitgenau und unterbrechungsfrei, aber die Puffer aus denen die Bits kommen werden unterschiedlich oft gewechselt.
EIN Computer kann normalerweise nicht zwei Dinge gleichzeitig tun.
Das legt für mich nahe dass hier Jitter mit unterschiedlichen Frequenzen entsteht.
Nun hängt es vom Emfänger der Daten ab wie gut der dies wieder entjittern kann.

VG
Maximilian
Bild
Rudolf
Webmaster
Beiträge: 4972
Registriert: 25.12.2007, 08:59
Wohnort: Bergisch Gladbach

Beitrag von Rudolf »

Liebe Freunde,
Bernd Peter hat geschrieben:der Nobelpreis muss es nicht unbedingt sein, aber irgend so ein AH-Ehrenpreis wäre schon recht.

Rudolf!!!
ich will die interessante Diskussion nicht lange stören, aber da ich nunmal gerufen wurde, möchte ich sie schon mal vorstellen, die

Bild

AH-Ehrenkappe für Klangbosonen-Forscher

Also haltet euch weiter ran. Es bleibt spannend!

Viele Grüße
Rudolf
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9163
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Wartet auf mich, ich will auch mitmachen!
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Zusammen,

ich denke wir müssen beim Klang von verschiedenen Audioengines auf "Input buffer reading & errors correction" einen besonderes Augenmerk richten.....umso besser die in der Software ist umso weniger hat der Wandler zutun....Ich zitiere mal aus dem Summierungsversuch einer AES Studie:
AES hat geschrieben:The preliminary examination of the files consisted of a direct comparison of the digitized two-track mixes printed to each DAW during tracking. As was anticipated, the files recorded into each DAW were an exact match, showing that no processing or errors existed in the capture of audio across all DAWs.

The next step was to compare the mixes as summed ITB in each DAW. This comparison, however, led to some very different conclusions. The most prominent of these was a difference in level between one DAW and the rest. Despite ensuring all user-controllable processing was turned off during the rendering process (including an automatic normalization function), this particular DAW seemed to have some quasinormalization. This mysterious process did not maximize the level of the resulting mix, but did add some gain to the resulting mix. Each of the other four DAW mixes showed a peak level within .1 dB FS of each other, while the DAW under question was a full

2.7 dB FS higher. In order to minimize the effect this would have on subjective evaluations, all files were normalized in Matlab, to ensure level differences would not play a roll in the subjective evaluation process. After normalizing, a second effect was observed with the same DAW. Not only was the DAW in question adding gain to stereo mixes, but there was also compression added without the user’s knowledge. Even after normalizing, this DAW showed an average level .3 dB RMS higher than all other DAWs. This was certainly an unexpected discovery.

With the exception of one pairing of DAWs, all systems showed slight differences in their internally-summed output. These differences ranged from system to system, but often showed as lower-mid frequency differences, typically above 200 Hz and below 3 kHz (Figure 1).

Upon inspection of the waveforms and their difference (summation with polarity inversion on one track), it seems that these differences occurred primarily at the onset of percussive events, as shown in Figure 2.

Figure 1 Spectral analysis of the difference between two of the ITB summed mixes.


Figure 2 Waveforms showing two different DAWs an their difference signal when one is polarity-reversed and summed.

Was bei der Kanal-Summierung eines Mixes an klanglichen Programmierer-Specials bzw. Sounddesign hineingebracht werden kann geht natürlich auch bei einer Playerengine...
Ein sehr markantes Beispiel dafür wäre der Windows Media Player mit seinem offensichtlichen Loudnesseffekt...

Die Frage wäre in wie weit der Erschaffer einer Playersoftware es vor hatte eine "hochneutrale Engine" überhaupt zu erschaffen oder wurden dabei Feinabstimmungen nach geschmacklichen Klangpräferenzen von diesem mit einprogrammiert....vielleicht auch zum Teil unabsichtlich je nachdem mit welchem Wandlerlösungen VVs und Lautspechern bei der Entwicklung gearbeitet wurde...

Grüße Truesound
Bild
Fujak
Moderator
Beiträge: 5753
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Truesound,

Ich möchte mich selbst zitieren vom Anfang des Threads:
Fujak hat geschrieben: Die klanglich qualitativen Unterschiede begründen sich m.E. nicht in tonalen Unlinearitäten. Du erinnerst Dich vielleicht an unseren kurzen Mail-Kontakt in Bezug auf Messungen unterschiedlicher Player-Software vor ein paar Monaten. Es ging aus wie das Hornberger Schießen: im hörrelevanten Bereich keine messbaren Unterschiede im FG und im Klirr feststellbar. Den klanglichen Unterschied führe ich daher auf Jitter zurück, zumal es sich in Klang-Kategorien zeigt, die für Jitter-Phänomene typisch sind.
Grüße
Fujak
Bild
Thias
Aktiver Hörer
Beiträge: 233
Registriert: 25.12.2011, 08:53
Kontaktdaten:

Beitrag von Thias »

Truesound hat geschrieben:Was bei der Kanal-Summierung eines Mixes an klanglichen Programmierer-Specials bzw. Sounddesign hineingebracht werden kann geht natürlich auch bei einer Playerengine...
Ein sehr markantes Beispiel dafür wäre der Windows Media Player mit seinem offensichtlichen Loudnesseffekt...
Nur so kann ich mir die Klangunterschiede auch erklären. Die möglichen Effekte werden auch nicht mit Frequenzgang oder Klirr unbedingt messbar sein, ich nenne nur mal das Stichwort invertieren... wenn ich Zeitbereich etwas gändert wird, kann man es schwer statisch messen...
Fujak hat geschrieben:...Den klanglichen Unterschied führe ich daher auf Jitter zurück, zumal es sich in Klang-Kategorien zeigt, die für Jitter-Phänomene typisch sind.
Unter Softwareplayer verstehe ich Rechenoperationen und Speicherverwaltung. Wo kann da was verjittern, wenn es die Zeitkomponente überhaupt noch nicht gibt? Nach meinem Verständnis kann frühestens das erst mit dem Treibern passieren, der auf spezielle Hardware abgestimmt ist , mehr oder weniger gut (eigentlich erst mit der Firmware des DA-Wandlers). Erst dort wird doch ein Takt erzeugt, also reinen Zahlenkolonnen auf eine Zeitschiene aufgedrückt. Ich sehe das so als "Hochzeit" zwischen Amplituden und Zeitachse. :wink:

Oder ein anderes Bild, wie ich mir das so vorstelle:
Denkt an ein Postverteilzentrum. Da ist ein Schacht, in dem die Briefe übereinannder gestapelt liegen. Dort werden immer neue Stapel mit Briefen oben auf gelegt, mal mehr oder auch weniger, mal kurz hintereinander oder auch mal mit längeren Pausen.
Unter dem Stapel befindet sich ein Transportband mit einzelnen Fächern oder Stollen, die jedes Mal einen Brief unten wegziehen. Diese Band läuft mit konstanter Geschwindigkeit.
Also die Briefe beinhalten den Zahlenwert und das Band wird durch einen Clock-Motor angetrieben.
Wenn die Briefe jetzt am Ende des Bandes etwas ungleichmäßig ankommen, dann sind sie verjittert...
Bild
gregor
Aktiver Hörer
Beiträge: 669
Registriert: 08.03.2010, 20:08

Beitrag von gregor »

Thias hat geschrieben:Unter Softwareplayer verstehe ich Rechenoperationen und Speicherverwaltung. Wo kann da was verjittern, wenn es die Zeitkomponente überhaupt noch nicht gibt? Nach meinem Verständnis kann frühestens das erst mit dem Treibern passieren, der auf spezielle Hardware abgestimmt ist , mehr oder weniger gut (eigentlich erst mit der Firmware des DA-Wandlers). Erst dort wird doch ein Takt erzeugt, also reinen Zahlenkolonnen auf eine Zeitschiene aufgedrückt. Ich sehe das so als "Hochzeit" zwischen Amplituden und Zeitachse. :wink:
Hallo Thias,

Damien Plisson stellt in diesen beiden Schaubildern dar, wie er den Weg zu Deinem "Transportband" aufgeräumt hat; der Weg durch den Rechner soll seiner Ansicht nach so direkt wie möglich gehen. Das Transportband kann offensichtlich nicht nicht alle Unregelmäßigkeiten ausgleichen, die vor dieser Instanz auftraten.

Beste Grüße

gregor

Bild

Bildquelle: http://www.amr-audio.co.uk/large_image/ ... 20Mode.pdf

Bild

Bildquelle: http://www.amr-audio.co.uk/large_image/ ... 20Mode.pdf
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4668
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Wir reden hier ja von Playern und nicht von DAWs (digital audio workstation). Es geht also nicht um Aufnahme und Mischen von Daten. Sondern nur um die reine Wiedergabe. Per Definition bei dieser Diskussion um bitperfekte Wiedergabe.

Es sollte klar sein: sobald ein Player irgendwelche Effekte reinbaut wie Replay Gain, Kompression, Normalisieren etc., selbst wenn die simple Lautstärkeeinstellung nicht auf 100% ist, dann kommt am Ausgang bei unterschiedlichen Playern eben unterschiedliches raus. Es ist auf jeden Fall beim Vergleich sicherzustellen, dass solche Effekte nicht im Spiel sind.
An diesem Punkt haben es die Betriebssysteme nicht leicht. Weil sie ja im Prinzip sicherstellen müssen, dass die Ausgabe von mehreren Quellen funktioniert. Beispiel: der Warnton = Ping, welcher bei irgendeiner Aktion gespielt wird, ist mit 8 bit bei 22050 Hz gesampelt und wird nun umgesampelt und mit der 96 kHz Musik gemischt. All diese Ausgabetreiber, bei MS früher MMS (immer noch gültig), dann Direct Sound, dann WASAPI, dann Kernelstreaming, müssen ja irgendwie zusammenpassen. Insofern habe ich eben ASIO herangezogen. Dort erfolgt der Zugriff theoretisch exklusiv und ohne Mischerei und Umsampeln. Was im ASIO-Treiber selbst passiert, weiss ich aber nicht. Da könnte ein Programmierer ja selbst wieder WASAPI verwendet haben. (Bei ASIO4All wird die ASIO-Schnittstelle nachgebildet, die Ausgabe erfolgt per Kernelstreaming)

Wenn die Ausgabe aber bitperfekt ist, d.h. direkt nachfolgende digitale Aufnahmen des wiedergegebenen Signals sind identisch mit dem wiedergegebenen Signal, dann kommt wohl nur noch der Faktor Zeit, also Jitter, infrage. Da wird es meiner Meinung nach eher zufällig vom Ergebnis her. Wenn die Puffergröße bei ASIO geändert wird, dann ändert sich die Prozessorlast. Es spielen alle anderen Prozesse mit rein. Man kann viele eliminieren, aber bei weitem nicht alle und wenn es bloss die Zeitanzeige ist.

In meiner Vorstellung wäre ein definitiv reproduzierbare Wiedrgabequalität nur dann erzielbar, wenn auf der Soundkarte ein eigener DSP sitzt. Der bekommt die Daten in einem Wechselpuffer übergeben. Bei der Ausgabe sind die Daten- und Adressleitungen der Puffer durch Tri-State-Logik vom PC getrennt, d.h. die Soundkarte funktioniert eigenständig und weiss nichts von alledem, was der PC sonst noch tut.
Wo gibt es diese Karte?

Grüsse
Uli
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4668
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

gregor hat geschrieben:Damien Plisson stellt in diesen beiden Schaubildern dar ...
Gregor,

wenn der Audio Device Driver nix taugt, ist es völlig egal, was für ein Gebäude darüber aufgebaut wird. Und der Treiber ist nicht der einzige Prozess, er konkurriert mit zig anderen. Der Prozess mit der allerhöchsten Priorität ist der Scheduler, weil er die Zeitscheiben für die restlichen Prozesse zuteilt. Und dann gibt es noch die ganze Interruptlogik und die Direct-Memory-Access-Logik ...

Grüsse
Uli
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9163
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Bisher hat jeder Netzwerkspieler, den ich ausprobiert habe, lebendiger gespielt, wenn ich ihn in einen Faradayschen Käfig mit Schutzerde gesperrt habe. Das mag dem Unstand geschuldet sein, dass ich Digitalverstärker benutze, die zwar auch schutzgeerdete Gehäuse haben, aber dennoch Störungen aussenden.

Da wir mit Zimmerantenne reichlich Rundfunk- und TV-Programme empfangen können, ist das generell zu beachten, spielt für das Ergebnis die Einstrahlsicherheit offenbar eine Rolle. Mit WLAN übertragene Daten sind Mischprodukte von gesendeten Daten, überlagert von geräteeigenen Störungen und der Empfang ist überlagert von atmosphärischem Rauschen und der lokalen Störbelastung im jeweiligen HF Band von allen emittierten Störungen und Nutzsignalen.

Sind es vom PC ausgehende Störungen, die sich unterscheiden, sobald er anders konfiguriert ist und andere Spielersoftware benutzt wird? Andeutungen in dieser Richtung habe ich hier schon gelesen.

Das Neutakten der Daten aus dem FIFO Puffer mit dem neuen Systemtakt kann man als Filter aufffassen. Zugleich ist es aber auch eine Mischerstufe, in der die Fehler der Daten aus dem Pufferspeicher und die der Clock sich vermischen, addieren. Das mag Jammern auf hohem Niveau sein, aber wer liefert mir ein gutes Gegenargument?

Die Gertifizierung des Sonos basiert auf Neutaktung des SPDIF Signals mit verbesserter Clock und deren Superregulator-Stromversorgung. Das beste bezahlbare Material wurde eingesetzt. Die Steigerung unüberhörbar, messtechnisch untermauert. Man hätte meinen können, das Ende der Fahnenstange sei nahe und ... Linn ... LaRosita ... was kommt übermorgen?

Wenn ich CDs vor dem Rippen mit Waschbenzin reinige, sie "entmagnetisiere" und andere Anwendungen aus der vermeintlichen Voodoo-Ecke appliziere, kann ich gelegentlich Unterschiede ausmachen, die sich in mehr Wärme und Körperhaftigkeit niederschlagen. Gelegentlich bedeutet nicht immer, der Unterschied drängt sich nicht förmlich auf, man findet ihn manchmal, ohne zu suchen. Wir landen bei dieser Diskussion schnell wieder in gesperrten Threads, das Thema überfordert unser bestätigtes Wissen oder gar unsere Vorstellungen. Ich erinnere an die Diskussion Rippen auf Laptop mit Netzteil oder Batterie, Vergleich mit Desktop-PC, der immer schutzgeerdet ist.

Es gibt Laptop-Netzteile mit Schutzerde und ohne. Wenn ohne, kann man je nach Netzsteckerdrehung ein unterschiedliches Störpotential auf der Signalmasse messen, das über Netzwerkkabel /Router/ NAS (kann ebenfalls, muss aber nicht, schutzgeerdet sein) / Player /Verstärker sich ausgleicht. Kabel sind also störbelastet, Potentialunterschiede sind an den Geräten messbar (zwischen Signalmasse und Schutzerde mit hochohmigem Digitalvoltmeter oder mit Oszilloskop.

Es ist naheliegend, dass sich Störungen zu den Signalen überlagern, sowohl bei der Signalübertragung wie auch zur Arbeitsweise des Gerätes, denn hier wackelt immer der Schwanz ein wenig mit dem Hund.

Wer glaubt, dass die Erde sich sauber um ihre Achse dreht, irrt. Die Achse hat eine Präzessionsbewegung, weil die Erde unrund ist. Mit dem Mond gibt es einen gemeinsamen Schwerpunkt, um den sich beide drehen, siehe Erklärung für Ebbe und Flut. Satellitenaufnahmen zeigen sogar eine dynamische Verformung der Erdoberfläche unter dem Wasser, alles rotiert gemeinsam um unsere Sonne, und das nicht auf einer Kreisbahn. Es ist alles nur eine Frage des Beobachterstandorts.

Idealisierte Betrachtungen, wie sie in Lehrbüchern stehen, helfen zum Verständnis, aber ab einem gewissen Punkt nicht mehr wirklich weiter, weil sie womöglich sogar den Blick versperren für die ungelesenen Erkenntnisse. Hilfreich ist, Großvaters Lehrbücher mal nach heutigem Wissen kritisch zu lesen. Der Spaß ist schon vorprogrammiert.

Wenn wir in 10 Jahren unser Forumsarchiv lesen, wissen wir vermutlich mehr als wir den alten Threads entnehmen können. Unsere mehr oder wenig krampfhaften Bemühungen und Spekulationen werden uns dann vielleicht lächerlich vorkommen, weil es Begriffe in unserem Sprachgebrauch geben wird, die nicht mehr wegzudenken sind.

In diesem Sinne wünsche ich uns eine kreative Diskussion, in der ich die Beobachtung besonders gewichte.

Grüße Hans-Martin
Bild
Bernd Peter
Aktiver Hörer
Beiträge: 4010
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Einen schönen verregneten Guten Morgen allerseits,
Rudolf hat geschrieben:AH-Ehrenkappe für Klangbosonen-Forscher
endlich mal eine in Aussicht gestellte Anerkennung durch die Administration für die viele Schreiberei hier.

Ich bin mit solchen Ehren bisher nicht sonderlich vertraut, glaube aber, daß ein geziemtes Auftreten beim Sieger des ausgelobten Wettbewerbes erwünscht ist.

Sag mal Rudolf, trägt man dieses Prunkstück bei euch in NRW beim Zubettegehen, mehr Sonntags beim Kaffee oder ausschließlich bei festlichen Anlässen?

Wird dem Träger gehuldigt oder applaudiert? Wie oft?

Kannst Du darüber noch genaueres berichten?

Gruß

Bernd Peter
Bild
Thias
Aktiver Hörer
Beiträge: 233
Registriert: 25.12.2011, 08:53
Kontaktdaten:

Beitrag von Thias »

Hans-Martin hat geschrieben:...Wer glaubt, dass die Erde sich sauber um ihre Achse dreht, irrt. Die Achse hat eine Präzessionsbewegung, weil die Erde unrund ist. Mit dem Mond gibt es einen gemeinsamen Schwerpunkt, um den sich beide drehen, siehe Erklärung für Ebbe und Flut. Satellitenaufnahmen zeigen sogar eine dynamische Verformung der Erdoberfläche unter dem Wasser, alles rotiert gemeinsam um unsere Sonne, und das nicht auf einer Kreisbahn. Es ist alles nur eine Frage des Beobachterstandorts.

Idealisierte Betrachtungen, wie sie in Lehrbüchern stehen, helfen zum Verständnis, aber ab einem gewissen Punkt nicht mehr wirklich weiter, weil sie womöglich sogar den Blick versperren für die ungelesenen Erkenntnisse. Hilfreich ist, Großvaters Lehrbücher mal nach heutigem Wissen kritisch zu lesen. Der Spaß ist schon vorprogrammiert.
...
... das ist sicher alles richtig. Aber es geht nicht darum die Natur zu erforschen, die eine andere höhere Intelligenz oder was oder wer auch immer erschaffen hat, jedenfalls wo wir uns den Zugang erst erarbeiten müssen...

Der PC ist aber eine Maschine, die der Mensch konstruiert hat und seine Funktionsweise kennt. Physikalische Effekte, die uns in der Komplexität schwer fallen zu erklären betreffen die Analogseite. Auf der Digitalseite wurden diese Einflüsse bewusst eliminiert. Was dort passiert ist nur Logik, vorhersehbar, das muss nicht erst erforscht werden. Erst auf der Analogseite oder auch an der Schnittstelle zur Digitalseite können analoge Störungen auftreten...
Bild
Bernd Peter
Aktiver Hörer
Beiträge: 4010
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo,
Thias hat geschrieben:oder auch an der Schnittstelle zur Digitalseite können analoge Störungen auftreten...
jetzt wo Du es sagst, das habe ich auch schon mal gelesen, daß elektronische Schwankungen im Digitalbereich bei der D/A Wandelung in den Analogbereich rübergereicht werden.

Gruß

Bernd Peter
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

uli.brueggemann hat geschrieben:In meiner Vorstellung wäre ein definitiv reproduzierbare Wiedrgabequalität nur dann erzielbar, wenn auf der Soundkarte ein eigener DSP sitzt. Der bekommt die Daten in einem Wechselpuffer übergeben. Bei der Ausgabe sind die Daten- und Adressleitungen der Puffer durch Tri-State-Logik vom PC getrennt, d.h. die Soundkarte funktioniert eigenständig und weiss nichts von alledem, was der PC sonst noch tut.
Wo gibt es diese Karte?
Hallo Uli!

Meine von mir verwendete Karte besitzt einen DSP: http://www.rme-audio.de/products_hdsp_aes32.php

Grüße Truesound
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4668
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Ich nutze ja selbst auch eine RME HDSP9652.
Generell verwendet RME wohl DSPs und FPGAs auf den Soundkarten.
Auch in einer Fireface steckt ein DSP.

Theoretisch sollte damit die Karte immun sein gegenüber der Wahl eines Audioplayers (vorausgesetzt, der spielt bitperfekt). Praktisch ist mir dabei allerdings nicht klar, wo denn nun die Puffer liegen. Im PC mit DMA-Zugriff oder auf der Soundkarte? Wie weit funkt die PCI-Schnittstelle (oder Fireface oder USB) in das Geschehen auf der Soundkarte mit rein? Gibt es Tri-State-Puffer, also Abkopplung von Daten- und Adressleitungen seitens des PCs (so dass der DSP Alleinherrscher ist)? Leider wird da mit Infos seitens RME eher mager.

Fujak berichtet ja trotz seiner Fireface über unterschiedlichen Klang je nach Playersoftware.

Grüsse
Uli
Bild
Antworten