Hallo Otto
computeraudiophile.com hat geschrieben:“Audiophiles have sometimes reported hearing differences between different kinds of digital cables. That could be attributed to a D/A converter with a design that is inadequate to recover a uniformly stable clock from the input bitstream. But, a well-designed D/A converter with a stable clock will be immune to variations in the upstream digital signal path, as long as data values themselves are not altered.”
Na, ganz so aktuell scheint der Artikel nicht zu sein, denn welcher DAC synchronisiert sich noch auf die eingehende Abtastrate.
Und es war bereits in den frühen 1990er Jahren, als Robert Harley bei stereophile messtechnisch den
Jitterunterschied zwischen beiden Laufrichtungen eines Digitalkabels aufzeigte.
Auch wenn der Author Mitch Barnett heißt, der IIRC ein schönes Buch über den Umgang mit Acourate geschrieben hat, beeindruckt es mich nicht, wenn jemand antritt, um nachzuweisen, dass es keine hörbaren Unterschiede zwischen diesem und jenem gibt. Das Internet ist voll von Artikeln im Stile von
Debunking the Myth of..., und am Ende kommt raus, dass es Lücken im Verständnis oder der Methode gab, falls sich überhaupt jemand die Mühe einer kritischen Auseinandersetzung mit dem jeweiligen Artikel gemacht hat.
Ich hatte mit Mitch einige PNs in anderer Sache, wo ich ihn mit Sachzusammenhängen zu einem anderen Thema überraschen und konfrontieren konnte, mit einem sehr respektvollen Umgangston in beiden Richtungen, also kein Bashing hier beabsichtigt.
Wenn ich bei 2 CDs derselben Aufnahme Unterschiede höre, aber bei der Methode der Differenzbildung dieser zwei nahezu identischen Dateien schwerlich Unterschiede höre, berufe mich auf z.B.
http://www.mu-sig.de/Theorie/Akustik/Akustik06.htm hat geschrieben:Zur Feststellung der Frequenz (Tonkennzeit) sind nur wenige Perioden der Schwingung eines Tons nötig: ein 100 Hz-Ton wird nach ca. 11 Milllisekunden (etwas mehr als eine Periode), ein 1 kHz-Ton nach ca. 4 Millisekunden (vier Perioden) erkannt (Auflösungsvermögen [= Einschwingzeit des Gehörs]: 0,025-0,07 Sekunden [frequenzabhängig]).
Dass wegen des chemischen Prozesses die Härchenzellen auf der Cochlea eine gewisse Erholzeit brauchen bis zum nächsten Puls, der auf den Hörnerv abgesetzt wird, habe ich
hier hingewiesen, da war ein 400Hz Ton vorgegeben
https://mustelid.physiol.ox.ac.uk/drupa ... se_locking
Deshalb meine ich, dass man mehr als nur einen verstärkten Pegel braucht, um ein Differenzprodukt gehörmäßig auszuwerten. Das Signal braucht eine hinreichende Periodizität, die vom Ohr als Töne erfasst werden kann.
Ich habe von Paul Simon Graceland (1986) und Jennifer Warnes Famous Blue Raincoat (1987) jeweils eine deutsche und eine amerikanische Pressung, die sich klanglich unterscheiden, wobei die deutsche jeweils weniger gut bewertet wird.
Nachdem ich sie gerippt hatte, vermochte ich per Streaming keine Klangunterschiede mehr auszumachen.
Und das trotz der Überzeugung, diese beim Abspielen in einem guten CD-Player wahrgenommen zu haben.
Als Erklärung führe ich an, dass der Lesejitter aufgrund schlechter Pitabformung sich durch die Kette zieht, wenn es um den CD-Player als Quelle geht. Beim Streaming der gerippten CD sind mehrere zusätzliche jitterfilternde Mechanismen im Spiel.
Nach Differenzbildung mit Audacity (einer älteren Version, die noch nicht auf 32Bit umgerechnet hatte, bzw. dies nicht als solches gleich in einem Fenster bekanntgab) mussten die Unterschiede extrem verstärkt werden, was die Hörbarkeit der CD-Unterschiede stark in Zweifel ziehen ließ. Aber bei den gerippten Versionen hörte ich ja auch keinen Unterschied, was wiederum das Augenmerk auf den Abspielvorgang im CD-Player richtete.
Und da machte ich auch einige Entdeckungen, z.B. die Vorteile eines Trenntrafos vor einem CD-Player mit Ringkerntrafo und Netzfilter (entkoppelnde Plattformen schon lange berücksichtigt), womit der Unterschied zum Rip+Streaming am identischen DAC zusammenschmolz.
Hier muss man sich mal darüber klar werden, welche Umstände zu Bewertungen führen bzw. geführt haben und ob diese auch in der Presse erwähnten Unterschiede nicht auf das Medium Tonträger und seine Schwächen beschränkt bleiben.
Downloads haben eine andere Problematik.
Leider kann ich heute keinen Vergleich mehr machen, was Graceland, Famous Blue Raincoat und eine fein-zerkratzte gegen unzerkratzte
Brothers in Arms betrifft, da diese Silberscheiben neue Freunde gefunden haben.
Ich denke nicht, dass bei allen genannten CDs ein Studiostandard von 96kHz /24Bit eine Rolle gespielt haben mag, wenn 1996 die
Brothers in Arms mit Sony Super Bit Mapping in 20Bit remastered wurde und der wesentliche Unterschied in der Dynamikkompression lag, die den DR Wert von 16 auf 13 herunterzog. Bei diesen CDs gab es offenbar die 96kHz im Studio noch nicht als Standard, auch hätte man sicherlich gern mit 24 Bit remastered, die gab es aber wohl auch noch nicht, sonst hätte man sie entsprechend gepriesen.
Aber wer weiß, wie weit man dann den DR-Wert niedergeknüppelt hätte.
Kawumm hat geschrieben:Allerdings möchte ich ganz stark bezweifeln, daß diesen Unterschied irgend jemand hören kann. Wenn man schon um 40dB verstärken muß, nur um den reinen Unterschied auch nur hörbar zu machen, dann ist das bei laufender Musik garnicht möglich das herauszuhören.
Dem kann ich nur entgegnen, dass wir imstande sind, Raumtiefe zu erfahren, wo nach der Anfangszeitlücke auch Nachhall-Signale noch ausgewertet werden können, die visuell im WAV-Editor im Rauschen völlig untergehen.
Und alle, die beschwören, dass Abtastraten über 44,1kHz mit deutlichen (!) Verbesserungen verbunden sind, beziehen sich zumindest zum Teil auf höherfrequente Anteile jenseits 20kHz, die nach Spektralanalyse jenseits -90dB liegen.
Grüße Hans Martin