Klangunterschiede bei digitalen Transportern

Bernd Peter
Aktiver Hörer
Beiträge: 4018
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo,

wer von seiner Audiolösung überzeugt und begeistert ist, mag das in einem Forum wie diesem auch kundtun.

Wenn er dabei keine Mauern einreißen kann, sollte er es akzeptieren und einfach mal Pause machen.

Rudolfs Fragen eingangs zum Resampling hat Ralf für gewissenhafte Hörer in Testfiles umgesetzt.

Das sollte eigentlich reichen, um sich zu orientieren.

Gruß

Bernd Peter
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Hallo Ulli,
besten Dank für die Rückmeldung! Interessant zu lesen, dass wir da doch sehr einer Meinung sind. Der Ultra ist vielleicht wirklich der Beste. Ich habe damit momentan vielleicht nur noch ein persönliches mentales Problem. Der Ultra ist beim Downsampling nämlich mit das Schlimmste was man einem 24/192 file antun kann. Ich hatte es aber neulich schon erwähnt, offenbar ist Up- und Downsampling doch sehr differenziert zu sehen. Der LINN klingt für Downsampling von 192 auf 96kHz auch gar nicht prächtig (dafür ist die Funktion wohl aber auch nicht gedacht). Alles in allem also anscheinend eine schlüssige Sache.

Den LINN würde ich auf jeden Fall ganz dicht beim Ultra sehen und die beiden auf jeden Fall dichter zusammen als der Abstand zum nächst besseren. Und ja, das ist dann wohl der SRC145.

Ich bin mir allerdings nicht sicher, ob ich überhaupt ein Upsampling eischalten soll. Ich tendiere zu NEIN. Das gilt dann aber auch nur für meinen DAC. Das muss bei weitem nicht allgemeingültig sein.

Viele Grüße
Ralf
play-mate
Aktiver Hörer
Beiträge: 448
Registriert: 26.02.2010, 08:18
Wohnort: Berlin

Beitrag von play-mate »

Hallo Ulli & Ralf

Jetzt macht ihr eure Erkenntnisse unter einander aus. Können wir nicht alle daran teilhaben ?

Welches Verfahren von Upsampling von Dateien (!) verwendet wird ist (zunächst) nicht der entscheidende Punkt. Die These von cics (cMP) und von Linn ist dass überhaupt neue (interpolierte) Punkte geschaffen werden.

Die technische Begründung dafür ist dass wenn, z.B. doppelt so viele Stützpunkte in die Datei "eingebaut" werden, es doppelt so oft zu einem Abgleich mit der Taktung kommt.

Also : anstatt zu diskutieren welches Programm mit welchen verschiedenen Parameter neue Punkte interpoliert, wäre es hilfreich herauszufinden ob (oder dass) ein Upsampling mit Interpolation hörbar etwas bringt.
Sicherlich müssen neue Daten-Punkte dazu geschrieben werden und daher die Daten verändert werden, aber der wirklich wichtige Clou ist dass ein DAC viel besser mit einer hohen Samplingrate klar kommt. Sprich weniger Jitter produziert.....

Klar : ich weiß dass ich hier immer wieder polimisiere, aber dies ist ungeheuer wichtiger Kern warum Upsampling überhaupt ein Thema ist.
Hohe Samplingrates in der Datei....zwingen dem DAC öfter & präziser zu Takten.
-wie die neuen Punkte entstehen ist ein anderes Kapitel.

Gruß leif
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

play-mate hat geschrieben: Jetzt macht ihr eure Erkenntnisse unter einander aus. Können wir nicht alle daran teilhaben ?
Hallo Leif,
warum machen wir nun unsere Erkenntnisse unter uns aus? Jeder hier hatte - und hat noch immer - die Chance sich die Samples anzuhören und mitzureden. Wenn das nicht genutzt wird ... ? ... da können wir beide dann nichts für.

Welches Verfahren von Upsampling von Dateien (!) verwendet wird ist (zunächst) nicht der entscheidende Punkt.
Doch, dass ist der alles entscheidende Punkt. Das alleine genügt zwar nicht für einen guten Player. Ist das Upsampling - also die Rechenroutine an sich - aber schlecht, kann weiter passieren was will. Ist das Signal erst mal kaputt, lässt es sich auch nicht mehr richten. Ulli und ich sind uns nur ziemlich einig, dass der SRC zwar ganz gut ist, aber bei weitem nicht diese Wunderwaffe, wie oft mit fast schon religiöser Vereherung gepredigt. Wer das anders hört, kann gerne seine Meinung sagen. Je mehr sich beteiligen würden, je zuverlässiger würde eine Aussage. Ich erhebe keinen Anspruch, dass meine Meinung die richtige sein muss.

Die technische Begründung dafür ist dass wenn, z.B. doppelt so viele Stützpunkte in die Datei "eingebaut" werden, es doppelt so oft zu einem Abgleich mit der Taktung kommt.
Du wiederholst das immer wieder, ich kann mich aber an kein stichhaltiges Argument erinnern, das dies belegt? Einzig präsent habe ich eine Tabelle von Ulli und die sagt genau das Gegenteil. Der Absolutwert wird zwar kleiner, aber proportional zur Abtastrate ist der Wert relativ gesehen höher. Ich habe bisher immer nur das Gegenteil erlebt. Je höher die Abtastrate, je anspruchsvoller das Signal, weil sich die nötige Bandbreite der Leitung bei jeder Verdopplung eben auch bis über 100MHz verdoppelt. Und wenn die Bandbreite nicht passt, dann gibt es mehr Jitter. Bei 48kHz passt die ganze Standardtechnik mit Cinchkabeln oder XLR-Steckern noch. Da sind die Frequenzen aber noch nicht sehr hoch. Für 192kHz ist das aber alles nicht mehr optimal. Das gleiche gilt auch für andere Bauteile.
Ich habe das alles schon mal geschrieben. Das ist aber auch kein Argument gegen hohe Abtastraten, alles lässt sich handhaben. Man muss es nur wissen und berücksichtigen. Ich kann jedoch beim besten Willen nicht erkennen, warum der Jitter durch Abtastratenerhöhung einfach automatisch unkritischer werden soll.

Viele Grüße
Ralf
play-mate
Aktiver Hörer
Beiträge: 448
Registriert: 26.02.2010, 08:18
Wohnort: Berlin

Beitrag von play-mate »

Hallo Ralf,

Wir können nicht darüber streiten dass ein interpoliertes Upsampling die Daten verändert. Das ist einfach so.
-es werden Daten hinzugefügt, und das ist (eigentlich) nicht gut.

Einig ?

Sicherlich sind wir uns auch einig dass jede Manipulation der Daten, die nicht dem Urspungssignal treu sind, daher auch zu vermeiden sind.

Also, ohne Änderung der Daten kommen wir nicht auf ein interpoliertes Upsampling.

Auch einig ?

Der Knackpunkt ist aber wenn kürzere Taktungsintervalle (also dort wo die Clock den Signalfluss auf "Tritt" hält) generiert werden, - dann arbeitet das gesamte System zeitlich & ultimativ genauer.

Stell dir das folgender Maßen vor :

In einem System zappelt ein Fluss von Daten durch.
Bei jedem neuen Sample wird die Genauigkeit des Signals mit dem Taktgeber abgeglichen.
xxxx Takt xxxx Takt xxxx Takt xxxx Takt xxxx etc.
-innerhalb der Zeitvorgabe von 1/44.100 Bruchteilen von Sekunden müssen die Samples da sein und werden als Datenwert identifiziert.
Wenn nun aber der Datenfluss bei 88.2kHz liegt, wird der Taktgeber "verlangen" die doppelte Menge an Daten zum selben Zeitpunkt zu erhalten, wie es bei halber Samplingrate der Fall ist.
Damit zwingt man den Taktgeber weniger ungenau zu arbeiten.

Wenn Zeit und Taktung 100% genau wären, wäre es überflüssig ein Upsampling zu veranstalten, aber dies ist in Praxis nicht so. Je kürzere Intervalle der Taktgeber (die Clock) "korrigieren" muss, desto mehr Jitter-frei läuft das.

Nun muss man nur abwägen was einem wichtiger ist : weniger Jitter oder eventuelle Abweichungen der original Daten.

Linn, cMP...(und übrigens auch Mutek verwendet neuerdings FPGA im Upsampling) hat sich für "falsche" Daten entschieden.
-übrigens auch kein Wunder : CD Daten waren schon niemals ganz richtig....!!!


Wer dies alles bezweifelt (sorry, ich will kein ultimativen Anspruch erheben), muss sich aber schon nochmals mit Upsampling, Taktung und Schnittstellen befassen.
Digital ist halt wesentlich komplizierter als ....eine CD in einen Player zu schieben.


Viele Grüße Leif
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9193
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

play-mate hat geschrieben: -übrigens auch kein Wunder : CD Daten waren schon niemals ganz richtig....!!!
Hallo Leif
Was spricht für diese These?
Grüße Hans-Martin
Bild
Rossi
Aktiver Hörer
Beiträge: 1107
Registriert: 13.04.2008, 14:40
Wohnort: Bayern

Beitrag von Rossi »

modmix hat geschrieben:Kein Wunder, daß ich Deine Beiträge seit längerem nur noch kopfschüttelnd ignoriere.
Wenn Du das WIRKLICH ernst meinst frage ich mich, warum Du fast jeden Beitrag von Leif kommentieren mußt. Bild

Innerer Drang? Bild
Bild
play-mate
Aktiver Hörer
Beiträge: 448
Registriert: 26.02.2010, 08:18
Wohnort: Berlin

Beitrag von play-mate »

Hallo Hans-Martin,

....das Nyquist-Shannon Theorem z.B. !

Die Erfassung der Samplingpunkte beim A/D Wandler der Aufnahme beruhen darauf.
Diese Theorie erfasst nur die "Wahrheit" bei jeder 44.100 Bruchteils der "analogen" Realität der Sekunde.
-oder wird zusammengestückelt von vielen 96/192 kHz Dateien im Mischpult.

Egal aber was aus dem Studio entsteht, ist eine höhere Samplingrate bei der Übertragung zum D/A Wandler von Vorteil.
Die Daten, bzw. die Qualität der Aufnahme können wir nicht beeinflussen, aber bei der Wiedergabe der Daten müssen wir Jitter unbedingt reduzieren und jedenfalls vermeiden. Datenraten mit >48kHz begünstigen dies.

Interpoliertes Upsampling ändert zwar die Daten, aber sorgt für eklatant weniger Jitter bei der Übertragung zum DAC.
Dies ist eine Erwägung zwischen Pest und Kolera.

Es gibt hier im Forum große Erwartungen, dass man den "Jitter" ultimativ (auch bei 44.1kHz) los werden könnte, wenn nur die Hardware richtig optimiert wird, aber dies ist ein analoger Trugschluss. Es gibt keine 100% genaue Clock.
Engere Taktung jedoch (Daten vorausgesetzt) kann die Genauigkeit der Clock wesentlich erhöhen und ist wesentlich preiswerter.


Gruß Leif
Bild
Bernd Peter
Aktiver Hörer
Beiträge: 4018
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo,

was nützt das Forum, wenn zwar viel geschrieben wird, die essentiellen Aussagen aber nicht verstanden werden (wollen).
Engere Taktung jedoch (Daten vorausgesetzt) kann die Genauigkeit der Clock wesentlich erhöhen
Nein, nein, nein.

Das notwendige Wissen über die Genauigkeit der Clock - wahrscheinlich war die Genauigkeit der Taktung gemeint - ist hier

http://www.aktives-hoeren.de/viewtopic.php?f=30&t=1819

auch für interessierte Laien niedergeschrieben.

Und ferner ist ebenso schon sauber dargestellt worden, daß - je höher die Samplingrate - umso höhere Anforderungen an die Taktung gestellt werden - und eben nicht umgekehrt.


Oder anders gesagt: Höhere Auflösung schreit nach genauerer Taktung. Und das ist eine Sache von penibler Stromversorgung eines Qualitätsoszillators (ggf. mit Clocksynthesizer).

Einen erholsamen schönen Herbstsonntag wünscht


Bernd Peter
Bild
play-mate
Aktiver Hörer
Beiträge: 448
Registriert: 26.02.2010, 08:18
Wohnort: Berlin

Beitrag von play-mate »

Hallo Bernd Peter,

Schade das dein Wille zum Verstehen anscheinend nicht gegeben ist....Es geht nicht um die Genauigkeit der Clock. Es geht darum ob mehr Daten zu Verfügung stehen.
Wenn dies nämlich der Fall ist, sind die Taktintervalle kürzer und ultimativ genauer.

Dies kann man auch deutlich hören.
-probier es doch einfach mal.

L.
Bild
Bernd Peter
Aktiver Hörer
Beiträge: 4018
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo Leif,

wenn die Taktintervalle kürzer werden, dann hat die Clock mehr zu tun, dann sind Zeitabweichungen in der Taktung umso kritischer.

Laß uns ggf. lieber über guten Rotwein reden.

Gruß

Bernd Peter
Bild
Fujak
Moderator
Beiträge: 5753
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Ralf und Ulli,

ich habe heute Abend auch mal die Zeit gehabt, mir Ralfs Beispiele anzuhören und möchte meinen Klangeindruck abgeben:

Zunächst markiert ja die originale 192.0-Aufnahme den einen Pol und die downgesampelte Datei mit 44.1 den anderen Pol der klanglichen Unterschiede.

Dieser Unterschied ist dermaßen drastisch, dass man sich die 1,5 Minuten der 44.1-Aufnhame gar nicht zuende anhören mag. Im folgenden die Parameter, die sich verändern:
1. Die Musik hört auf zu atmen, jede Art musikalischen Flusses stirbt
2. Die auf der 192.0-Aufnahme ungewöhnlich sonor und voll klingende Violine (das meine ich als Violinist positiv), klingt mit 44.1. so, als hätte man den Korpus mit Basotect ausgestopft. Ton klingt schriller/schärfer (wenn auch noch angenehm warm)
3. Der Raum bricht zusammen
4. Der Bassbereich verliert an Kontur
5. Verschliffene Details (wie atmen, mechanische Geräusche wie Saitenschnarren, Bogenanstrich etc.)
6. Verschmierte Höhen.

Ich beschreibe dies so detailliert, weil diese Merkmale mehr oder weniger stark ausgeprägt auch bei den auf 88.2 gesampelten Aufnahmen auftauchen, nur nicht in dem drastischen Ausmaß.

Wenn man nun die 192.0-Aufnahme als "das Maß der Dinge" bei 100% wertet, dann würde ich die anderen Dateien folgendermaßen einwerten, bezogen auf die o.g. klanglichen Parameter:

192.0 Original-Aufnahme: 100%
44.1 CD-Format: 60%
88.2 SRCtest050911cplayHQlin95: 80%
88.2 SRCtest050911cplayHQlin95alias: 81%
88.2 SRCtest050911cplaySRC121: 84%
88.2 SRCtest050911cplaySRC145: 85%
88.2 SRCtest050911sneaky: 84%
88.2 SRCtest050911wavelab_fast: 84%
88.2 SRCtest050911wavelab_ultra: 86%

Soweit mein Eindruck. Wie immer Wavelab es anstellt, aber dieses Downsampling tut mir noch am wenigsten weh, bezogen auf die musikalische und klangliche Qualität. Das etwa bessere Abschneiden des SRC-Resamplers im Gegensatz zu dem SoxHQlin95 deckt sich übrigens auch mit meinem Klangeindruck, den ich hatte, als ich noch Cplay als Player eingesetzt hatte. Das SRC121/145 klingt für meine Begriffe natürlicher und sauberer. Ich hatte seinerzeit einiges an Einstellungen im Sox-Resampler eingestellt, ohne je an den SRC-Resampler klanglich heranzureichen. Dennoch: Im Vergleich mit den anderen - vor allem dem Wavelab - haben sie mich insgesamt nicht überzeugen können.

Danke nochmal an Dich Ralf für diese sehr aufschlussreiche Zusammenstellung der Files. Übrigens: Da ich von Tschaikowskis Violinkonzert No.1 einige Aufnahmen habe, fühle ich mich berufen zu sagen, dass Deine Aufnahme die klanglich beste ist, die ich bislang gehört habe. Bezogen auf die Interpretation der Violinistin gehört sie (neben einer Aufnahme mit Julia Fischer) für mich zu den besten. Es ist ein Genuss, ihr zuzuhören. Das nur als offtopic am Rande.

Grüße
Fujak

P.S.: Gehört habe ich übrigens über die Kette Netbook, G-Hiface, Big Ben, Fireface mit Peaktech an Kopfhörerr und Aktivmonitoren Adam A5X + Teufel Sub M11000.
Bild
Franz
inaktiv
Beiträge: 4422
Registriert: 24.12.2007, 17:07
Wohnort: 53340 Meckenheim

Beitrag von Franz »

Fujak,

kann deine Höreindrücke so auch bestätigen, würde aber nicht wagen, sie in Prozentzahlen auszudrücken. :mrgreen:
Fujak hat geschrieben:Dieser Unterschied ist dermaßen drastisch, dass man sich die 1,5 Minuten der 44.1-Aufnhame gar nicht zuende anhören mag.
So ist es.

Gruß
Franz
Bild
nihil.sine.causa
Aktiver Hörer
Beiträge: 1509
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitrag von nihil.sine.causa »

Hallo Fujak,

beeindruckend, welche Details Du erkennst. Eine Frage: wie hast Du dabei die Dateien auf Deinem Netbook abgespielt? Mit Foobar? Irgendwelche plugins / speziellen Einstellungen?

Gruß Harald
Bild
Fujak
Moderator
Beiträge: 5753
Registriert: 05.05.2009, 21:00
Wohnort: Bayern
Kontaktdaten:

Beitrag von Fujak »

Hallo Franz,
Franz hat geschrieben:kann deine Höreindrücke so auch bestätigen, würde aber nicht wagen, sie in Prozentzahlen auszudrücken.
die Angabe von Prozenten sollte nur versinnbildlichen, wie groß der klangliche Abstand zwischen der originalen 192.0-Datei und der 41.0-Datei im Verhältnis zu den eher geringen klanglichen Unterschieden der 88.2-Dateien von mir empfunden wurde.

Eine echte Maßeinheit für subjektives Klangempfinden gibt es ja zum Glück nicht :wink:

Grüße
Fujak
Bild
Antworten