Andree (Backes & Müller BM Prime 8)

audiophile Biografien unserer Mitglieder
Forumsregeln
Bei Vorstellungen steht die persönliche, subjektive Erfahrungswelt des Verfassers im Vordergrund. Insbesondere soll die Vorstellung als "Visitenkarte" des Mitglieds gewürdigt bzw. respektiert werden. Dialoge sollten hier vorrangig mit dem Verfasser und nicht mit Dritten geführt werden. Siehe auch die Forumsregeln.
Antworten
Buschel
Aktiver Hörer
Beiträge: 989
Registriert: 12.12.2013, 20:12
Wohnort: Raum Karlsruhe

Beitrag von Buschel »

Guten Morgen Hans-Martin,

da hast du mich falsch verstanden. Die 2dB-Absenkung gehört per Design in die Signalverarbeitung, wenn man Resampling ausführt. Wer das nicht tut, riskiert Fehler durch intersample-overs. Solche kann ich bei einigen meiner Alben ohne Absenkung auch real nachvollziehen. Die 2 dB dabei sind eine Anpassung an meine problematischen Alben, theoretisch es kann trotz dieser Absenkung immer noch zu intersample-overs kommen.
Intersample-overs können übrigens auch bei nicht dynamikkomprimierten Titeln auftreten, die nicht einmal voll ausgesteuert sind. Solche Effekte treten nicht nur bei "fehlerbehaftetem" Material auf. Gut visualisierter Exkurs dazu: True Peak Detection.

Für den Hörvergleich habe ich solche Alben aber nicht herangezogen -- also kamen keine aus deiner Sicht "fehlerbehafteten" Alben zum Einsatz. Dennoch benutze ich für Vergleiche natürlich die Signalverarbeitung wie sie auch später für alle Alben benutzt wird.

Viele Grüße,
Andree

PS: Laut logs läuft die Wiedergabe jetzt seit knapp 14h ohne dropouts und ohne clipping. So soll das sein! 8)
Bild
Buschel
Aktiver Hörer
Beiträge: 989
Registriert: 12.12.2013, 20:12
Wohnort: Raum Karlsruhe

Beitrag von Buschel »

Hallo zusammen,

die Beiträge über Latenzen im Betriebsystem haben mich zur Vertiefung meiner Linux-Kenntnisse motiviert. Auf meinem HTPC läuft ja ein durchaus betagtes Linux Mint 17.3 mit einem 4.4.0-148 low latency Kernel. Mit diesem Kernel messe ich durchschnittliche Latenzen im Bereich von 3 us und Maxima von 700 us (idle, über 5 Sekunden) bis 2000 us (Playback incl. SRC, Raumkorrektur und Dithering, über 5 Minuten).

Bild Bild
Latenzen mit low latency Kernel

Mit ein wenig Einlesen in das im Netz verfügbare Material habe ich jetzt für mich zum ersten Mal eigene Kernels gebaut. Mein Ziel war in einem ersten Schritt den bisher genutzten Kernel mit PREEMPT RT Konfiguration zu kompilieren. Die ersten Tests habe ich auf einer VM unter Windows gemacht, erst als das funktioniert hat, habe ich das auf meinem HTPC umgesetzt. Das Ergebnis war zu erwarten, und es ist signifikant. In denselben Zeitfenstern hat sich zwar die durchschnittliche Latenz nicht messbar verändert, aber die maximale Latenz ist deutlich auf 17 us (idle) und 26 us (Playback mit allem drum und dran) gesunken. Ist schon beeindruckend. :shock:

Bild Bild
Latenzen mit RT Kernel

Die nächsten Schritte werden jetzt wohl weitere Basteleien -- vor allem Entschlacken -- am Kernel sein. Ich bin gespannt wie sich das auf das Systemverhalten auswirkt.

Viele Grüße,
Andree
Bild
Buschel
Aktiver Hörer
Beiträge: 989
Registriert: 12.12.2013, 20:12
Wohnort: Raum Karlsruhe

Jahresabschluss 2019

Beitrag von Buschel »

Hallo zusammen,
Buschel hat geschrieben: 08.12.2019, 15:16Die nächsten Schritte werden jetzt wohl weitere Basteleien -- vor allem Entschlacken -- am Kernel sein.
Wie man sich täuschen kann. Die nächsten Schritte waren dann doch andere. :mrgreen:

Zum einen habe ich die noch nicht mit realtime prio laufenden sox-tasks jetzt entsprechend priorisiert. Diese Änderung habe ich vor allem der Stabilität des Audiosignals und des Gewissens wegen gemacht. Jetzt laufen der brutefir Kern und sox mit derselben (hohen) Priotität.

Code: Alles auswählen

for pid in $(pgrep sox); do chrt -p -rr 4 $pid; done

Als weitere Stabilitätsverbesserung wird kodi nach dem Start direkt in den "minimized" Modus gesetzt. Damit läuft kodi immer im verkleinerten Fenster und spart dadurch Rechenzeit für das Rendering.

Code: Alles auswählen

xbmc-send -a Minimize

Den weitaus größten Anteil an Zeit habe ich aber in eine Überarbeitung meiner Acourate-Filter investiert. Im Kern stand dabei die manuelle Optimierung der Pre-Filter wie in diesem Beitrag beschrieben. Mein Ziel war es dabei durch gezielte Anwendung von IIR-Filtern eine stärker geglättete Basiskorrektur erlauben zu können. Außerdem wollte ich eine andere Lösung als die psychoakustische Glättung für das "Auffüllen" der Auslöschungen, generell weniger aggressive Anhebung bei Auslöschungen und als Sahnehäubchen noch Filter mit 128k taps nutzen. Im Ergebnis berechne ich jetzt Pulsemp.dbl in vier Schritten:
  1. Pre-Filter auf den (aus Mehrpunktmessungen ermittelten) Frequenzgang anwenden
  2. Minimalphase extrahieren
  3. FDW 25/10 zur ersten Glättung
  4. 1/3 Oktav Glättung zum Füllen der Auslöschungen
  5. MaxEnvelope von (3) und (4)
  6. FDW 25/10 zur finalen Glättung
  7. Speichern als Pulsemp.dbl
Bild
Schritte 3-6 von unten nach oben

Dann auf Basis von Zielkurve und Pulsemp.dbl die Inversion per Hand ermitteln und die Filter mit Makro 4 mit "double length" generieren. Die längeren Filter geben mir das gute Gefühl, dass ich durch meinen Umstieg von 44,1 kHz auf 96 kHz nicht zu viel Frequenzauflösung verliere. Wie man unten sehen kann, ist das noch kein riesiger Unterschied zum alten Filter. Ich habe die Glättung nur leicht zurückgenommen, weil die Prime 8 doch noch Korrekturen im Mittel- und Hochton braucht, die ich nicht aufgeben möchte.

Bild
Neues Filter mit Pre-Filter unten, oben die alte Version

Bild

Ergebnis nach FDW 25/10

Wie hört sich das an? Die Zielkurve (eine Art B&K mit geringerer Steilheit) ist dieselbe, von daher lassen sich alte und neue Filter gut vergleichen. Beide Filter klingen sehr ähnlich, wobei die neuen Filter in einige Titeln (etwas) mehr Bass zeigen (z.B. Peter Gabriel´s Don´t Give Up). Und tatsächlich: Im direkten Vergleich werden mit den neuen Filtern Löcher zwar wie gewünscht im Bereich 100-300 Hz weniger aggressiv aufgefüllt, aber im hier nicht gezeigten rechten Kanal ist trotzdem insgesamt etwas mehr Pegel im Bass vorhanden.

Weil ich gerade dabei war und sowieso neue 128k-tap Filter erstellen musste, habe ich die beiden Loudness EQ-Filter und das Korrekturfilter für meinen Kopfhörer neu generiert. Bei den alten Filtern hatte ich vergessen "Brick" im Makro 4 zu aktiveren, was zu Brickwallfiltern in den Filtern für viele Abtastraten geführt. Jetzt laufen die Filter schön konstant weiter.

Bild
Korrigiertes EQ-Filter am Beispiel 96 kHz mit und ohne Brickwall

Damit bin ich in diesem Jahr um einiges weiter gekommen:
  • Sample Rate Conversion über sow in Software - check
  • Dithering auf 24 Bit Zielauflösung - check
  • Wiedergabe über robuste pipe anstatt alsa-loop - check
  • realtime prio für relevante Audio Prozesse - check
  • realtime Kernel - check
  • per Fernbedienung schaltbare Loudness - check
  • 128k taps Filter - check
Mal schauen was das nächste Jahr bringt. :cheers:

Viele Grüße und schöne Feiertage!
Andree
Bild
Buschel
Aktiver Hörer
Beiträge: 989
Registriert: 12.12.2013, 20:12
Wohnort: Raum Karlsruhe

Beitrag von Buschel »

Hallo zusammen,

es ist wieder einmal Zeit für ein kleines Update aus meiner Ecke. In den letzten Tagen hat mich resample_soxr weiter beschäftigt. Ich wollte vor allem schauen wie sich resample_soxr im Vergleich zu soxr schlägt, welchen Einfluss "precision" auf das Filterergebnis hat, und ob dieser Einfluss messbar ist. Um es kurz zu machen: resample_soxr ist im Bereich CPU-Bedarf, Genauigkeit sowie Robustheit zum Teil gravierend überlegen. Dazu später mehr. Ein erhöhter Wert für "precision" bringt durchaus messtechnisch bessere Ergebnisse. Das lässt sich nicht direkt an der Auswertung der Impulsantwort erkennen (diese hat immer nur 32 Bit Präzision), aber sehr wohl mit echten Signalen.

Sehr schön kann man die Auswirkungen von "precision" sehen, wenn man einen logsweep durch resample_soxr jagt. Je höher "precision", desto stärker wird der Aliasinganteil unterdrückt. Bei meinen Messungen um etwa 12 dB pro 2 Bit, was der Erwartung entspricht. (Erst) ab "precision=33" kann ich mit dieser Messmethode gar kein Aliasing mehr erkennen. Zur besseren Visualisierung der Relation habe ich noch ein Signal mit Dithering auf 24 Bit ergänzt. Für diesen Fall liegen die Aliasingstörungen selbst bei "precision=28" noch mehr als 20 dB unter dem Rauschteppich. Da mein DAC nur 24 Bit annimmt, werde ich also weiterhin mit "precision=28" arbeiten und nicht auf 33 gehen.

Bild
Sperrdämpfung im Sweep bei etwa fs/2

Die Genauigkeit und Robustheit von reample_soxr ist sox überlegen. Bei sox kommt es bei einigen meiner Testsignale -- z.B. dem Jitter-Dunn-Signal -- zu heftigen (!) Übersteuerung, wenn ich das Signal nicht absenke. Bei resample_soxr geschieht dies nicht. Außerdem ist bei resample_soxr der Rauschteppich bei Jitter-Test noch einmal ruhiger als bei sox. Dazu kommt noch, dass resample_soxr auf meinen 4i3 nur etwa 50% der CPU-Zeit benötigt, die ein vergleichbares sox-Filter mit "precision=28" braucht. Selbst bei Filtern mit "precision=33" ist resample_soxr noch deutlich genügsamer. Das hatte ich so nicht erwartet.

Insgesamt ist resample_soxr damit klarer Gewinner. Ich werde es weiter -- mit Anpassung des source codes auf "precision=28" -- nutzen.

Viele Grüße,
Andree
Bild
frankl
Aktiver Hörer
Beiträge: 489
Registriert: 20.01.2013, 01:43
Wohnort: Aachen

Beitrag von frankl »

Hallo Andree,

vielen Dank, dass Du Deine Untersuchungen zum Verhalten von resample_soxr hier teilst!

Da es anscheinend interessant für Dich ist, den 'precision' Parameter aus der soxr-Bibliothek ändern zu können, habe ich jetzt eine passende Option '--precision' in resample_soxr eingebaut (im Repository zu finden).

Ich kann allerdings nur einen marginalen Unterschied in der CPU-Last zwischen --precision=28 und --precision=33 feststellen, wenn ich etwa von 44100 auf 192000 upsample.

Viele Grüße,
Frank
Bild
Buschel
Aktiver Hörer
Beiträge: 989
Registriert: 12.12.2013, 20:12
Wohnort: Raum Karlsruhe

Beitrag von Buschel »

Hallo Frank,

das mache ich gerne. An dich geht der Dank für die Tools selbst, eine tolle Spielwiese. :wink:
Die neue Version installiere ich in den nächsten Tagen.

Auch mit resample_soxr bleibt das messtechnisch schlechtere Verhalten bei Upsamlng auf gerade Vielfache. Für den Test wurden alle Signale mit float64 gerechnet und gespeichert. Als Konfiguration wurde sox mit "rate -v -b 93" und resample_soxr mit "-B 89 -P 50" gewählt, was in etwa vergleichbare Filter ergibt. Die Ergebnisse unterscheiden sich bei "precision=28" oder "precision=33" nicht.

Die unteren Bilder zeigen das Spektrum des Original-Dunn-Jitter-Test-Signals bei 44,1 kHz (blau), Upsapling auf 88,2 kHz (grün) und Upsampling auf 96 kHz (rot). Bei Upsampling auf 88,2 kHz sieht man sehr deutlich, dass periodische Störungen oberhalb von fs/2 auftreten, die aus dem Rauschteppich bei etwa -190 dB um etwa +20 dB herausragen. Bei Upsampling auf 96 kHz entsteht zwar ein um etwa 3 dB höherer Rauschteppich, aber es treten keine periodischen Störungen auf. Das zeigt auch der detaillierte Blick um das Nutzsignal herum. Bei 88,2 kHz Upsampling sind deutliche Spikes (= periodische Störungen) zwischen den Nutzsignal-Peaks zu sehen.

Bild
Jitter-Verhalten im Nutzsignalbereich, blau=Original@44,1 kHz, rot=96 kHz, grün=88,2 kHz

Bild
Jitter-Verhalten außerhalb des Nutzbereich (rechte Hälfte), blau=Original@44,1 kHz, rot=96 kHz, grün=88,2 kHz

Noch einmal kurz zur CPU-Last: Ich habe Messungen von einigen Konfigurationen über jeweils einen Zeitraum von mehreren Stunden gemacht. Für sox und resample_soxr habe ich wieder die oben genannten Einstellungen gewählt. Der Unterschied zwischen "precision=28" und "precision=33" ist bei mir auch nur marginal (2.1% zu 2.3%). Der Unterschied zwischen soxr und resample_soxr ist aber recht deutlich.

Pipe 1: kodi 44.1 k int32> sox int32 zu float64 > resample_soxr 44.1k float64 zu 96k float64 > ... Rechenzeit: sox 0.2%, resample_soxr 2.1%
Pipe 2: kodi 44.1k float32> sox 44.1k float32 zu 96k float64 > ... Rechenzeit: sox 5.3%

Seit zwei Wochen lasse ich die unterschiedlichen Anwendungen der Pipe auch auf unterschiedlichen Threads laufen. Der Datenlieferant kodi läuft auf Core 1, die letzte Stufe vor alsa (playhrt oder sox) läuft auf Core 3, alles dazwischen (sox, resample_soxr, brutefir) auf Core 2. Der Kernel darf aber (noch) Core0-4 benutzen. Das Isolieren von Cores über isolcpus ist die nächste Baustelle, die mich interessiert.

Von playhrt als Teil meiner Default-Pipe habe ich erst einmal Abstand genommen, weil ich zum einen das Nachregeln der Clock irgendwie immer noch als zwar notwendigen aber wenig eleganten Ansatz empfinde. Zum anderen störe ich mich noch am Buffer-Management. playhrt füllt den Puffer immer mit der "echten" Datenrate und startet playback erst ab 50% gefülltem Puffer. Damit ergibt sich in meinem Fall etwa 80 ms Verzögerung, die mich bei Filmwiedergabe stört. Ich suche nach einer Lösung, die schnell die Wiedergabe (<=10 ms) startet und den Puffer schnell bis 50% Puffer füllt, um erst danach in den regulären Takt zu fallen. Damit bekomme ich kurzes Delay kombiniert mit hoher Betriebssicherheit. Mal schauen...

Viele Grüße,
Andree
Bild
Buschel
Aktiver Hörer
Beiträge: 989
Registriert: 12.12.2013, 20:12
Wohnort: Raum Karlsruhe

Beitrag von Buschel »

Hallo zusammen,

es wundert mich ja ein wenig, dass bei so vielen "Upsamplern" und Abneigung gegen ungeradzahliges Upsampling noch keine Kommentare zu den Ergebnissen mit sox/soxr gekommen sind. soxr wird ja über ffmpeg ebenfalls von einigen hier eingesetzt. Die periodischen Störungen sind nicht erstrebenswert ...

Aber egal. Die Mitleser wollen ja offenbar lieber von Geräteupdates lesen. Und diesbezüglich habe ich nach langer Zeit auch mal eines zu vermelden. Aus Interesse habe ich eine kleine Intona USB2.0 Isolator Büchse und ein passendes USB-A auf -B Kabel von Wireworld bestellt. Ausschlag gegeben hat dazu ein Bericht auf der hier verschmähten weil zu technisch fokussierten Seite audiosciencereview (Klick mich), in dem der Intona der einzige USB-Isolator mit messbar positiver Wirkung und -- das scheint nicht so einfach zu sein -- nahezu keinen negativen Seiteneffekten war. Da ich schätze, dass mein guter alter NUC am USB nicht gerade ein Saubermann ist, wollte ich diesen Versuch wagen. Anzumerken ist, dass die neue Serie des Intona Isolators (Klick mich) jetzt mit wesentlich ansprechenderem Gehäuse versehen ist: Blechgehäuse mit Metallfront. Das Teil ist überraschend klein und massiv und wirkt auch dadurch schon sehr wertig. Auf dem Foto sieht man gut den Größenvergleich zum NUC.

Bild
Per USB vom NUC zum Intona Isolator zum DAC

Bisher habe ich das Teil nur grundsätzlich in Betrieb genommen und geprüft, ob die Ausgabe per USB Audio Class 2 an den DAC weiterhin stabil funktioniert. Und ja, das tut sie. Sobald ich von meiner Dienstreise wieder zurück bin kann ich auch ein wenig mehr Zeit mit Hören verbringen.

Viele Grüße vom Flughafen,
Andree

PS: Hat uns gestern ein Flieger beim Wandern an den Himmel gepinselt. Einfach zu nett, um das nicht zu teilen.
Bild
Bild
Horse Tea
Aktiver Hörer
Beiträge: 1728
Registriert: 19.03.2016, 20:22
Wohnort: Unterfranken

Beitrag von Horse Tea »

Wunderschön!
:cheers:
Bild
h0e
Administrator
Beiträge: 3881
Registriert: 11.11.2013, 09:40
Wohnort: München

Beitrag von h0e »

Buschel hat geschrieben: 16.02.2020, 11:41 es wundert mich ja ein wenig, dass bei so vielen "Upsamplern" und Abneigung gegen ungeradzahliges Upsampling noch keine Kommentare zu den Ergebnissen mit sox/soxr gekommen sind. soxr wird ja über ffmpeg ebenfalls von einigen hier eingesetzt.
Hallo Andree,

es wurde durchaus Einiges zum Upsampling gradzahlig, ungradzahlig in Verbindung unter anderem mit FFMpeg berichtet.
Es scheint mir allerdings, das die DAC-spezifischen Parameter viel mehr zum Tragen kommen als die von Dir berichteten Störungen.
Bei mir klingt es gradzahlig besser als ungradzahlig, wobei die Unterschiede klein sind und ich auf Dithering verzichte.
Gert hat berichtet, dass er beim G-Dac alles auf 192kHz sapled, weil das beim ihm besser klingt.

Tatsächlich fand ich Deine Ergebnisse aber irritierend, das hätte ich so nicht erwartet. :roll:

Grüsse Jürgen
Bild
Tinitus
Aktiver Hörer
Beiträge: 1323
Registriert: 10.11.2013, 21:48

Beitrag von Tinitus »

Buschel hat geschrieben: 16.02.2020, 11:41 Hallo zusammen,

es wundert mich ja ein wenig, dass bei so vielen "Upsamplern" und Abneigung gegen ungeradzahliges Upsampling noch keine Kommentare zu den Ergebnissen mit sox/soxr gekommen sind. soxr wird ja über ffmpeg ebenfalls von einigen hier eingesetzt. Die periodischen Störungen sind nicht erstrebenswert ...

Hallo Andree,

geschrieben habe ich nichts, zur Kenntnis genommen habe ich es schon und daraufhin, mein Upsampling wieder auf 96 kHz umgestellt. Das hatte ich benutzt, als ich meine Filter mit REW und DRCDesigner erstellt habe. Jetzt verwende ich acourate und da man damit ja bequem Filter in verschiedenen Auflösungen erstellen kann, hatte ich zunächst 88,2 kHz gwählt. Da ich ein Linux Laie bin läuft bei mir Daphile auf einem CI620, ich kann da erkennen, dass das Upsampling mit sox erledigt wird, ich weiß nicht, ob da dann soxr oder resample_soxr verwendet wird.
Buschel hat geschrieben: 16.02.2020, 11:41 Hallo zusammen,

Ausschlag gegeben hat dazu ein Bericht auf der hier verschmähten weil zu technisch fokussierten Seite audiosciencereview
Mein Problem mit dieser Seite ist eher, dass bei den Messungen nicht immer sauber gearbeitet wird und die Darstellung der Ergebnisse manchmal tendenziös ist, was es für mich als Laien schwierig macht, im Einzelfall zu erkennen, ob ich dem Dargebotenem vertrauen kann bzw. Ob da überhaupt zur Beantwortung der Fragestellung Relevantes gemessen wurde.
Jemand meinte mal DAC hauptsächlich nach SINAD zu bewerten ohne sich anzuschauen, wie zum Beispiel ein Sinus bei -90 oder -120 dBFS aussieht, wäre wie einen Monitor nur nach der Auflösung zu beurteilen ohne Wert darauf zu legen, ob er Farben gereu darstellt.

Da schon die Dokumentation meiner acourate Messungen, die ich nur für mich mache, recht zeitaufwändig sind, danke an dich, dass du deine Bemühungen für uns alle so gut dokumentierst. Mich interssiert sowas mehr als Berichte über die neuesten Gerätschaften oder Kabel.

Gruß

Uwe
Bild
StreamFidelity
Aktiver Händler
Beiträge: 1606
Registriert: 24.09.2017, 14:50
Wohnort: Hansestadt Rostock
Kontaktdaten:

Fließkommafehler vs. Klang

Beitrag von StreamFidelity »

Hallo Andree,

gut dass Du nochmal nachgefasst hast. Deine Messergebnisse finde ich verblüffend. Eigentlich müssten Fließkommafehler doch genau das Gegenteil aufzeigen.
h0e hat geschrieben: 16.02.2020, 12:38 Bei mir klingt es gradzahlig besser als ungradzahlig, wobei die Unterschiede klein sind und ich auf Dithering verzichte.
Gert hat berichtet, dass er beim G-Dac alles auf 192kHz sapled, weil das beim ihm besser klingt.
Ich war auch einer derjenigen, der geradzahliges Upsampling bevorzugte. Mit dem AcourateConvolver erfolgt bei mir jetzt einheitlich ein Upsampling auf 192kHz/32Bit. Bei mir ergibt sich insgesamt ein ruhigeres Klangbild. Vermutlich aber auch dadurch begünstigt, dass mein DAC (R2R) nicht mehr umschalten muss.

Grüße Gabriel
Bild
Buschel
Aktiver Hörer
Beiträge: 989
Registriert: 12.12.2013, 20:12
Wohnort: Raum Karlsruhe

Beitrag von Buschel »

Hallo zusammen,

vielen Dank für eure Rückmeldungen. Das ermutigt mich auf jeden Fall, mich in meinen "Blog" hier weiterhin mit eher technischen Dingen zu beschäftigen. :cheers:
h0e hat geschrieben: 16.02.2020, 12:38Bei mir klingt es gradzahlig besser als ungradzahlig, wobei die Unterschiede klein sind und ich auf Dithering verzichte.
Auf Dithering zu verzichten, ist keine gute Idee (siehe auch das im Beitrag von Uli verlinkte Dokument). Warum? Zum einen solltest du beim Upsampling eine Absenkung des Pegels machen, um Übersteuerungen durch Intersample-Overs zu vermeiden. Ansonsten kann es zu richtig "harten" Klickgeräuschen kommen. Zum anderen macht eventuell nachgeschalte Raumkorrektur weitere frequenzabhängige Pegelabsenkungen. Am Ende der Audioverarbeitung wird wieder alles in Integer umgewandelt und damit neu quantisiert. Bei dieser letzten Stufe kommt es ohne Dither zu den üblichen nichtlinearen Verzerrungen und Oberwellen. Dither vermeidet das, und darüber hinaus können Signalanteile unterhalb der eigentlichen Auflösung erhalten werden. Wenn du einen 24 Bit Titel mit Absenkung / Raumkorrektur behandelst und wieder auf 24 Bit ausgibst, verschwinden ohne Dither die absenkte Signalanteile im Quantisierungsgeräusch -- mit Dither bleiben diese durchaus erhalten (schau dir mal einen Sinus von -100 dBFS bei 16 Bit ohne und mit Dither an). Und gerade beim Upsampling auf hohe Abtastfrequenzen wird es spannend, weil dann mit Rauschformung noch mehr herausgeholt werden kann.

Die Kernfrage ist: Mit welcher Auflösung gehst du in den DAC, und was macht dein DAC damit? Mein DAC z.B. nimmt 32 Bit an und behält davon nur die obersten 24 Bit. In diesem Fall ist ein vorheriges Dithering auf 24 Bit optimal.
Tinitus hat geschrieben: 16.02.2020, 16:35Da ich ein Linux Laie bin läuft bei mir Daphile auf einem CI620, ich kann da erkennen, dass das Upsampling mit sox erledigt wird, ich weiß nicht, ob da dann soxr oder resample_soxr verwendet wird.
Klar ist: resample_soxr wird nicht benutzt. Aber, ob soxr (über ffmepg) oder sox angewendet wird und mit welchen Parametern, ist mir nicht klar. Die über einfache Internetsuche auffindbaren Informationen sind leider nicht eindeutig.
Tinitus hat geschrieben: 16.02.2020, 16:35Darstellung der Ergebnisse manchmal tendenziös ... Jemand meinte mal DAC hauptsächlich nach SINAD zu bewerten ohne sich anzuschauen, wie zum Beispiel ein Sinus bei -90 oder -120 dBFS aussieht, wäre wie einen Monitor nur nach der Auflösung zu beurteilen ohne Wert darauf zu legen, ob er Farben gereu darstellt.
Das stimmt natürlich. Bei vielen der Reviews gehen die Messungen aber weit über SINAD hinaus -- gerade Jitter, Linearität, Multitone oder auch Aliasing/Filter sehe ich selten in so einem Detailgrad wie z.B. beim Review des HOLO May.

Der HOLO May ist übrigens offenbar technisches Meisterwerk. Hut ab! Weitere Messungen gibt es auch auf superbestaudiofriends. Ich muss mal schauen, ob ich das Teil genauer anschaue und evtl. auf die Raumkorrektur für Filme verzichte... Bei Filmen machen die Moden durchaus Laune. :mrgreen:

Grüße,
Andree
Bild
h0e
Administrator
Beiträge: 3881
Registriert: 11.11.2013, 09:40
Wohnort: München

Beitrag von h0e »

Buschel hat geschrieben: 23.02.2020, 19:23 Die Kernfrage ist: Mit welcher Auflösung gehst du in den DAC, und was macht dein DAC damit? Mein DAC z.B. nimmt 32 Bit an und behält davon nur die obersten 24 Bit. In diesem Fall ist ein vorheriges Dithering auf 24 Bit optimal.
Hallo Andree,

beim geht geht mit 24/176 bzw 24/192 vom Linn in den Arfi-Dac 2.
Was der intern macht, weiß ich nicht.
Ich habe mich gehörmäßig für diese Auflösung und auch gegen Ditherung entschieden.
Raumkorrektur oder andere Filter werden nicht gerechnet.

Grüsse Jürgen
Bild
Tinitus
Aktiver Hörer
Beiträge: 1323
Registriert: 10.11.2013, 21:48

Beitrag von Tinitus »

Hallo Andree,

der Holo May ist mir auch schon aufgefallen.
Allerdings wäre für mich NOS nur interessant, um wie Gabriel zu vermeiden, das neben meiner Manipulation mit digitalen Filtern der DAC noch zusätzlich manipuliert. das Ding wird demnächst bei Magna-HiFi für ca. 4300 € in der Basisversion erhältlich sein. Seitdem ich fest gestellt habe, dass ich mich schwertue Unterschiede zwischen verschieden DAC zu hören, bin ich da raus.

Gruß

Uwe
Bild
Buschel
Aktiver Hörer
Beiträge: 989
Registriert: 12.12.2013, 20:12
Wohnort: Raum Karlsruhe

Beitrag von Buschel »

Hallo Jürgen,
h0e hat geschrieben: 23.02.2020, 22:26beim geht geht mit 24/176 bzw 24/192 vom Linn in den Arfi-Dac 2.
Wie spielst du dem Linn denn zu? 32 Bit WAV (z.B. 32/176) oder 24 Bit WAV (24/176)? So wie ich das sehe wäre Dithering da auf jeden Fall angebracht. Entweder beschneidet convofs auf 24 Bit oder der Linn macht das. Mit welchen Parametern du Dithering getestet hast, ist mir nicht klar. Wenn du z.B. 32 Bit WAV an den Linn gibst, muss man Dither schon mit speziellen Parametern erzwingen. Sonst wird der Schalter bei 32 Bit Ausgabe ignoriert.
Wenn du Interesse hast, kann ich dir ein paar Varianten eines hochgeladenen Titels mit verschiedenen Einstellungen erstellen, die du dann allerdings ohne weiteres processing abspielen solltest.

Viele Grüße,
Andree

P.S. und nur aus Interesse: Weiß jemand, ob convofs vor dem resampling eine Pegelabsenkung vornimmt?
Bild
Antworten