AcourateNAS mit AcourateFLOW
Verfasst: 19.06.2012, 22:57
Hallo Freunde des Guten Tons !
Ich schreibe derzeit unter dem Einfluss von zuviel Adrenalin, Dopamin und Serotonin im Körper, bitte verzeiht mir falls ich zu überschwänglich erscheinen mag.
Es findet zumindest für mich derzeit einer der seltenen Quantensprünge statt. Das kennt Ihr vielleicht: die Erfolgskurve verläuft immer flacher, der Aufwand wird im Verhältnis zum Erfolg immer größer. Und nur ein Quantensprung bringt uns dann weiter. Und ich glaube ernsthaft, dass die digitale Audiowelt springen wird.
Und dazu will ich heute etwas posten.
Vor ca. zwei Wochen habe ich einen Artikel gelesen. Eigentlich ein ganz normaler Artikel. Und mich hat dabei der Hammer getroffen. Mit einem Schlag wurde mir klar, dass da etwas in der Luft liegt, was getestet werden muss. Es wird plötzlich vieles schlüssig und die Mosaiksteine fügen sich im Puzzle.
Und es gibt dabei glücklicherweise auch einen Fachmann und Freund, mit dem ich das unbedingt diskutieren musste. Und schon während ich ihm ein erstes Email mit dem Titel "Nächstes Quant" schrieb, wusste ich, dass eben dieser Mensch schon immer irgendwie in diese Richtung argumentiert hat (auch hier in Foren-Beiträgen). Ich hab ihn bloss vorher nie ganz verstanden.
Mein persönlicher Dank gebührt ganz klar Hans-Martin !
In der nachfolgenden Diskussion mit ihm wurden die Dinge klar und offensichtlich. Und man versteht das Bild von den Bäumen und dem Wald.
Also was geht nun ab? Was ist passiert ?
Der Artikel beschreibt die Änderung der Lokalisierungsrichtung abhängig von der Frequenz. Und es gibt dazu einige Artikel, wenn nicht sogar tiefgehende wissenschaftliche Arbeiten und Dissertationen. Dazu gehören beispielsweise auch Artikel von Sengpiel oder Theile. Ich hab da auch schon vorher welche gelesen, ohne dass es bei mir geklickt hat. Es gibt auch Hardwarelösungen, siehe Stichwort Shuffler. Also eigentlich alles nix Neues.
Es geht nun konkret um Folgendes:
Wenn wir uns ein Schallereignis, z.B. ein Musikinstrument auf Höhe der LS nahe eines der LS vorstellen, ist uns selbstverständlich bewusst, dass wir das Instrument als eine natürliche Schallquelle erkennen. Bei Stereo wird dies nun durch die zwei Lautsprecher ersetzt. Wir bekommen ein Phantombild. Optimalerweise an jenem Ort und noch besser, wenn es uns natürlich erscheint. Unser Hörorgan und unser Hirn leisten dabei eine tolle Arbeit. Es soll ja aus einem Fake etwas halbwegs Reales entstehen.
Dennoch, wir hören nicht optimal. Kopfgeometrie, Ohrmuscheln und die Physik der Schallwellen bewirken, dass wir Schallereignisse, die links+rechts phasengleich aber mit unterschiedlichen Pegel wiedergeben, nicht immer demselben Ort zuordnen. Tiefe Frequenzen tendieren zur Mitte (wir sind hier eher für Phasenlaufzeiten sensibel), hohe Frequenzen tendieren weiter nach aussen (oberhalb ca. 1 kHz sind wir für Pegelunterschiede sensibel).
Das bedeutet, dass sich trotz korrektester Wiedergabe eines Systems keine 100% klare Fokussierung einstellen kann, eben weil sich das Frequenzgemisch hinsichtlich Lokalisation auseinanderzieht ! Und unser Hirn muss extra arbeiten, um das akustische Geschehen zu verstehen.
Also braucht es eine Lösung hierzu. Mit der Aufgabenstellung, dass frequenzabhängig die Pegelverhältnisse links/rechts im Stereosignal so geändert werden, dass die Lokalisierung eines Ereignisses passt. Stellen wir uns ein Monosignal vor, welches mit einem Pegelunterschied links/rechts verteilt wird. Ändert sich das Verhältnis, so wandert das Signal. Eine solche Änderung ergibt sich z.B. aus dem Übersprechen eines Kanals auf den anderen. Das wäre dann entsprechend technisch umzusetzen und zwar entsprechend den jeweiligen Höreigenschaften.
Und bei dieser Überlegung klingelt es mit Riesenglocken: bei der guten alten Analogwiedergabe von einer Schallplatte, vielfach besser als die Digitaltechnik gepriesen, gibt es einen dicken Fehler. Die Kanaltrennung ist schlecht, bestenfalls -30 dB ! Ein dickes Übersprechen der Kanäle. Bewirkt das nicht zufällig genau das, was nun die Aufgabe ist?
Hans-Martin hat seit einiger Zeit unabhängig von mir bereits einige Musikstücke bearbeitet und ein Crosstalk hinzugefügt. Und diese einigen Leuten auch hier im Forum zukommen lassen. Ergebnis: pretty much better !
Nun hat sich mir also die Frage nach einer technischen Umsetzung gestellt. Mit der Annahme, dass je nach Person, Anlagenkonfiguration (Beispiel: meine Eckwoofer=tiefe Frequenzen stehen weiter aussen, bei den AGMs sind die Hochtöner innen angeordnet und eingewinkelt) und auch Hörraum sich evtl. die frequenzabhängige Lokalisierung jeweils anders darstellt.
Die Lösung hat sich nun als erstes im AcourateNAS eingenistet. Kinder brauchen einen Namen, möglichst sinnvoll. Es ist dabei der Begriff AcourateFLOW entstanden. Er gibt passend wieder, was als Ergebnis erreicht wird. Ein Fliessen und Gleiten der Musik ohne Anstrengung. Eine Entlastung des Gehirns. Welches es seinerseits mit überraschenden Effekten hinsichtlich Zunahme an Grundton, Wärme, Räumlichkeit und Feinauflösung dankt.
AcourateFLOW funktioniert dergestalt, dass es die Möglichkeit bietet, anhand von drei Testtönen die Lokalisierung zu ermitteln. Der mittlere Ton dient als Referenz. Anhand von zwei Schiebereglern kann nun der tiefere Ton um 315 Hz nach aussen verschoben werden, der hohe Ton um 4 kHz nach innen. Die Testtöne klingen etwas befremdlich, dienen aber ihrem Zweck.
Sofern keine Soundkarte zur Verfügung steht, gibt es zudem die Möglichkeit die Stellung eines Schiebereglers vorzugeben und es wird eine entsprechende wav-Datei erzeugt. Somit lassen sich dann mehrere wav-Dateien generieren und man kann dann durch Abhören und Vergleichen feststellen, welche Datei Töne produziert, die sich bestmöglich aus derselben Richtung kommend lokalisieren lassen.
Letztendlich ergeben sich dann für den tiefen als auch den hohen Ton Einstellwerte, die dem gegebenen Ziel entsprechen.
Damit lässt sich für das eigene Gehör eine Art Kalibrierung durchführen.
AcourateFLOW erzeugt dann anhand der Parameter intern entsprechende frequenzabhängige Korrekturkurven. Mit dem Start der Bearbeitung werden dann die ausgewählten Musikdateien/Verzeichnisse zusätzlich zu vorhandenen Korrekturfiltern bearbeitet. Für diejenigen, denen keine Raumkorrekturfilter zur Verfügung stehen oder die lieber online falten, besteht die Möglichkeit, die Korrekturfilter abzuwählen und nur mit AcourateFLOW zu arbeiten.
AcourateNAS inkl. AcourateFLOW steht zum Download zur Verfügung und wird hiermit offiziell gelauncht (V1.3.1). Für die schon bestehenden Anwender ist dies ein kostenloses Update. Der Preis wird bis zum 31.8. weiterhin beibehalten, danach wird er um 30 € steigen (auf 180 €).
Ich bin mittlerweile überzeugt, dass die Vinylfraktion mit dem besseren Klang Recht hat. Dies aber nur zufällig, eben weil die Rille als auch die Tonabnehmer ein mehr oder weniger günstiges Übersprechverhalten (je nach verwendetem Material) bewirken. Die Begründungen hinsichtlich der fehlenden Bandbreitenbegrenzung im Vergleich zur digital gesampelten sind für mich nicht wirklich schlüssig. Eher Mumpitz. Mit AcourateFLOW erfolgt eine verbesserte Feinauflösung, die eben gerade der analogen Wiedergabe vorbehalten war. Obwohl sich hinsichtlich des Sampelns und der Abtastrate ja gar nichts ändert! Harald hat bei seinem gestrigen Besuch beim Vergleich einer Acousence-Aufnahme im CD-Format wenn auch scherzhaft angemerkt, dass die AcourateFLOW-Version sich wie 384 kHz anhört.
Es ist auch festzustellen, dass ein gewisses Paradoxon entsteht. Wenn sich Frequenz- und Phasengänge einer unkorrierten LS-Wiedergabe kreuzen, kann klar gefolgert werden, dass keine präzise Abbildung entstehen kann. Wenn nun mit Acourate eine Korrektur erfolgt, dann wird dieses Verhalten nachgewiesenermassen verbessert. Aber gleichzeitig wird damit auch eine größere Kanaltrennung erzielt, die ihrerseits kontraproduktiv wirkt. Mit AcourateFLOW lässt sich das nun zusätzlich gezielt optimieren. Es macht also Sinn, beide Korrekturverfahren einzusetzen.
Derzeit ist die AcourateFLOW-Lösung eine offline-Lösung zur Bearbeitung der gerippten Musikbibliothek. Zur Wiedergabe derselben per Streamer und Player. An einer online-Lösung werde ich ebenfalls arbeiten.
Es gibt sicher noch einiges zu untersuchen. Man kann auch viel Aufwand betreiben, z.B. Erhöhung der Anzahl der Testtöne. Man kann auch im Eigenversuch ohne Testtöne ein Musikstück solange mit Parametervariation beackern, bis sich ein Optimum ergibt.
Auch sei nochmal Hans-Martin zitiert, welcher die These vertritt, dass nun vermutlich der Unterschied zwischen invertierten und nicht-invertierten Polaritäten noch deutlicher erfassbar wird.
Wenn ich mir nun vorstelle, dass man ausgehend von den nun neuen "alten" Erkenntissen auch entsprechende Schaltungen bewerkstelligt (ich seh z.B. schon Gert am Analogausgang der Linns basteln), dann könnte ein "analoges Digitalzeitalter" eingeläutet werden.
Ein Quantensprung. Spinn ich, oder?
Viele Grüsse
Uli
Ich schreibe derzeit unter dem Einfluss von zuviel Adrenalin, Dopamin und Serotonin im Körper, bitte verzeiht mir falls ich zu überschwänglich erscheinen mag.
Es findet zumindest für mich derzeit einer der seltenen Quantensprünge statt. Das kennt Ihr vielleicht: die Erfolgskurve verläuft immer flacher, der Aufwand wird im Verhältnis zum Erfolg immer größer. Und nur ein Quantensprung bringt uns dann weiter. Und ich glaube ernsthaft, dass die digitale Audiowelt springen wird.
Und dazu will ich heute etwas posten.
Vor ca. zwei Wochen habe ich einen Artikel gelesen. Eigentlich ein ganz normaler Artikel. Und mich hat dabei der Hammer getroffen. Mit einem Schlag wurde mir klar, dass da etwas in der Luft liegt, was getestet werden muss. Es wird plötzlich vieles schlüssig und die Mosaiksteine fügen sich im Puzzle.
Und es gibt dabei glücklicherweise auch einen Fachmann und Freund, mit dem ich das unbedingt diskutieren musste. Und schon während ich ihm ein erstes Email mit dem Titel "Nächstes Quant" schrieb, wusste ich, dass eben dieser Mensch schon immer irgendwie in diese Richtung argumentiert hat (auch hier in Foren-Beiträgen). Ich hab ihn bloss vorher nie ganz verstanden.
Mein persönlicher Dank gebührt ganz klar Hans-Martin !
In der nachfolgenden Diskussion mit ihm wurden die Dinge klar und offensichtlich. Und man versteht das Bild von den Bäumen und dem Wald.
Also was geht nun ab? Was ist passiert ?
Der Artikel beschreibt die Änderung der Lokalisierungsrichtung abhängig von der Frequenz. Und es gibt dazu einige Artikel, wenn nicht sogar tiefgehende wissenschaftliche Arbeiten und Dissertationen. Dazu gehören beispielsweise auch Artikel von Sengpiel oder Theile. Ich hab da auch schon vorher welche gelesen, ohne dass es bei mir geklickt hat. Es gibt auch Hardwarelösungen, siehe Stichwort Shuffler. Also eigentlich alles nix Neues.
Es geht nun konkret um Folgendes:
Wenn wir uns ein Schallereignis, z.B. ein Musikinstrument auf Höhe der LS nahe eines der LS vorstellen, ist uns selbstverständlich bewusst, dass wir das Instrument als eine natürliche Schallquelle erkennen. Bei Stereo wird dies nun durch die zwei Lautsprecher ersetzt. Wir bekommen ein Phantombild. Optimalerweise an jenem Ort und noch besser, wenn es uns natürlich erscheint. Unser Hörorgan und unser Hirn leisten dabei eine tolle Arbeit. Es soll ja aus einem Fake etwas halbwegs Reales entstehen.
Dennoch, wir hören nicht optimal. Kopfgeometrie, Ohrmuscheln und die Physik der Schallwellen bewirken, dass wir Schallereignisse, die links+rechts phasengleich aber mit unterschiedlichen Pegel wiedergeben, nicht immer demselben Ort zuordnen. Tiefe Frequenzen tendieren zur Mitte (wir sind hier eher für Phasenlaufzeiten sensibel), hohe Frequenzen tendieren weiter nach aussen (oberhalb ca. 1 kHz sind wir für Pegelunterschiede sensibel).
Das bedeutet, dass sich trotz korrektester Wiedergabe eines Systems keine 100% klare Fokussierung einstellen kann, eben weil sich das Frequenzgemisch hinsichtlich Lokalisation auseinanderzieht ! Und unser Hirn muss extra arbeiten, um das akustische Geschehen zu verstehen.
Also braucht es eine Lösung hierzu. Mit der Aufgabenstellung, dass frequenzabhängig die Pegelverhältnisse links/rechts im Stereosignal so geändert werden, dass die Lokalisierung eines Ereignisses passt. Stellen wir uns ein Monosignal vor, welches mit einem Pegelunterschied links/rechts verteilt wird. Ändert sich das Verhältnis, so wandert das Signal. Eine solche Änderung ergibt sich z.B. aus dem Übersprechen eines Kanals auf den anderen. Das wäre dann entsprechend technisch umzusetzen und zwar entsprechend den jeweiligen Höreigenschaften.
Und bei dieser Überlegung klingelt es mit Riesenglocken: bei der guten alten Analogwiedergabe von einer Schallplatte, vielfach besser als die Digitaltechnik gepriesen, gibt es einen dicken Fehler. Die Kanaltrennung ist schlecht, bestenfalls -30 dB ! Ein dickes Übersprechen der Kanäle. Bewirkt das nicht zufällig genau das, was nun die Aufgabe ist?
Hans-Martin hat seit einiger Zeit unabhängig von mir bereits einige Musikstücke bearbeitet und ein Crosstalk hinzugefügt. Und diese einigen Leuten auch hier im Forum zukommen lassen. Ergebnis: pretty much better !
Nun hat sich mir also die Frage nach einer technischen Umsetzung gestellt. Mit der Annahme, dass je nach Person, Anlagenkonfiguration (Beispiel: meine Eckwoofer=tiefe Frequenzen stehen weiter aussen, bei den AGMs sind die Hochtöner innen angeordnet und eingewinkelt) und auch Hörraum sich evtl. die frequenzabhängige Lokalisierung jeweils anders darstellt.
Die Lösung hat sich nun als erstes im AcourateNAS eingenistet. Kinder brauchen einen Namen, möglichst sinnvoll. Es ist dabei der Begriff AcourateFLOW entstanden. Er gibt passend wieder, was als Ergebnis erreicht wird. Ein Fliessen und Gleiten der Musik ohne Anstrengung. Eine Entlastung des Gehirns. Welches es seinerseits mit überraschenden Effekten hinsichtlich Zunahme an Grundton, Wärme, Räumlichkeit und Feinauflösung dankt.
AcourateFLOW funktioniert dergestalt, dass es die Möglichkeit bietet, anhand von drei Testtönen die Lokalisierung zu ermitteln. Der mittlere Ton dient als Referenz. Anhand von zwei Schiebereglern kann nun der tiefere Ton um 315 Hz nach aussen verschoben werden, der hohe Ton um 4 kHz nach innen. Die Testtöne klingen etwas befremdlich, dienen aber ihrem Zweck.
Sofern keine Soundkarte zur Verfügung steht, gibt es zudem die Möglichkeit die Stellung eines Schiebereglers vorzugeben und es wird eine entsprechende wav-Datei erzeugt. Somit lassen sich dann mehrere wav-Dateien generieren und man kann dann durch Abhören und Vergleichen feststellen, welche Datei Töne produziert, die sich bestmöglich aus derselben Richtung kommend lokalisieren lassen.
Letztendlich ergeben sich dann für den tiefen als auch den hohen Ton Einstellwerte, die dem gegebenen Ziel entsprechen.
Damit lässt sich für das eigene Gehör eine Art Kalibrierung durchführen.
AcourateFLOW erzeugt dann anhand der Parameter intern entsprechende frequenzabhängige Korrekturkurven. Mit dem Start der Bearbeitung werden dann die ausgewählten Musikdateien/Verzeichnisse zusätzlich zu vorhandenen Korrekturfiltern bearbeitet. Für diejenigen, denen keine Raumkorrekturfilter zur Verfügung stehen oder die lieber online falten, besteht die Möglichkeit, die Korrekturfilter abzuwählen und nur mit AcourateFLOW zu arbeiten.
AcourateNAS inkl. AcourateFLOW steht zum Download zur Verfügung und wird hiermit offiziell gelauncht (V1.3.1). Für die schon bestehenden Anwender ist dies ein kostenloses Update. Der Preis wird bis zum 31.8. weiterhin beibehalten, danach wird er um 30 € steigen (auf 180 €).
Ich bin mittlerweile überzeugt, dass die Vinylfraktion mit dem besseren Klang Recht hat. Dies aber nur zufällig, eben weil die Rille als auch die Tonabnehmer ein mehr oder weniger günstiges Übersprechverhalten (je nach verwendetem Material) bewirken. Die Begründungen hinsichtlich der fehlenden Bandbreitenbegrenzung im Vergleich zur digital gesampelten sind für mich nicht wirklich schlüssig. Eher Mumpitz. Mit AcourateFLOW erfolgt eine verbesserte Feinauflösung, die eben gerade der analogen Wiedergabe vorbehalten war. Obwohl sich hinsichtlich des Sampelns und der Abtastrate ja gar nichts ändert! Harald hat bei seinem gestrigen Besuch beim Vergleich einer Acousence-Aufnahme im CD-Format wenn auch scherzhaft angemerkt, dass die AcourateFLOW-Version sich wie 384 kHz anhört.
Es ist auch festzustellen, dass ein gewisses Paradoxon entsteht. Wenn sich Frequenz- und Phasengänge einer unkorrierten LS-Wiedergabe kreuzen, kann klar gefolgert werden, dass keine präzise Abbildung entstehen kann. Wenn nun mit Acourate eine Korrektur erfolgt, dann wird dieses Verhalten nachgewiesenermassen verbessert. Aber gleichzeitig wird damit auch eine größere Kanaltrennung erzielt, die ihrerseits kontraproduktiv wirkt. Mit AcourateFLOW lässt sich das nun zusätzlich gezielt optimieren. Es macht also Sinn, beide Korrekturverfahren einzusetzen.
Derzeit ist die AcourateFLOW-Lösung eine offline-Lösung zur Bearbeitung der gerippten Musikbibliothek. Zur Wiedergabe derselben per Streamer und Player. An einer online-Lösung werde ich ebenfalls arbeiten.
Es gibt sicher noch einiges zu untersuchen. Man kann auch viel Aufwand betreiben, z.B. Erhöhung der Anzahl der Testtöne. Man kann auch im Eigenversuch ohne Testtöne ein Musikstück solange mit Parametervariation beackern, bis sich ein Optimum ergibt.
Auch sei nochmal Hans-Martin zitiert, welcher die These vertritt, dass nun vermutlich der Unterschied zwischen invertierten und nicht-invertierten Polaritäten noch deutlicher erfassbar wird.
Wenn ich mir nun vorstelle, dass man ausgehend von den nun neuen "alten" Erkenntissen auch entsprechende Schaltungen bewerkstelligt (ich seh z.B. schon Gert am Analogausgang der Linns basteln), dann könnte ein "analoges Digitalzeitalter" eingeläutet werden.
Ein Quantensprung. Spinn ich, oder?
Viele Grüsse
Uli