"Erste Wellenfronten" - Existenz und Notwendigkeit

Diskus_GL
Aktiver Hörer
Beiträge: 598
Registriert: 14.03.2016, 20:35
Wohnort: Bergisch Gladbach

"Erste Wellenfronten" - Existenz und Notwendigkeit

Beitrag von Diskus_GL »

Hallo,

ich mache dieses Thema mal auf, um die mittlerweile doch etwas "fortgeschrittenere Diskussion aus Jürgens Thema "Jürgen (Horns Universum 3, u.v.a.m.)" zu lösen.

hier der letzte Beitrag zu diesem Thema aus Jürgens Thema:
Hans-Martin hat geschrieben:
Zwodoppelvier hat geschrieben:Ich habe Joachim so verstanden:
"Es gibt keine erste Wellenfront" -> was wir zum Zeitpunkt t hören, ist eine Mischung des Direktschalls (abgestrahlt zum Zeitpunkt t - d/340 mit d=Abstand LS-Ohr) mit allen möglichen Reflektionen von Signalanteilen, welche in einem breiten Zeitintervall noch deutlich früher vom LS abgestrahlt wurden.

Wir hören also zu jedem Zeitpunkt ein komplexes Gemisch von "Gegenwart" und "Vergangenheit" (reflektiert, abklingend, Raumantwort) des Signalverlaufs.
Hallo,

als erstes empfehle ich https://de.wikipedia.org/wiki/Anfangszeitl%C3%BCcke zu lesen, da versteht man den Mechanismus, wie Entfernungsortung geschieht, welche Rolle die Trennung von erster Wellenfront und Nachhall durch die Anfangszeitlücke (ITDG) spielt. Private Hypothesen, die flankiert werden von einer gewissen Ignoranz derjenigen Zusammenhänge, deren Verständnis sich einem noch nicht erschlossen hat, mögen befriedigend erscheinen, aber eventuell sind sie nicht ausreichend, alle Phänomene zu erklären.

Ein Beispiel für Lernfähigkeit lieferte S. Linkwitz mit der verspäteten Vervollständigung seines Dipols um den rückwärtigen Hochtöner, womit seine vorherige Meinung sich als überholt erwies. Nebenbei bemerkt: Auf mehrere qualifizierte Fragen bekam ich von S.L. eine Antwortmail, die von ausweichenden Äußerungen und Textbausteinen geprägt war. Ich war etwas enttäuscht von der Koryphäe ob seiner Oberflächlichkeit, aber nun, wo er aus seinem Prostatakarzinom keinen Hehl macht sehe ich das auch aus einem anderen Winkel.

Es steht jedem frei, seine Vorstellungen darzustellen, und sei es, um Diskussion und Dialektik zu provozieren. Andererseits kann man durch Vergleich der eigenen Vorstellungen mit denen der anderen sich bereichern, Lücken im eigenen Weltbild schließen, bis ein widerspruchsfreies Gerüst entsteht.

Was wir hören, ist praktisch immer Vergangenheit, da der Schall sich mit begrenzter Geschwindigkeit ausbreitet, wenn man sich also bei Tisch gegenübersitzt, erlebt man also kein Lipsync, welches Heimkinofans akribisch optimieren, im direkten Gespräch nehmen wir es wohl nicht bewusst wahr.

Ganz eindeutig hat der Schall auf dem kürzesten (direkten) Weg zum Ohr die geringste Verzögerung, gefolgt von den Reflexionen im Raum. Außerdem ist bei Sprache wie auch bei Musik eine zeitliche Abfolge, kurze Konsonanten, lange Vokale, die Silben bilden, Frequenzanteile bis unter 1 Hz, in dieser Struktur bekommt der reine Text (aber auch die Musik) Betonung, Ausdruck, vermittelt Emotionen.

Wenn wir ausschließlich eine Mischung von Direktschall und reflektiertem Schall bekämen, stünde es schlecht um die Ortbarkeit im Stereo. Der Wandabstand dürfte demnach keine Rolle spielen, da der Brei per se eine Einheit bildet. Aber jeder weiß, wie bedeutend der Mindestwandabstand für die Abbildungsschärfe ist (Linkwitz rät zu mindestens 6ms Verzögerung durch Seitenwandabstand). In kleinen Räumen gibt das eine Schwierigkeit, denn jede Kopfbewegung erzeugt zwischen beiden Kanälen gegenläufige (widersprüchliche) Kammfiltereffekte aus Box und Wandreflexion und die gewünschte Stereoabbildungspräzision verschwimmt, unscharf in der Breite, Tiefe geht verloren.

Wenn wir ausschließlich den Brei ohne die Besonderheiten der Anstiegsflanke im Direktschall bekämen, könnten wir nicht das Schlagzeug der Aufnahme ordentlich orten, aber wie wir wissen, sind perkussive Ereignisse besonders gut zu orten, gerade wegen der Impulshaftigkeit der Laute. Die tieffrequenten Anteile, die das Gehör per Laufzeit/Phasenunterschiede orten möchte, sind bei den gepannten Aufnahmen um diesen wichtigen Part beraubt, sie kommen zeitgleich aus den Boxen (Intensitätsstereofonie). Das Ohr ortet Obertöne anhand der Intensitätsunterschiede gut.

Da ist strikte Symmetrie (auch eine S.L.-Forderung) angesagt, aber auch zitierter Abstand zur Wand. Davon hat Juergen viel zur Verfügung, um beim Thread zu bleiben, und rückblickend waren hier Dipole bestenfalls kurze Episoden. An Bipole kann ich mich nicht erinnern, und der Trend zu wirkungsgradstärkeren LS ist nicht zu übersehen, aus meiner Sicht ein Zugeständnis an das reifere Ohr, dessen Dynamikverhalten sich im letzten Drittel der Lebensphase spürbar verändert.

Wenn Juergen hier den besonderen Status als Aktiver Vorführer hat, muss oder zumindest darf er doch auch eine gewisse Vielfalt zur Schau stellen, die die Vielfalt von 4 Hörertypen mit kontroversen Anforderungen nicht gleichzeitig befriedigen können will, sondern polarisiert. Mich interessieren insbesondere die Zusammenhänge, warum in diesem vorgegeben Raum das eine Produkt gut, das andere schlechter bewertet wird (unter Angabe des Hörertyps und seinen Präferenzen).

Grüße
Hans-Martin
Quelle: viewtopic.php?p=159316#p159316
Bild
Diskus_GL
Aktiver Hörer
Beiträge: 598
Registriert: 14.03.2016, 20:35
Wohnort: Bergisch Gladbach

Beitrag von Diskus_GL »

Hallo,

anbei mal ein Beispiel für die die Diskussion was denn die sog. "erste Wellenfront" sein soll:

Bild

Diese Bild ist beispielhaft ... in Wirklichkeit sieht der Signalverlauf des an den Ohren ankommenden Schalls noch viel "konfuser" aus (Beispiel eines Bach-Konzertes mit mind. 4 gleichzeitig spielenden Instrumenten inkls. der Reflexionen des Aufnahmeraumes):

Bild

Aber bleiben wir ruhig beim ersten - sehr vereinfachten und idealisierten Bild:
Ich kann da keine "erste Wellenfront" oder gar irgendwelche "eingeschwungenen Zustände" oder gar sowas wie eine "Anfangszeitlücke" entdecken. Ich könnte auch keine der steileren Signalabschnitte irgendeinem der zwei Instrument zuordnen ... zumal ja unbestritten ein Teil jedes Anstiegs (der ja den momentanen Schallpegel representiert) auch Anteile des anderen Instrumentes enthält.

Also es ist doch klar, daß in dem Signalverlauf, der an den Ohren ankommt die Schallanteile der in ihm enthaltenen Schallquellen (Instrumente, Stimme, Nebengeräuschen und die Reflexionen all dieser Schallquellen des Aufnahmeraumes und des Abhörraumes) nicht in irgendeiner Form gekennzeichnet sind, damit das Gehör erkennen kann, welcher Schallanteil jetzt zu welcher Schallquelle gehört ... um dann die Lokalisation, den Klang und im Weiteren den Inhalt dieser einen Schallquelle zu analysieren ... und parallel das Geleich für all die anderen im Schall enthaltenen Schallquellen ...

Das das Gehör das mühelos schafft dürfte ja auch unbestritten sein - diese Hörerfahrung hat doch m. W. hier schon jeder gemacht ...

Bevor das Gehör die Lokalisation, den Klang und alle sonstigen Eigenschaften einer Schallquelle erkennt und auswertet, muss sie den Schallanteil dieser Schallquelle von den Anteilen aller anderen im Schallsignal enthaltenen Schallquellen separieren ... und es sit doch auch klar, daß je besser diese Separation gelingt, desto einfacher und besser gelingt die Analyse dieser Schallquelle.

Wie hören zwar (auch bei Anlagen) für jede Schallquelle (Instrument, Sänger Nebengeräusche etc.) die Qualität der Klangeigenschaften, die Qualität der Lokalisation etc. pp, aber ursächlich für die Qualität dieses Klangeindrucke zu jeder Schallquelle ist die Qualität der Separation ... die auf eine Schallquelle bezogenen Höreindrücke sind dann nur noch eine Folge der Qualität der Separation...

Um es mal praktischer darzustellen: Wenn ich Dianah Krall zusammen (also gleichzeitig spielend) mit einem Klavier, einem Bass und einem Schalgzeug höre und den Klang ihrer Stimme "höre" ... mit all ihren Nuancen, an- absteigenden Tonfällen, ob ich sie als tief, Hoch, schrill etc. "höre" (und Änhliches für das Klavier und andere Instrumente ...), hängt davon ab ob das Gehöre asu dem Ohrsignal den Anteil von Diananhs Stimme mehr oder weniger gut separieret hat ... d. h. die Qualität dieser Separation entscheidet über die Qulaität mit der ich Dianahs stimme "höre". den physikalisch ist klar, das zu fast jeder Zeitpunkt Dianahs Stimme und das klavier und wahrscheinlich auch der Bass und das Schlagzeug gleichzeitig gleiche Frequenzanteile haben. Es wird so gut wie nie der Fall sein, das der an den Ohren ankommende Schall nur Dianahs Stimme enthält ... schon gar nicht über einen "längeren" Zeitraum (also um z. B. einen Ton von Dianahs Gesang) ... trotzdem hören wir Dianahs Stimme separat und konnen - je nach Qualität der Anlage - sowohl ihre Stimme mit allen Nuancen udn eigenheiten hören als auch das klavier und den BAss und, und, und ...

Das ist für mich eine logische Folge aus der Kenntnis des Schallverlaufs an den Ohren und dem was ich (wir) daraus alles "hören" können. Dazu ist es erstmal auch völlig unerheblich wie das Gehör das macht ... Damit schliessen sich aber so ("simple" Erklärungen wie Lokalisation über "erste Wellenfronten" oder über "Anfangszeitlücke" aus. Auch ITD, ILD mögen zwar zur Lokalisation Anwendung finden, aber doch erst wenn das Gehör die zu einer Schallquelle zugehörigen Schallanteile von den Anteilen aller anderen im Schallsignal enthaltenen Schallquellen separiert hat!

Das wird ja auch in Theiles Arbeit schön ausgeführt, das die "herkömmlichen" Vorstellungen wie Lokalisation funktionieren soll, mit allen Hörsituationen in denen mehrere Schallquellen gleichzeitig vorkommen, nicht funktioniert. Umgekehrt, funktionieren die anderen Theorien bei den "einfachen" Hörsituationen, die als Begründung für Hören anhand von Anfangszeitlücke oder ITD, ILD annehmen.

Aber, wenn jemand erklären kann, welche der "Flanken" in meinem einfachen Bild mit zwei Instrumenten zu welchem Instrument gehören (und mit welchem Betrag) ... dann bin ich gespannt ...

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
Beiträge: 598
Registriert: 14.03.2016, 20:35
Wohnort: Bergisch Gladbach

Beitrag von Diskus_GL »

Zwodoppelvier hat geschrieben: P.S.:

Ich habe Joachim so verstanden:
"Es gibt keine erste Wellenfront" -> was wir zum Zeitpunkt t hören, ist eine Mischung des Direktschalls (abgestrahlt zum Zeitpunkt t - d/340 mit d=Abstand LS-Ohr) mit allen möglichen Reflektionen von Signalanteilen, welche in einem breiten Zeitintervall noch deutlich früher vom LS abgestrahlt wurden.

Wir hören also zu jedem Zeitpunkt ein komplexes Gemisch von "Gegenwart" und "Vergangenheit" (reflektiert, abklingend, Raumantwort) des Signalverlaufs.

Offenbar ist unser Gehörsinn darauf ausgelegt, aus den beiden Schalldruckverläufen an den Trommelfellen - die doch je nach Raum, verwendeten LS und Sitzposition völlig unterschiedlich sein können - die wesentlichen Informationen (beteiligte Instrumente/-gruppen, Klangfarben, Melodien, Rythmik usw. usf.) zu gewinnen, so daß wir jedesmal das gleiche Musikstück mit allen interpretatorischen Feinheiten hören. Nur eben mit der Begleitwahrnehmung unterschiedlicher Raumakustik und evtl. etwas besserer Wahrnehmung dieses oder jenes "Details´".
Hallo Eberhard,

Streng genommen würde es nur sehr selten eine „erste Wellenfront“ an den Ohren geben ... nämlich dann, wenn nur eine Schallquelle anfängt - wenn z. B. Ein Instrument gerade anfängt zu spielen (und es sonst um uns herum absolut still ist). Schon ein paar Millisekunden später wird der dann von diesem Instrument ankommende Schall von den Reflexionen überlagert, die ja ab dann fortlaufend mit zeitlichem Versatz den „Direktschall“ dieses Instrumentes überlagern.

Sobald aber mehr als eine Schallquelle am Geschehen beteiligt sind, wird sich schon alleine der Direktschall jeder dieser Schallquellen an den Ohren gegenseitig überlagern - selbst im absolut schalltoten Raum ... das lässt sich nicht vermeiden und ist physikalisch so bedingt (und bei Wiedergabe über Boxen gibts ja schon beim „Direktschall“ der zwei Boxen die Überlagerung am jeweils anderen Ohr - siehe mein Beispielbild).

Da das der weitaus häufigere Fall ist, mit dem das Gehör „zurecht kommen muss“, ist das Gehör auch darin geübt und trainiert aus diesem komplex überlagerten Schallsignalverläufen dennoch jede dieser Schallquellen zu erkennen und zu separieren. Reflexionen sind da das geringste Problem und sogar hilfreich da von den Reflexionen ja einiges „Bekannt“ ist - im Gegensatz zum Direktschall!

Von dem sich überlagernden Direktschall aller Schallquellen (Instrumente, Stimmen etc.) weiss das Gehör ja gar nicht, wieviele Schallquellen es sind, was für Schallquellen, wo die Schallquellen sind, und auch nicht wann eine angefangen hat oder aufgehört hat. Das Alles muss das Gehör aus den zwei Ohrsignalen (den Schalldruckverläufen an den Trommelfellen) erst noch ermitteln. Erst dann kann es anfangen z. B. eine Stimme zu „hören“, ein Klavier, eine Geige oder ein Schlagzeug etc.

Von den Reflexionen weiss das Gehör, das es sich um einen Schallanteil handeln muss, der innerhalb eines engen Zeitfensters vorher schon mal erkannt wurde ... und wenn es diesen Schallanteil aus dem „momentanen“ Signalverlauf herausnehmen kann, bleiben nur noch (neue) Schallanteile des Direktschalls übrig ... was die Genauigkeit der weiteren Separation und Analyse der „Direktschallanteile“ erleichtert.

Die Vorstellung, das Gehör würde den „Direktschall“ einer jeden Schallquelle einzeln anhand deren „Wellenfronten“ oder gar deren Signalverlauf bereits anhand der Ohrsignale „analysieren“ ist nicht haltbar ... rein aus der Logik heraus (Vergleich von gemessenen Ohrsignalen und dem was der Mensch davon alles hört). In den Ohrsignalen sind zwar alle "ersten Wellenfronten" der enthaltenen Schallquellen enthalten, aber eben nicht direkt als solche erkennbar. Jedwede Verwendung von "ersten Wellenfronten" z. B. eines Instrumentes kann erst nach einer Separation erfolgen ... das ist für mich logisch.

Insofern ist es nicht das oberste Ziel, den Boxen-Direktschall möglichst „unverfälscht“ an die Ohren zu leiten, sondern es ist wichtiger dafür zu sorgen, daß das Gehör die in den Ohrsignalen enthaltenen Schallquellenanteile (die ja alle Informationen aller enthaltenen Schallquellen beinhalten) möglichst gut separieren kann. Alle weiteren Höreindrücke, die wir dann von einer Schallquelle hören (Lautstärke, Dynamik, Klang, Lokalisation etc. pp. ), sind dann eine logisch zwingende direkte Folge der Qualität der Separation des Gehörs. Die Qualität aller hörbaren Klangeindrücke - z. B. Bei Hören von Musik über eine Anlage - hängen direkt von der Qualität der Separation des Gehörs ab (das passt übrigens auch bei Mono-Wiedergabe).

Die Qualität der Separation des Gehörs zu optimieren ist ein anderes Ziel als die Qualität des „Boxen-Direktschallsignal“ zu optimieren.

Dazu sind Reflexionen durchaus förderlich.

Grüße Joachim
Bild
Tinitus
Aktiver Hörer
Beiträge: 1322
Registriert: 10.11.2013, 21:48

Beitrag von Tinitus »

Hallo,

ich zitiere mal Hans-Martins Beitrag, der mir ganz wesentlich erscheint:
Hans-Martin hat geschrieben:
Diskus_GL hat geschrieben:Reflections generated by the two loudspeakers should be delayed copies of the direct sound to the listener. The delay should be greater than 6 ms. The high frequency content of the reflections should not be intentionally attenuated. 

Hallo Joachim,

ich übersetze das mal mit meinen Worten: Der Nachhall des Raum soll exakt dieselbe Klangfarbe haben wie der Direktschall des LS, außerdem soll er mindestens 6ms später eintreffen. Die Höhen sollen nicht vorsätzlich abgeschwächt werden (was ja eine andere Klangfarbe bedeuten würde, eigentlich eine Wiederholung der Aussage des ersten Satzes, daher redundant).
Under these conditions the direct sound from the loudspeakers dominates perceptually. The room interferes minimally with the spatial, temporal and timbral cues embedded in the direct sound and with the creation of a phantom sound stage between and behind the loudspeakers.
Unter diesen Bedingungen dominiert der Direktschall die Wahrnehmung. Der eigene Raum stört das Original (Direktschall) nur minimal.
Under these conditions the cognitive faculty of the brain is better able to separate the static listening room acoustics from the acoustics embedded in the recording which are presented dynamically by the two loudspeakers.
So kann unser Hörsinn unseren gewohnten (unveränderten) Raum besser von den vielfältigen Projektionen der beiden Lautsprecher trennen. (im Sinne von statisch= unverändert, dynamisch= veränderlich)
An die Ohren kommen keine „ersten Wellenfronten“ an.
Es scheint mir unbestreitbar, dass die Hörzellen auf eine erste Anregung einen Puls auf den Hörnerv absetzen, dann allerdings eine Erholzeit haben. Die erste Wellenfront wird so gewissermaßen wie ein Dirac-Puls bei FFT ausgewertet, beim eingeschwungenen Status des Tons liefern die Hörzellen dann nach ihren Möglichkeiten demgemäß wiederholte Pulse.
Es kommt immer ein kontinuierlicher Schallverlauf an, der immer (!) alle möglichen Schallanteile enthält ... auch und vor Allem Reflexionen des Raumes.
Das halte ich für eine interessante Interpretation von wessen (?) Aussage. Du betonst die Reflexionen des Raums, gewichtest ihre Bedeutung über den Direktschall hinaus. Das halte ich für unangemessen, vermag das aus Linkwitz nicht herauszulesen.
Was wohl in diesem an den Ohren ankommenden Schallverlauf ist, sind Schallanteile z. B. eines momentan einsetzenden Instrumentes. Von diesem Schallanteil wird das Gehör einen neuen auditiven Stream bilden und diesen auditiven Stream im später eintreffenden Schall nach Schallanteilen (dessen Reflexionen) suchen. Wenn das dann als Reflexionen dieses neuen auditiven Streams erkannt wird, passt das (im Wahrsten Sinne des Wortes).
Das Gehirn vergleicht im Olivenkomplex die von beiden Ohren eintreffenden Signale hinsichtlich Reihenfolge und Intensität. Es sollte uns klar sein, dass eine natürliche Schallquelle (am jeweiligen Ohr ersteintreffender Direktschall von einer Punktschallquelle) eine ganz andere, viel bessere Qualität hat als der komplexe Stereomüll, der zusätzlich über Raumwände von beiden LS kommend reflektiert wird, ein Vielfaches von dem , was eine natürliche Schallquelle hier verursachen würde. Wir wollen aber doch in den Aufnahmeraum versetzt werden, unser Hörraum soll (wiedererkannt und folglich) ausgeblendet werden, siehe Linkwitz. Es ist das alte Dilemma: "They are here" oder "You are there".
Je besser das gelingt desto "vollkommener" wird dieser auditive Stream die Informationen dieses Instrumentes enthalten ... hörbar am immer besser werdenden Klang dieses Instrumentes ... und aller anderen, da dieses Prinzip ja auch für alle anderen Schallanteile und deren Reflexionen im kontinuierlichen Schallverlauf gilt.
Nur, wenn der Nachhall dieselbe Klangfarbe hat wie der Direktschall. Das ist eine ganz alte Forderung, auf die Linkwitz recht spät einsteigt.
Um die Schallanteile voneinander separieren zu können nutzt das Gehör Reflexionen - folglich braucht es diese auch bei Schallwiedergabe über Boxen in einem Raum.
Ich behaupte, das Gehör braucht sie nur, um die Boxen zu orten. Ich will aber den Inhalt der Konserve, nicht den Beigeschmack der Dose. :mrgreen:
Reflexionen sind nötig und wichtig! Genau das hat (mittlerweile) auch Linkwitz erkannt (und auch messtechnisch untersucht).
Wie gesagt, es kommt darauf an, wie man Linkwitz interpretiert. Irrtümer sind menschlich, und offensichtlich hat S.L. auch seine Fähigkeit zur Eigenkorrektur unter Beweis gestellt. Vorbildlich.

Grüße
Hans-Martin
P.S. Ohne an Juergens Worshops teigenommen zu haben, deckt sich die Aussage [breit abstrahlenden LS im großen Raum klingen besser als die bündelnden LS] mit meinen Erfahrungen, hingegen können gerichtet abstrahlende LS in kleinen Räumen m.E. mehr überzeugen.
Quelle: viewtopic.php?p=159295#p159295

Hallo Joachim,

ich denke Hans-Martins Interpretation von Linkwitz ist korrekt. Linkwitz sagt nicht, dass man die Erstreflektionen benötigt, er sagt, dass man um den (unveränderbaren) (Hör)Raum ausblenden zu können, sollten die Erstreflektionen min. 6 ms länger benötigen, um an das Ohr zu gelangen als der Direktschall und außerdem sollen sie tonal dem Direktschall gleich sein. Unter diesen Umständen gelingt es die Information, die durch den eigenen Hörraum produziert wird, auszublenden. Diese Information hält er also für nicht wünschenswert.

Nun sind diese beiden Vorraussetzungen aber so gar nicht trivial. Ich habe mal ein wenig Geometrie betrieben, war allerdings nie meine große Stärke, ich kann dafür also keine Gewähr geben. Angenommen, man möchte nicht im Nahfeld hören und wählt eine Basisbreite von 3 m (LS 60° eingewinkelt), dann müssen die Erstreflektionen 5 m zurücklegen, damit die 6 ms mindestens eingehalten werden. Betrachtet man nun die Erstreflektion die an der Seitenwand mittig zwischen LS Grundlinie und Hörplatz eintrifft (ca. 1,3 m), so müsste der Abstand LS zu Seitenwand 2,13 m betragen! Der Abstrahlwinkel vom LS aus beträgt dann ca. 53°. HiFi-LS, die unter diesem Winkel noch das gleiche Abstrahlverhalten haben wie unter 0° gibt es meiner Meinung nach sehr wenige. Der unter 30° abgestrahlte Schall läuft parallel zur Seitenwand bis zur Rückwand und wird dort reflektiert. Das heißt, dass hinter dem Sitzplatz nochmal mindestens 1 m bis zur Wand sein muss, um die minimalen 6 ms einzuhalten. Das gibt dann (Abstand Grundlinie LS Hörplatz + 1 m) 3,6 m zu denen noch der Abstand LS Frontwand LS hinzu addiert werden muss, um auf die Mindestlänge des Raumes zu kommen. Ich befürchte, dass die Voraussetzungen in wenigen Wohnräumen in Europa erfüllt sind. Da reden wir von Räumen 30 m² aufwärts.

Möchte man wie Hans-Martin sagt, dort sein wo die Musik eingespielt wird, kommt man um (gleichmäßige!) Bedämpfung des Raumes also in kleinen Räumen nicht drum herum, um die minimale Bedingung von 6 ms zu erfüllen oder den Pegel der früheren Reflektionen zumindest deutlich (in Relation zum Direktschall) abzusenken. Möchte man dagegen, dass die Musik zu einem ins Hörzimmer kommt, kann man das bleiben lassen. Das ist Geschmacksache, hat aber nichts mit Linkwitz zu tun.

Ich erinnere mich an ein Video, in dem jemand (war es Sidney Harman?) ein Musikstück in seinem Hörraum über die Musikanlage abspielte und aufzeichnete und dann wieder im gleichen Raum abspielte und wieder aufnahm und so weiter. Es war erstaunlich , wie wenig Iterationen es braucht, damit das, was aus den LS kommt nur noch Geräusch ist und dem Original-Musikstück nicht mehr im mindesten ähnelt. Das hat mich persönlich darin bestätigt, dass ich lieber da bin, wo die Musik eingespielt wurde.

Gruß

Uwe
Bild
chriss0212

Beitrag von chriss0212 »

Hallo Uwo
Tinitus hat geschrieben:Ich erinnere mich an ein Video, in dem jemand (war es Sidney Harman?) ein Musikstück in seinem Hörraum über die Musikanlage abspielte und aufzeichnete und dann wieder im gleichen Raum abspielte
Ich weiß nicht genau, was das bringen und beweisen soll...

Stell mal ein Mikrofon in einen Raum. Geh raus, zieh die nen Kopfhörer auf, und hör dir das an... das hat mit dem Original wie Du es mit deinen Ohren in dem Raum wahrnimmst fast nichts mehr zu tun... und das, obwohl kein weiterer Raum im Spiel ist, da Du ja per Kopfhörer hörst.

Außerdem ist ja nicht nur die Zeit wichtig, wann die Reflektionen bei Dir eintreffen, sondern auch der Anteil der Reflektionen. Ich habe mich bei mir genau deswegen für Hornlautsprecher entschieden... der Anteil der Reflektionen zum Direktschall wird deutlich kleiner, wodurch der eigene Raum mehr und mehr ausgeblendet wird.

Viele Grüße

Christian
Tinitus
Aktiver Hörer
Beiträge: 1322
Registriert: 10.11.2013, 21:48

Beitrag von Tinitus »

Hallo Christian,

na, der Zweck dieses Experiments bzw. dieser Demonstration war, den Effekt den der Raum auf die Wiedergabe hat zu verstärken. Das Publikum (keine Fachleute) war überrascht, wie schnell das Originalsignal von dem durch den Hörraum hinzugefügten Signal "verschluckt" wurde.

Was ich theoretisch mit dem Kopfhörer machen soll, habe ich nicht verstanden.

Durch die Bündelung der LS das Verhältnis Direktschall/Reflektionen zu verbessern ist natürlich auch ein gangbarer Weg, meine Orkane machen das auch:

viewtopic.php?f=6&t=4604&start=90

Von tonal neutral kann bei den Orkanen aber keinesfalls die Rede sein. Hat aber bei meinem (akustisch) kleinem Raum mit eniger als einem Meter Abstand zur Seitenwand und asymmetrischen Verhältnissen rechts/links nicht viel geholfen.

Die Tatsache, dass dein Raum sehr groß ist, bietet natürlich die Möglichkeit, bei entspechender Aufstellung die Zeitlücke zwischen Direktschall und Reflektionen lang zu machen, das hilft auch.


Gruß

Uwe
Bild
chriss0212

Beitrag von chriss0212 »

Hallo Uwe

In der Theorie habe ich das Experiment schon verstanden... es hapert aus meiner Sicht an der Praxis ;)

Geh in einen Raum und hör die meinetwegen an, wenn sich 2 Menschen unterhalten... das wird per Mikrofon abgenommen...

Jetzt verlässt Du den Raum und hörst Dir an, wie sich die Unterhaltung über Kopfhörer anhört... das ist ja dann das, was auf der Aufnahme ankommt. Das unterscheidet sich schon massiv von dem von Dir vorher wahrgenommenen. Und das obwohl Du über den Kopförer den gleichen Raum hörst... ohne, dass zusätzliche Rauminformationen dazu kommen.

Ich hege also Zweifel, ob man mit dem Experiment irgend etwas nachbilden kann ;)

Viele Grüße

Christian
Hans-Martin
Aktiver Hörer
Beiträge: 9117
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

chriss0212 hat geschrieben:Ich hege also Zweifel, ob man mit dem Experiment irgend etwas nachbilden kann ;)
Hallo Christian,

in den frühen 1960er Jahren hat Franssen ein Buch über Stereophonie geschrieben, und ein interessantes -wie ich meine auch wegweisendes Experiment gemacht, wonach man seither den Franssen-Effekt kannte:

https://de.wikipedia.org/wiki/Franssen-Effekt

Das Tonbeispiel beweist, dass für die Ortung die primäre Quelle des Schallereignis maßgeblich ist. Der Hörer bemerkt nicht, dass zwischenzeitlich der andere LS den Ton übernommen hat. Das bei Wikipedia hinterlegte Tonbeispiel habe ich exakt nach den Vorgaben aus Franssens Buch angefertigt und dort hochgeladen. Mit einem WAV-Editor kann man sich ansehen, was dort geschieht, und vergleichen, was man über LS wahrgenommen hat. :mrgreen:

Auch die Webseite von Diana Deutsch sollte man kennen, wo es um akustische Illusionen (Täuschungen) geht.

Beide Links weisen auf synthetisierte Beispiele, die beim natürlichen Hören einer natürlichen Punktschallquelle im Freien oder im reflexionsfreien Raum nicht vorkommen, also nicht erlernt werden können. Es sind bewusst herbeigeführte Täuschungen, um die Grenzen des Hörens auszuloten.

Wenn man einen Raum betritt, in dem ein LS einen konstanten Sinus klirrarm abstrahlt, würde mich mal interessieren, ob man den Ursprung lokalisieren kann, wenn man den Anfang des Tons nicht erlebt hat.
Gewiss nicht mein letzter Beitrag in diesem Thread ....

Grüße
Hans-Martin
Bild
Daihedz
Aktiver Hörer
Beiträge: 793
Registriert: 25.06.2010, 15:09

Beitrag von Daihedz »

Hallo Hans-Martin
Hans-Martin hat geschrieben:... Wenn man einen Raum betritt, in dem ein LS einen konstanten Sinus klirrarm abstrahlt, würde mich mal interessieren, ob man den Ursprung lokalisieren kann, wenn man den Anfang des Tons nicht erlebt hat ...
Super, und eigentlich wie banal - mir geht jetzt eine ganze Stadtbeleuchtung an! Denn ich reagierte immer mit einer gewissen Irritation, wenn ich bei meinen Konstruktionen nur sehr selten, resp. praktisch nie in der Lage war, einen Sinus einigermassen korrekt zu lokalisieren. Dies, ohne zu wissen, resp. ohne herausfinden zu können, was an dieser Lokalisationsunfähigkeit "faul" daran war ... Merci also für die aufklärende Erhellung!

Entspannt-Ungeschärfte Grüsse
Simon
Bild
Tinitus
Aktiver Hörer
Beiträge: 1322
Registriert: 10.11.2013, 21:48

Beitrag von Tinitus »

Hallo Christian,

das sich ein mit Mikro aufgezeichnetes Schallereignis anders anhört als wenn man beim Schallereignis dabei war ist das eine. Die Limitierung des Systems Stereophonie und die Tatsache, dass auch die Mikrofonierung nur schwerlich das menschliche Hören nachempfinden kann gehören dabei sicherlich mit zu den Ursachen. Es geht bei diesem Experiment nicht um die Probleme bei der Aufzeichnung sondern um die Probleme der Musikwiedergabe in Räumen. Die Räume in denen die Musikwiedergabe statt findet haben Auswirkungen, die unabhängig von den oben genannten Problemen sind. Schaue ich mir in REW die ETC an, so habe ich beim rechten Kanal folgende Signale:

0,28 ms -10 dB
0,45 ms -13 dB
0,79 ms -19 dB
2,0 ms -16 dB
9,95 ms -18,5 dB

Bei den frühen Signalen bin ich mir nicht ganz sicher, aber die beiden Signale bei 2 ms und bei 9,95 ms sind sicherlich durch meinen Hörraum verursachte Reflektionen. Sicherlich ist das kein Rauschen, aber es ist trotzdem eine Störung, weil es eben nicht zum Originalsignal gehört. Zwischen 16 und 18,5 dB Störungsabstand ist nicht viel. Ich kann mir nicht vorstellen, dass man so einen Störungsabstand bei einem elektronischen Gerät für gut befinden würde.

Ich denke der Versuch, über mehrere Iterationen, ein Musiksignal in einem Hörraum abzuspielen und aufzunehmen, dient einfach der Veranschaulichung, wie gering der Störabstand von Reflektionen zum Direktschall ist. Bevor ich mich um die Raumakustik bei mir gekümmert habe, hatte ich eine Reflektion, die bei 2 ms 60 % des Schalldruckpegels des Direktschalls hatte, ich glaube das entspricht -4,4 dB. Wie man dieses Problem dann angeht, wenn man als solches empfindet, dafür gibt es verschiedene Lösungswege.

Gruß

Uwe
Bild
Daihedz
Aktiver Hörer
Beiträge: 793
Registriert: 25.06.2010, 15:09

Beitrag von Daihedz »

Hallo Uwe, hallo in die Runde

Die Frage nach dem Einfluss der ersten Reflektionen auf die das Stereoabbild, i.s. von unerwünschten Wellenfronten, treibt auch mich um. Im Netz habe ich leider keine neueren Forschungsresultate dazu gesehen, sodass das bereits anderswo im Forum zweifach zitierte Paper der BBC nach wie vor einen Referenzcharakter einzunehmen scheint. Darin steht, dass während der ersten 20ms nach der ersten Wellenfront keine frühen Reflexionen > -20dB aufreten sollten, damit die Stereoabbildung nicht beeinträchtigt wird. 20ms/-20dB? Ist dies der aktuelle, alte und immer noch gültige Stand des Irrtums?

Damit wären Deine Werte, Uwe, schon nahe an den BBC-Kriterien, aber sicherlich noch verbesserungswürdig.
Tinitus hat geschrieben: ...
0,28 ms -10 dB
0,45 ms -13 dB
0,79 ms -19 dB
2,0 ms -16 dB
9,95 ms -18,5 dB
...
0.28ms, 0.45ms und/oder 0.79ms tönen für mich nach Fussboden-/ Zimmerdeckenreflexionen? Ich würde bei mir zu Hause mal zu allererst auf die beiden 0.28ms- und 0.45ms- Reflexionen losgehen wollen, danach der Amplitude gemäss als drittes die 2.0ms-Reflexion anzugehen versuchen.

Als Dipolist bin ich in der bevorzugten Lage, dass bei einem Dipol besser sichtbar ist, woher eine Reflektion stammen könnte. Denn von der Rückseite des Dipols werden, in der Impulsantwort betrachtet, inverse Reflextionsimpulse generiert. Bei mir im sich stets verändernden, an sich günstigen "Beforschungsraum" mit unter dem Dachstock schrägen Decken sieht es nun in einem nachgebildeten Stereo-Dreieck mit je 2 Weglenkungsfläcen pro Kanal folgenermassen aus:

Bild

Die Impulsantwort ist auf 1 normiert. Der blau markierte Bereich entspricht 20ms, die ganze sichtbare Länge ab Erstimpuls beträgt 100ms. Das Ausklingen des Erstimpuls in den ersten 0...3ms erscheint einigermassen homogen. Nach 3.5ms erscheint eine erste frühe, negative Reflexion (rot) mit einer Intensität von ca -0.06 entsprechend -24dB unter dem Nutzsignal. Dies entpricht einem Kaminkanal an der Frontwand in der Nähe des und hinter dem li LS. Danach kommt eine zweite, doppelte (rot grün), positive Reflexion nach 8.3ms mit einer Intensität von ca. +0.07 entsprechend ca. -22dB. Diese Doppelreflexion entspricht der Reflexion an der Wand hinter der Hör/Messposition.

Ich befinde mich deshalb mit diesem experimentellen Setup innerhalb besagter BBC-Toleranz. Aber wie gesagt - auch mir erscheinen -20dB "Störabstand" etwas dürftig, und seit dem Publikationsjahr des BBC-Papers ist die Wiedergabetechnik besser geworden, die Forschung in Bezug auf Psychoakustik sicherlich weiter. Deshalb sei nochmals die Frage wiederholt: Weiss jemand etwas über aktuelle Werte zu Stereo und frühe Reflexionen?

Altbacken-Spezifizierte Grüsse
SImon
Bild
Diskus_GL
Aktiver Hörer
Beiträge: 598
Registriert: 14.03.2016, 20:35
Wohnort: Bergisch Gladbach

Beitrag von Diskus_GL »

Hallo Uwe,

die 6ms sind etwas „großzügig“ – Blauert und andere Quellen gehen von 5ms aus (4ms). Mit Direktstrahlern ist das in der Tat etwas schwieriger (da bedarf es größerer Wandabstände und auch entsprechender Abstrahleigenschaften etc.), weshalb Linkwitz ja auch Dipole bevorzugt, mit denen diese Verzögerung über den rückwärtigen Schall einfacher zu erreichen ist (ist auch meine Erfahrung – siehe mal meine Gedanken dazu, da ist ganz am Schluss ein Bild mit den Laufzeiten und Pegeln von Reflexionen: http://www.audioclub.de/index.php/clubl ... eflexionen ).

Das Prinzip bzw. die Theorie ist in Blauerts Buch bereits aufgeführt und geht davon aus, daß das Gehör in sehr kurzer Zeit (nach Betreten eines Raumes) die akustischen Eigenheiten dieses Raumes analysiert. Man geht davon aus, daß es – auch anhand der eigenen Stimme – analysiert, welche Veränderungen durch die Reflexionen von den Wänden in diesem Raum vorkommen. Diese Art der Reflexionen erwartet dann das Gehör bei allen weiteren Schallquellen in diesem Raum und versucht diese „Rauminformationen“ quais rauszufiltern. Dabei – so auch meine Erfahrung – ist es gar nicht mal so wichtig wie die Reflexionen im Einzelnen aussehen, sondern es reicht offenbar, wenn am Hörplatz ein paar starke erste Reflexionen (mit >5ms Delay und vornehmlich aus seitlicher Richtung) überwiegen. Andere Reflexionen (z. B. von den Frontchassis) die <5ms und tonal anders von den Boxen abgestrahlt werden, können dann durchaus auch an die Ohren kommen, solange sie deutlich leiser sind und in Summe nicht überwiegen.

Um dieses Prinzip und die möglichen Auswirkungen auf das Hören von Musik über zwei Boxen in diesem Raum besser einschätzen zu können ist es hilfreich, zu verstehen, wie das Gehör überhaupt Schall „analysiert“. Es wird ja nicht das direkt an den Ohren ankommende Signal in der Form „gehört“ wie man es z. B. messen kann (weshalb z. B. das wiederholte Aufnehmen des abgespielten Signals von den Boxen auch keine für das Hören rel. Aussage bringen kann). Die entsprechende Wissenschaft geht vielmehr davon aus (bzw. die Logik bedingt das) daß die Auswertung in Form von Zeitintervallen, parallel und auch iterativ nach bestimmten Regeln erfolgt (ASA).

Das jetzt im Einzelnen auszuführen würde hier zu weit führen. Wichtig ist zu erkennen, daß nicht so sehr die Qualität des an den Ohren messbaren Schallsignals wichtig ist, sondern die Voraussetzungen für die Analyse des Schalls an den Ohren. Das ist eine andere Zielsetzung und dazu sind bestimmte Reflexionen am Hörplatz durchaus hilfreich bzw. notwendig.

Das erklärt auch warum z. B. deutlich messbare Kammfiltereffekte (z. B. durch die Reflexionen) bezüglich des Hörens kaum eine Auswirkung haben (http://hauptmikrofon.de/theile/1980-1_D ... eutsch.pdf). Auch der sog. Cocktailparty-Effekt lässt sich damit schön erklären (der stellt ohnehin die „Standardsituation“ des Hörens dar. Wenn man eine Vorstellung hat, wie das Gehör diese Situation „bewältigt“ dann kann man sich auch vorstellen, was für die Analyse eines Musiksignals aus zwei Boxen im Raum wichtig ist.

Grüße Joachim
Bild
Pittiplatsch
Aktiver Hörer
Beiträge: 489
Registriert: 26.02.2012, 10:48

Beitrag von Pittiplatsch »

Hallo Simon,
Daihedz hat geschrieben:auch mir erscheinen -20dB "Störabstand" etwas dürftig
ich habe in meiner ETC mittlerweile eher -30dB eher per Zufall bei Behandlung der ersten Reflexionen erreicht und bin weit davon entfernt das schlecht zu finden. Ich interpretiere es eher so dass es -20dB mindestens sein sollten. Mittlerweile lege ich sogar mehr Augenmerk auf die ETC, dann den Nachhall und erst dann auf den FG und klanglich scheint das zu passen (ohne eine wirklich fundierte Begruendung zu haben ...).

@Joachim: Ich hatte meine LS unlaengst auf der Laengsachse des Raumes stehen. Daraus resultierte ein recht geringer Abstand zu den Seitenwaenden (natuerlich die primaer und Sekundaerreflexionen bedaempft). Erstaunlicherweise klappte das trotzdem recht gut. Ich habe aber dennoch bei mir noch kein Setup erlebt wo Reflexionen (ETC > -20dB) einen positiven Beitrag geleistet haetten. Meine 4 Setups (alles Direktstrahler) im Haus staffeln sich eindeutig qualitativ absteigend von mehr Raumbehandlung (weniger Reflexion) nach keine Raumbehandlung (Wohnzimmer - mehr Reflexion). Kannst du eventuell quantifizieren wie sich eine "gute" Reflexion messen muss und auszusehen hat? Unser Gehirn leistet da schon Erstaunliches, aber im Sinne eines entspannten Hoerens kann es sicher nicht schaden es etwas zu entlasten. Ich muss Dir recht geben dass es selbst an meinem schlechtesten Setup nach einer Weile "einrastet" und dann auch klanglich wieder passt (Gehirnkorrektur funktioniert :) ).

Viele Gruesse,
Tobias
Bild
Diskus_GL
Aktiver Hörer
Beiträge: 598
Registriert: 14.03.2016, 20:35
Wohnort: Bergisch Gladbach

Beitrag von Diskus_GL »

Hallo Uwe,

Noch kurz was zu einigen Deiner Ausführungen:

„Es scheint mir unbestreitbar, dass die Hörzellen auf eine erste Anregung einen Puls auf den Hörnerv absetzen, dann allerdings eine Erholzeit haben. Die erste Wellenfront wird so gewissermaßen wie ein Dirac-Puls bei FFT ausgewertet, beim eingeschwungenen Status des Tons liefern die Hörzellen dann nach ihren Möglichkeiten demgemäß wiederholte Pulse.“

Die Hörzellen analysieren den Schall nicht, sie wandeln ihn in Nervenimpulse um. Dazu mögen z. B. bei zu starken plötzlichen Druckwechseln Erholzeiten etc. notwendig sein, die aber die Auswertung im Gehör nur sehr wenig beeinträchtigen.

Dein gedanklicher Fehler liegt in der Gleichsetzung eines starken Druckwechsels im an den Ohren ankommenden Signalverlaufs mit einer „ersten Wellenfront“ eines Tons eines Instrumentes. Diesen Sonderfall gibt es in der Realität so gut wie nie!

Betrachte doch mal das Bild mit dem Signalverlauf des Bachkonzerts. Da ist ein Zeitabschnit, bei dem mehrere Instrumente gleichzeitig zu hören sind (könnte auch beliebig längere Intervalle betrachten – wichtig ist das Prinzip).
Es ist problemlos möglich jedes dieser gleichzeitig spielenden Instrument mit all ihren Tönen und sonstigen klanglichen Eigenschaften, separat zu hören, sie auch separat zu lokalisieren etc. pp.. – das ist ja auch soweit unbestritten und kann man problemlos selbst über mittelmäßige Anlagen jederzeit selbst „erhören“.
Es dürfte auch unbestritten sein, daß der an den Ohren ankommende messbare Signalverlauf dieses Bachkonzertes prinzipiell so aussehen wird wie im Bild. D. h. alles was wir vom Bachkonzert hören – also wie o. a. alle gleichzeitig spielenden Instrumente mit ihrem jeweiligen Klang und Lokalisation – ist nur in diesen zwei Signalverläufen enthalten.
Es dürfte auch unstrittig sein, daß in diesen zwei Schallverläufen die Schallanteile der jeweiligen (gleichzeitig spielenden) Instrumente so nicht erkennbar sind (und auch nicht in irgend einer Form „gekennzeichnet“). Es ist also nicht möglich so unmittelbar zu sagen welcher Pegel(anteil) eines Zeitabschnitts zu welchem Instrument gehört.
Es ist auch nicht so ohne weiteres möglich, in diesen zwei Signalverläufen „erste Wellenfronten“ oder gar „eingeschwungene Zustände“ eines Tones eines der (gleichzeitig spielenden) Instrumente zu erkennen.

Dennoch „hören“ wir jedes dieser Instrumente und analysieren deren „erste Wellenfronten“ und auch die „eingeschwungenen Zustände“ von Tönen dieser Instrumente… und zwar für jeden Ton jedes Instrumentes separat!

Damit ist aber völlig logisch, daß eine „Auswertung“ oder gar das Erkennen „erster Wellenfronten“ oder „eingeschwungener Zustände“ nicht anhand der starken Druckwechseln an den Hörzellen erfolgen kann.
Das ist eine rein logisch Folgerung aus der Betrachtung des Schallverlaufs an den Ihren und dem was ich (bzw. jeder von uns) aus diesem Schallverlauf „hört“.
Für diese Betrachtung ist es auch völlig unerheblich zu wissen wie das Gehör das macht.
Es zeigt aber, daß bestimmte Modelle nach denen der Schall analysiert wird (z. B. Auswertung einer ersten Wellenfront an den Hörnerven wie ein Dirac Puls etc.) nicht zutreffen.

Auch die folgende Modellvorstellung:
„Das Gehirn vergleicht im Olivenkomplex die von beiden Ohren eintreffenden Signale hinsichtlich Reihenfolge und Intensität.“
kann logischerweise nicht stimmen, da anhand der eintreffenden Signale nicht erkennbar ist welcher Anteil zu welcher Schallquelle gehört, um überhaupt eine Reihenfolge oder Intensitätsdifferenzierung machen zu können. Ein noch so kleiner Zeitabschitt der eintreffenden Signale wird (so gut wie immer) die Schallanteile von mehreren Schallquellen enthalten – womit weder eine Reihenfolge noch eine Intensitätsdifferenzierung machbar ist.
Das kann erst erfolgen wenn das Gehör die Schallanteile jeder dieser enthaltenen Schallquellen voneinander separiert hat…und das kann nicht im Olivenkomplex oder an den Hörzellen erfolgen.

Damit ist aber nicht unbedingt die Qualität des Signals an den Ohren (als möglichst genaues Abbild der Boxensignale) wichtig, sondern all das was das Gehör benötigt um aus diesen zwei an den Ohren ankommenden Signalverläufen die darin enthaltenen Schallanteile aller Schallquellen möglichst gut zu separieren. Das erfolgt - offenbar - in Räumen auch anhand von Reflexionen.

Grüße Joachim
Bild
chriss0212

Beitrag von chriss0212 »

Hallo Jochen
Es ist auch nicht so ohne weiteres möglich, in diesen zwei Signalverläufen „erste Wellenfronten“ oder gar „eingeschwungene Zustände“ eines Tones eines der (gleichzeitig spielenden) Instrumente zu erkennen.
Aus meiner laienhaften Sicht liegt hier ein Fehler...

Jeder Ton hat meiner Meinung nach seine eigene erste Wellenfront. Ich verstehe Dich aber so, dass Du immer vom gesamten Signal ausgehst.

Oder verstehe ich da etwas falsch?

Viele Grüße

Christian
Antworten