"Erste Wellenfronten" - Existenz und Notwendigkeit

Tontechnische Basisthemen

Beitragvon Horse Tea » 14.08.2018, 19:01

Diskus_GL hat geschrieben:Die Separation funktioniert ja auch mit nur einem Ohr. Auch da kann man sehr gut Stimmen Instrumente oder Geräusche auseinanderhalten - zwar nicht ganz so gut aber prinzipiell funktioniert das. Das funktioniert auch mit einem Ohr mit allen Reflexionen im Raum, die noch dazukommen.


Hallo Jachim,

hast Du für den von mir hervorgehobenen Nebensatz Links bzw. Literaturstellen? Mein Interesse hat mit diesem Faden hier nichts zu tun. Ich würde gerne mehr über das Hören von Menschen mit nur noch einem Ohr wissen.

Viele Grüße
Horst-Dieter
Bild
Horse Tea
Aktiver Hörer
 
Beiträge: 562
Registriert: 19.03.2016, 21:22
Wohnort: Unterfranken

Beitragvon nihil.sine.causa » 14.08.2018, 20:37

Hallo Joachim,

ich beschäftige mich seit einiger Zeit recht ernsthaft mit der Frage, wie Stereo funktioniert. Deine Thesen scheinen mir dabei nicht besonders hilfreich zu sein, denn Effekte wie erste Wellenfront zur Lokalisation von Phantomschallquellen, der "Präzedenzeffekt", wie ihn Hans-Martin weiter oben sehr richtig darstellt oder auch der Haas-Effekt sind sehr gut untersucht und nützlich anwendbar.

Ich mache mal ein Beispiel: Wenn man bei einer Stereoaufnahme akustischer Instrumente ein AB-Hauptmikrofon verwendet, welches von den aufzunehmenden Schallquellen weiter entfernt ist, als die Stützmikrofone. Dann kann man durch Panning der Stützen noch mit etwa unterhalb von 10 dB unter dem Pegel des Hauptmikrofons den resultierenden Richtungseindruck künstlich festlegen. Die Signale aus den Stützen kommen in der Mischung dann zeitlich vor dem Signal aus dem Hauptmikrofon. Und dieser Effekt ist sehr stark Richtungsbestimmend.

Diskus_GL hat geschrieben:bitte erkläre das mit dem "Impuls" und dessen Erholzeit mal an meinen zwei Bildern (dem mit den zwei Instrumenten und dem des Bach-Konzertes.
Was ist in diesen zwei Bildern jeweils der Impuls und was die Erholzeit (im Bach-Konzert ist ja eine Zeitachse mit Millisekunden-Angaben). Welcher dieser Impulse im ersten Bild gehört zu welchem Instrument?

Ich kann Dir viele Gegenbeispiele liefern, wo man auch an der Wellenformdarstellung sehr schön sehen kann, dass die Stereo-Signale Transienten (=instationäre Einschwingvorgänge) enthalten. Dass man der Wellendarstellung in Deinem Beispiel nicht ansehen kann, welches Instrument gerade spielt, ist doch kein Gegenargument für die Existenz von Transienten!

Diskus_GL hat geschrieben:PS.: Die Arbeit von Theile (http://hauptmikrofon.de/theile/1980-1_D ... eutsch.pdf) zeigt ja recht schön, das das Gesetz der Ersten Wellenfront bzw. der Präzendezeffekt so nicht mehr haltbar ist.

Ja, diese Arbeit hast Du schon oft zitiert. Sie wird durchaus kontrovers gesehen. Um das ernsthaft zu diskutieren, müssten wir viel tiefer und differenzierter einsteigen. Prinzipiell allerdings ist das Gesetz der ersten Wellenfront sehr gut untersucht. Wieso soll der Effekt nicht mehr gültig sein, nur weil ich auf ein anderes Erklärungsmodell gehe? Die Frage ist halt schon, was durch das Assoziationsmodell von Theile erklärt wird und was nicht. Ich zitiere mal aus diesem Beitrag:

Hans-Joachim Platte und Klaus Genuit hat geschrieben:Die oben diskutierte Modellvorstellung zur Summenlokalisation (Assoziationsmodell nach THEILE */3/) liefert für eine Reihe von psychoakustischen Phänomenen keine befriedigende Erklärung.
Es bleibt daher auch weiterhin die nachrichtentechnisch plausible Arbeitshypothese bestehen,
dass der Nachrichtenempfänger "menschliches Gehör" die von mehreren kohärenten Schallquellen resultierenden Ohrsignale in gleicher Weise verarbeitet wie Ohrsignale aufgrund einer einzelnen Schallquelle.


Viele Grüße
Harald
Bild
nihil.sine.causa
Administrator
 
Beiträge: 2339
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitragvon Hans-Martin » 14.08.2018, 20:43

Diskus_GL hat geschrieben:PS.: Die Arbeit von Theile (http://hauptmikrofon.de/theile/1980-1_D ... eutsch.pdf) zeigt ja recht schön, das das Gesetz der Ersten Wellenfront bzw. der Präzendezeffekt so nicht mehr haltbar ist.

Hallo Joachim,
Theile, S.54 hat geschrieben:Folgt man der Annahme in Abschnitt 4.1, daß das Gehör zwei kohärente Signale,
deren gegenseitiger Laufzeitunterschied einen Wert ∆t = τmax überschreitet, als
inkohärent bewertet, so deutet sich ein interessanter Zusammenhang an zwischen der
Lokalisationsreizselektion und dem „Gesetz der ersten Wellenfront“ (CREMER 1948).

Die Phantomschallquellenrichtung wandert in einer Stereo-Standardaufstellung von
ϕ = 0° nach ϕ = 30°, wenn die Laufzeitdifferenz der breitbandigen Lautsprechersignale
von Null auf etwa 600 µs vergrößert wird. Diese Erscheinung (Laufzeitstereofonie
ebenso wie Intensitätsstereofonie) könnte das Assoziationsmodell mit Gesetzmäßig-
keiten der Gestaltassoziationsstufe erklären: Der erste an der Gestaltassoziationsstufe
eintreffenden Lokalisationsreiz hat gegenüber dem zweiten ein größeres Gewicht
(äquivalent dazu der Lokalisationsreiz größerer Intensität bei Intensitätsstereofonie).
Beide Lokalisationsreize sind trotz ihrer Identität und ihrer gegenseitigen Verzöge-
rung selegierbar, weil sie beide im binauralen Korrelationsmuster vollständig und
unterscheidbar vorliegen (vgl. Abschn. 4.1).

Eine weitere Vergrößerung der Kanal-Laufzeitdifferenz führt jedoch dazu, daß die
maximale Verzögerungszeit τmax überschritten wird. Das hat bei stationären breit-
bandigen Signalen (Dauerrauschen) eine Störung der Lokalisationsreizselektion zur
Folge, die sich beispielsweise in verringerter Unterdrückung der Kammfilterwirkung
ausdrückt. In dieser Schallfeldkonstellation kann das Gesetz der ersten Wellenfront in
Übereinstimmung mit dem Assoziationsmodell nicht beobachtet werden. Es sind
keine auswertbaren Wellenfronten vorhanden, die eine Lokalisationsreizselektion für
die eintreffenden Schallanteile zulassen würden.

Bei instationären impulshaltigen Signalen (Knacke, Sprache, Tonimpulse) dagegen
wirkt sich die Vergrößerung der Kanal-Laufzeitdifferenz anders aus. Im Assoziati-
onsmodell gewährleistet die Hüllkurvenauswertung, daß der Primärschall und der
verzögerte Schallanteil (Rückwurf) als Lokalisationsreize selegiert werden können.
Entsprechend einer hypothetischen Funktion der Gestaltassoziationsstufe bestimmt
der primäre Lokalisationsreiz das Hörereignis, dies umso mehr, je größer die Zeitdif-
ferenz der eintreffenden Lokalisationsreize wird. Erst nach Überschreitung einer
Zeitdifferenz von etwa 10 ... 30 ms bekommt der nacheilende Lokalisationsreiz
wieder zunehmendes Gewicht, er wird oberhalb der Echoschwelle (Definition z.B.
BLAUERT 1974) als getrenntes Hörereignis wahrnehmbar.

Offenbar läßt sich das „Gesetz der ersten Wellenfront“ als das „Gesetz des ersten
Lokalisationsreizes“ interpretieren.

Theile hat geschrieben:Das Assoziationsmodell sagt also aus, daß bei impulshaltigen, breitbandigen Signalen
solche Hörereigniserscheinungen, die infolge von Laufzeitdifferenzen der Sendesigna-
le auftreten, mit dem „Gesetz des ersten Lokalisationsreizes“ erklärt werden können.
Das bedeutet: die jeweils zuerst an der Gestaltassoziationsstufe eintreffenden Reiz-
antworten dominieren im Verarbeitungsprozeß dieser Stufe, die späteren werden
unterdrückt. Das Modell sagt weiter aus, daß Laufzeitstereofonie auch für stationäre
breitbandige Signale möglich ist, dagegen das Gesetz der ersten Wellenfront nur an
Signalen mit ausgeprägten Hüllkurven nachzuweisen ist.
Diese Aussage interpretiere ich so, dass konstruierte kurze impulshafte Laute sich anders verhalten als Sprache oder Musik, die beide von charakteristischen Hüllkurven anhaltender Dauer geprägt werden. Die Hüllkurven haben relativ tieffrequente Anteile, die bis 0,3Hz herabreichen. Mit eren Auswertung hat unser Gehör keine Probleme (bezüglich der Erholzeiten der Hörzellen (Härchenzellen der Cochlea).

Diskus_GL hat geschrieben:Die Separation funktioniert ja auch mit nur einem Ohr. Auch da kann man sehr gut Stimmen Instrumente oder Geräusche auseinanderhalten - zwar nicht ganz so gut aber prinzipiell funktioniert das. Das funktioniert auch mit einem Ohr mit allen Reflexionen im Raum, die noch dazukommen.
Würde das anhand von Unterschieden in den zwei Ohrsignalen erfolgen (Wellenfronten, Amplituden- und Zeitunterschiede bzw. Freuqenz und Phasenunterschiede) würde das mit einem Ohr nicht funktionieren...
Eine Separation anhand eine Musterabgleichs ist auch mit einem Ohr schlüssig erklärbar.

Theile, S.57 hat geschrieben:Beispielsweise kann aus einem ausreichend vielstimmigen Stimmgewirr nicht ein
bestimmter Sprecher "herausgehört" werden, wenn ein Ohr verschlossen wird, weil
damit die Ortsassoziationsstufe keinen Selektionsbeitrag mehr liefern kann. Die
Lokalisationsreizselektion ist ein sinnvoller Vor-Selektionsprozeß, der der höhergela-
gerten Mustererkennung vorangeht. Jede der beiden Verarbeitungsstufen selegiert die
Muster hinsichtlich unterschiedlicher, voneinander unabhängiger Merkmale. Die
resultierende Auflösung der unterschiedlichen Muster gewährleistet dann, daß das
Gehör einzelne Hörereignisse unterscheiden kann.

Merkwürdig, ich lese Theile und interpretiere ihn ganz anders als du. Auf welche Textstelle bei Theile beziehst du dich?
Grüße
Hans Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 5708
Registriert: 14.06.2009, 15:45

Beitragvon Diskus_GL » 15.08.2018, 10:21

Hallo,
@Horst-Dieter: Spezielle Literatur habe ich da nicht. In Jens Blauerts „Räumliches Hören“ wird immer wieder mal auf die Unterschiede zwischen Hören mit zwei und mit einem Ohr eingegangen.
Man kann aber sehr gut selbst prüfen, was man mit einem Ohr alles „hört“. Einfach ein Ohr zuhalten und man kann sehr gut mehrere Schallquellen auseinanderhalten. Auch die meisten ASA-Demo-Beispiele (http://webpages.mcgill.ca/staff/Group2/ ... oadsdl.htm - die ohnehin fast alle in Mono sind) funktionieren sehr gut auch mit nur einem Ohr (einfach beim Kopfhörer die Balance nur auf einen Kanal stellen).

Allein das zeigt, daß die Separation ohne ILD und ITD oder „erste Wellenfronten“ auskommt (die werden zwar im weitesten Sinne sicherlich mit zur Separation verwendet, da sie ja Teil des zu suchenden „Musters“ sind, aber die Auswertung kann - logischerweise – erst erfolgen, wenn sie als zu einer Schallquelle zugehörig separiert wurde).


@Harald: Deine Ausführungen zur Mikrofonplatzierung und deren Einfluss wiederspricht ja nicht dem Modell, daß die Separation der Schallquellen, die in dem an den Ohren ankommenden Schall entahlten sind, nicht über „erste Wellenfronten“ erfolgt.
Daß der an den Ohren ankommenden Schall Transienten enthält ist doch völlig klar – mir geht es ja gerade darum, wie das Gehör die zu einer Schallquelle gehörenden Transienten von den Transienten, die zu einer der vielen anderen in diesem Schall enthaltenen Schallquellen gehören, voneinander trennt …also alle enthaltenen Transienten voneinander separiert und diese dann den (richtigen) Schallquellen zuordnet.
Für mich ist es logisch (unabhängig davon wie genau das Gehör das macht), daß vor einer Auswertung der Transienten einer Schallquelle, zuerst diese Transienten der jeweiligen Schallquelle (richtig) zugeordnet werden müssen (voneinander separiert werden)… und zwar in beiden Ohrsignalen. Denn – und das ist für mich aufgrund der physikalischen Zusammensetzung des Schalls an den Ohren klar – die im Schallverlauf an den Ohren „erkennbaren“ Transienten“ (starken Amplitudenschawnkungen) können nicht einer Schallquelle zugeordnet werden – weder bez. ihrer Amplitude noch ihrees zeitlichen Verlaufs (Steigung).
Erst nach einer (erfolgreichen) Separation kann das Gehör anhand dieser (zu einer Schallquelle gehörenden) Transienten alle zu dieser Schallquelle gehörenden weiteren Auswertungen machen…z. B. die Lokalisation anhand von ITD und ILD dieser in beiden Ohrsignalen separierten Transienten dieser einen Schallquelle.
Stell Dir mal vor, das Gehör würde z. B. bei 4 vorhandenen Schallquellen (deren Schall gleichzeitig an beide Ohren kommt) die Transienten einer Schallquelle mit denen einer anderen Schallquelle „verwechseln“ oder gar die Transienten einer Schallquelle in einem Ohr mit den Transienten einer anderen Schallquelle im anderen Ohr für ITD/ILD „auswerten“ (wobei genau das ja oft passiert und sich in Form von „ungenauer Lokalisation“ und „schlechtem Klang“ bei der Wiedergabe über Anlagen bemerkbar macht… es ist erklärbar, durch die „ungenaue“ Zuordnung von im Schall enthaltenen „Transienten“ durch schlechte Separation).


@Hans-Martin: Ich denke auch, daß das Gehör auch bei der Separation zwischen bestimmten „Signaltypen“ unterscheidet (Sprache, Musik, kurze Impulse etc.). Insofern sehe ich da auch keinen Wiederspruch zu „Erholzeiten“ der Hörzellen etc..
Das Eine ist die physikalische Umsetzung des an den Ohren ankommenden Schallsignals in Nervenimpulse (mit den enstpr. Limitierung der Feuerungsraten und notwqendigen Erholzeiten etc.) Das Andere ist die Auswertung dieser Nervenimpulse. Diese erfolgt – nach meinem Verständnis und Interpretation vieler Studien etc. – nicht direkt proportional dem zeitlichen Verlauf dieser Nervenimpulse. Es werden offenbar vornehmlich größere Zeitabschnitte ausgewertet (wodurch sich z. B. Erholzeiten der Hörzellen nicht so dramatisch auswirken).

Die letzten beiden Zitate Deines Beitrags (meins und das von Theile) sehe ich auch nicht als Wiederspruch. Ich schreibe ja, daß die Unterscheidung von Schallquellen mit einem Ohr nicht so gut funktioniert wie mit zwei. Auch Theile hat ja ausgeführt, „kann aus einem ausreichend vielstimmigen Stimmgewirr nicht ein bestimmter Sprecher "herausgehört" werden, wenn ein Ohr verschlossen wird,…“ .

Es können aber sehr wohl mit einem Ohr verschiedenen Stimmen (und auch deren Inhalte, was sie sagen) auseinandergehalten werden. Je unterschiedlicher die Schallquellen sind (Musikinstrumente und Stimmen), desto besser kann man sie auch mit einem Ohr auseinanderhalten (kann man ja leicht selbst ausprobieren).

Allein die Tatsache, daß wir bei mehreren Stimmen die gleichzeitig sprechen auch mit einem Ohr Wörter und Sätze „verstehen“, ist – nach meiner Logik – nur vorstellbar, wenn die zu diesen Wörtern zugehörigen Schallanteile jeweils von all den anderen Schallanteilen separiert worden sind. Nur dann wird das Gehirn, einen (separierten) Signalverlauf als ein bestimmtes Wort interpretieren und mehrere Wörter als einen (zusammenhängenden) Satz, wenn die „Separation „ der Schallanteile dieser Schallquelle (des Sprechers dieses Satzes) weiterhin halbwegs zuverlässig funktioniert.
Diese Unterscheidung der im Schallsignal enthaltenen Schallquellen mit einem Ohr kann aber – zumindest nach meiner Logik – nicht anhand von „ersten Wellenfronten“ dieses Schallsignals (das ja die Summe des Schalls aller Schallquellen ist) oder gar ILD/ITD erfolgen (da ja bei einem Ohr ILD und ITD nicht funktioniert).

Das die Separation mit zwei Ohren (also zwei Ohrsignalen) in jedem Fall besser funktioniert ist klar.

Die ASA-Demo-Beispiele (http://webpages.mcgill.ca/staff/Group2/ ... oadsdl.htm) kann man fast alle auch mit einem Ohr „wahrnehmen“.
Wenn man das, was man da „hört“ mal mit dem entsprechenden Signalverlauf vergleicht (z. B. Darstellung via Audacity) kann ich mir das Hörergebnis nicht anhand von „ersten Wellenfronten“ dieses Signalverlaufs erklären und – da ohnehin die meisten dieser Beispiel in Mono – auch nicht anhand von ILD/ITD.
Mit einem Hörmodell, das primär eine Separation der (vermeintlich) „zusammengehörigen Schallanteile“ macht (z. B. anhand von Musterabgleichen), ist das aber sehr wohl erklärbar….
Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 543
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon nihil.sine.causa » 15.08.2018, 16:48

Hallo Joachim,
Diskus_GL hat geschrieben:@Harald: Deine Ausführungen zur Mikrofonplatzierung und deren Einfluss wiederspricht ja nicht dem Modell, daß die Separation der Schallquellen, die in dem an den Ohren ankommenden Schall entahlten sind, nicht über „erste Wellenfronten“ erfolgt.

Bei einem Modell ist halt immer die Frage, welche Erklärungen es leistet und welche nicht. Wenn Du schreibst - Separation der Phantomschallquellen vor Auswertung der Ohrsignale hinsichtlich ILD (Interaural Level Difference) und ITD (Interaural Time Differece) – dann klingt das zwar spektakulär, aber es erklärt mir nix.

Machen wir es konkret: Wenn Du die Erklärung unter Ausnutzung des Prinzips der „ersten Wellenfront“ ablehnst, wie erklärst Du dann, dass in meinem Beispiel die (gepannten) Stereo-Signale aus den Stützmikrofonen richtungsbestimmend sind?

Viele Grüße
Harald

P.S. Wie stehst du denn zu der Kritik von Hans-Joachim Platte und Klaus Genuit?
Bild
nihil.sine.causa
Administrator
 
Beiträge: 2339
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitragvon Diskus_GL » 16.08.2018, 10:14

Hallo Harald,

das ist eigentlich gar nicht spektakulär. Für mich ist das logisch, allein aus der Analyse des an den Ohren ankommenden Schalls und dem was wir hören.
Letztendlich gehts ja darum, was muss ich machen, damit ich eine bestimmte Klangqualität erreiche.
Das Schallsignal an den Ohren ist immer ein komplexes Summensignal. Damit gibt es keinen direkt proportionalen Bezug zu den Signalen der Quellen (wie ja mein erstes Bild prinzipiell sehr schön zeigt).
Man kann also nicht sagen, daß z. B. ein starker Anstieg in den Ohrsignalen, einem der Schallquellen "gehört" - dieser Anstieg ist ja die Summe von Anstiegen, Abfällen etc. aller an den Ohren ankommenden Schallquellen.

Ich kann aber sehr wohl aus diesem Signal jede einzelne Schallquelle lokalisieren und auch alle Klangeigenschaften jeder dieser Schallquellen separat "hören".
Es passiert kaum, daß ich den Ton der Geige dem des Klaviers zuordne... oder Stimmenanteile einer Sängerin der Stimme eines Sängers - selbst wenn beide instrumente oder beide Stimmen zeitweilig gleichzeitig gleiche Frequenzanteile haben (bei einer Spektralanalyse).
Das passiert ja nicht.
Das passiert übrigens auch nicht, wenn man mit nur einem Ohr hört - dann wird es zwar prinzipiell schwerer, aber Männerstimme von Frauenstimme von Klavier von Geige etc. kann man auch sehr gut mit einem Ohr unterscheiden und auch "verstehen" (Wörter, Sätze, Melodie etc.)
Daraus ergibt sich - für mich logisch - daß das Gehör die jeweiligen Schallanteile jeder Schallquelle separieren muss - denn erst die separierten Schallanteile erlauben ja eine Auswertung nur für diese Schallquelle.
Da wir ja z. B. bei Musik (mehrere Instrumente, Sänger etc. gleichzeitig spielend) Klangeindrücke für jedes Instrument, jeden Sänger etc. separat "hören", ist es lögisch daß diese Separation stattfindet.

Und damit ist für mich auch auch logisch, daß die Qualität der Klangeindrücke aller Schallquellen von der Qualität der Separation abhängen. Auch deren Lokalisation, denn auch die kann für eine Schallquelle erst erfolgen, wenn deren Schallanteile in beiden Ohrsignalen separiert sind (das wird dann sicherlich anhand von ILD und ITD erfolgen aber eben erst nach der Separation mit den separierten Schallanteilen jeder Schallquelle).
Je besser das Gehör die Schallanteile einer Schallquelle separiert hat, desto "perfekter" stimmt dieser separierte Schallanteil einer Schallquelle mit dem Originalsignal dieser Schallquelle überein ...und desto "besser" (oder originaler) kann man diese Schallquelle "hören".

Da - wie o. a. - das komplexe Summensignal an den Ohren keinen direkt proportionalen Bezug zu den Signalen der Quellen hat, wird die Separation mit grosser Wahrscheinlichkeit längere Zeitabschnitte dieses Summensignals "auswerten" (für die Separation).
Die Vermutung (schon bei Blauert aufgeführt) ist daß dabei eine sog. gleitende Kreuzkorrelation mit Musterabgleich stattfindet (mit "gespeicherten" Schallmustern aus der Erinnerung). Als Zeitspanne wird bis zu 50ms angenommen (Echoschwelle) - die aber sicherlich nicht fix ist und von vielen Parametern abhängt.

Welchern Bezug hat das jetzt zur Musikwiedergabe über Anlagen?
Mit der Annahme, daß die Qualität der Separation entscheidend ist für die Qualität aller Klangeindrücke die wir hören und aus der Logik, daß das komplexe Summensignal an den Ohren keinen direkt proportionalen Bezug zu den Signalen der Quellen hat, ist es nicht mehr das Ziel, den "Quellsignalverlauf" (also den von CD oder Schallpatte etc.) möglichst "unverfälscht" an die Ohren zu bringen, sondern die für eine möglichst gute Separation notwendigen Voraussetzungen für das Gehör zu schaffen - das sind zwei unterschiedliche Ziele mit teilweise unterschiedlcihen Vorgehensweisen.

Damit sind z. B. die "Veränderungen" des "Originalsignals" an den Ohren durch die "Überlagerung" von Reflexionen nicht mehr per se "kritisch". Solange die Reflexionen auch gut separiert werden können, bzw. die in den Reflexionen enthaltenen (Original-) Schallquellen (wenn es Reflexionen eines Musiksignals aus den Boxen ist), sind Refleionen sogar hilfreich für die Separation (was z: b. Dein Beispiel mit den Stützmikrofonen zeigt).

Dein Beispiel mit den Stützmikrofonen lässt sich gut erklären. In allen vier Mikros sind identische Schallmuster (der jeweiligen Instrumente), die sich durch einen zeitlichem Versatz und im Pegel voneinander unterscheiden. Die zeitlich zuerst erkannten (und daraufhin separierten) "Muster" sind die aus den Stützmikrophonen, somit werden die für die Lokalisation herangezogen (und damit wird auch der sog. auditive Stream für diese Schallquelle gebildet - passt ohnehin auch gut zu ASA).
Alle später eintreffenden (sepatierten) Muster (die aus den Hauptmikros), die einem bereits vorher "separiertem" (also erkanntem und separiertem) Muster entsprechen, müssen Reflexionen dieses Musters sein und haben damit nur noch einen geringen (oder gar keinen) Einfluss auf die Lokalisation! Sie werden aber dem beriets gebildetem auditiven Stream zugeordnet und "verbessern" dessen Informationsgehalt (da sie ja pegelmäßig lauter sind und auch sehr gut mit dem bereist erkannten Muster übereinstimmen...sie "vervollständigen" das beriets bekannte Muster).
In der Natur ist es ja eigentlich immer so, daß der zeitlich zuerst ankommende Schall der ist, der direkt zum Ohr gelangt, jeder später eintreffende Schallanteil wird somit mit bereits vorher "erkannten" und separierten Mustern verglichen - vor Allem wenn man in Räumen ist.

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 543
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon nihil.sine.causa » 16.08.2018, 12:02

Hallo Joachim,

Diskus_GL hat geschrieben:Dein Beispiel mit den Stützmikrofonen lässt sich gut erklären. In allen vier Mikros sind identische Schallmuster (der jeweiligen Instrumente), die sich durch einen zeitlichem Versatz und im Pegel voneinander unterscheiden. Die zeitlich zuerst erkannten (und daraufhin separierten) "Muster" sind die aus den Stützmikrophonen, somit werden die für die Lokalisation herangezogen (und damit wird auch der sog. auditive Stream für diese Schallquelle gebildet - passt ohnehin auch gut zu ASA).
Alle später eintreffenden (sepatierten) Muster (die aus den Hauptmikros), die einem bereits vorher "separiertem" (also erkanntem und separiertem) Muster entsprechen, müssen Reflexionen dieses Musters sein und haben damit nur noch einen geringen (oder gar keinen) Einfluss auf die Lokalisation! Sie werden aber dem beriets gebildetem auditiven Stream zugeordnet und "verbessern" dessen Informationsgehalt (da sie ja pegelmäßig lauter sind und auch sehr gut mit dem bereist erkannten Muster übereinstimmen...sie "vervollständigen" das beriets bekannte Muster).
In der Natur ist es ja eigentlich immer so, daß der zeitlich zuerst ankommende Schall der ist, der direkt zum Ohr gelangt, jeder später eintreffende Schallanteil wird somit mit bereits vorher "erkannten" und separierten Mustern verglichen - vor Allem wenn man in Räumen ist.

An der Stelle, an der Du von "zuerst erkannten Mustern" sprichst, würde ich von "erster Wellenfront" (des jeweiligen Signals beginnend mit der Transiente) sprechen. An sonsten erscheint mir Deine Erklärung schlüssig und gar nicht so weit entfernt vom common sense.

Nur warum in aller Welt muss das Gehör jedes einzelne Muster separat erkennen können um es anschließend wieder zusammen zu setzen? Welche Evidenz gibt es für disese "separierende" Erkenntis? Ich höre das Gesamtgeschehen im Raum. Ob es nun von einer einzelnen Schallquelle (akustisches Instrument) im Raum stammt oder ob es mir von zwei Stereolautsprechern "vorgegaukelt" wird.

Betrachten wir die von Stereolautsprechern produzierten Schallwellen: wenn die einzelnen Muster, dem Gehör wirklich separat vorliegen (erkanntes Muster vom linken Lautsprecher am linken Ohr, erkanntes Muster vom linken Lautsprecher am rechten Ohr, erkanntes Muster vom rechten Lautsprecher am linken Ohr und erkanntes Muster vom rechten Lautsprecher am rechten Ohr), warum hören wir dann nicht die beiden Stereo-Lautsprecher im Raum separat?

Offenbar doch deswegen, weil wir, wenn wir die einzelnen Muster separat erkennen würden, wir diese Erkenntis über die Einzelmuster anschließend sofort wieder vergessen müssten. Denn das Gehör setzt nach dem Prinzip der Summenlokation und unter Anwendung Präzedenzeffekt alles zu einem ganzheitlichen Bild zusammen. Was also lernen wir aus der Separation, wenn sie (a) empirisch nicht evident ist und (b) nichts erklärt, was wir nicht auch einfacherer erklären können?

Viele Grüße
Harald

P.S. Deine Antwort auf die Kritik von Hans-Joachim Platte und Klaus Genuit steht noch aus :wink:
Bild
nihil.sine.causa
Administrator
 
Beiträge: 2339
Registriert: 28.07.2011, 12:31
Wohnort: Bonn

Beitragvon Diskus_GL » 16.08.2018, 13:59

Hallo Harald,

ja, man kann es durchaus auch so sehen, das jedes separierte Muster mit einer Wellenfront und Transiente beginnt. Aber auch hier muss die zu einer Schallquelle gehörende Wellenfront und deren Transiente von all den anderen Wellenfronten und deren Transienten in dem komplexen Summensignal an den Ohren voneinander getrennt werden.

Der gedankliche Unterschied ist, daß das komplexe Summensignal an den Ohren keinen direkt proportionalen Bezug zu den Signalen der Quellen hat. Ich kann also keinen Signalabschnitt des Signals an den Ohren direkt proportional einer Wellenfront (und Transienten) eines Quellsignals zuordnen.
Das geht nur im schalltoten Raum wenn auch nur ein (1) Instrument spielt...und das kommt ja ausgesprochen selten vor.
Das Gehör muss aber diese Separation machen, weil es sonst ja nur das Summensignal "analysieren" könnte (es gibt ja nichts anderes). Also wir würden gar keine einzelnen Instrumente hören oder einzele Stimmen (wenn auch andere sprechen). Die Tatsache, daß wir Instrumente separat hören und Stimmen voneinander unterscheiden können bedingt - logischerweise - daß das Gehör diese Schallanteiel inrgendwie voneinander trennt.
Da aber in jedem Raum jedes Schallsignal einer Quelle in diesem Raum reflektiert wird, (und das weiss das Gehör mit Sicherheit auch... siehe Versuche von Blauert, Linkwitz etc...) kann auch das Gehör davon ausgehen, daß ein Teil der (aktuell) separierten Muster (oder von mir aus auch Wellenfronten und Transienten) zu bereits zeitlich vorher separierten Mustern passen könnte... wenn ja, werden diese Muster den bereits vorher separierten Mustern "zugeordnet" und offenbar auch "genutzt" (wodurch sich Dein Beispiel mit den Stützmikros schön erklären lässt).
ASA liefert hierzu ja auch schöne Erklärungen und Beispiele wonach das Gehör offenbar separiert.

Warum hören wir die beiden Stereo-LS nicht separat? ...naja, manchmal hören wir diese ja separat, genau dann, wenn die Anlage nicht die für eine gute Separation nötigen Voraussetzungen erfüllt.
Ich kenne Anlagen, die haben guten Klang und Bühnenabbildung nur im Sweetspot. Bei manchen dieser Anlagen hat man dann noch den Eindruck, "der klang löst sich von den Boxen". Andere Anlagen schaffen ein sog. "Loslösen des Klangs von den Boxen" auch weit ausserhalb des Sweetspots.
Interessanterweise lässt sich der Klang der letztgenannten Anlagen selten mit einer möglichst guten Übereinstimmung des Boxensignals mit dem Quellsignal erklären (was ja prinzipiell nicht geht), aber eben recht gut mit der Separation und den dazu notwendigen Voraussetzungen (Symmetrie der Boxensignale, Reflexionen am Hörplatz etc.).

Aus der Feststellung, daß das komplexe Summensignal an den Ohren keinen direkt proportionalen Bezug zu den Signalen der Quellen hat und das Gehör dieses Summensignal nach anderen Kriterien "analysiert" als die "Form" oder den "Verlauf" dieses Summensignals an den Ohren. macht es auch wenig Sinn, z. B. zu versuchen, diesen Verlauf des Summensignal an den Ohren möglichst genau in Übereinstimmung mit dem Originalsignal zu bringen (CD, Schallplatte etc.) oder das als Bewertungsmasstab für den Klang einer Anlage zu nehmen.

Das erklärt dann z. B., daß ich am Hörplatz Kammfiltereffekte zwar messe, diese aber in keiner Weise "höre" (nur in bestimmten Fällen, die sich dann aber wieder über die Separation erklären lassen).
Auch viele andere "Messungen" am Hörplatz deren hörbare Einflüsse bisher nur in bestimmten Fällen nachvollziehbar sind, lassen sich erklären - auch ein z. B. unsteter F-Gang der Box.

Grüße Joachim

PS.: Antwort auf die besagte Kritik mache ich noch später.....sorry..
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 543
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon Diskus_GL » 16.08.2018, 19:06

Nachtrag... manche Dinge fallen einem erst beim nochmaligen Lesen auf...

nihil.sine.causa hat geschrieben:An der Stelle, an der Du von "zuerst erkannten Mustern" sprichst, würde ich von "erster Wellenfront" (des jeweiligen Signals beginnend mit der Transiente) sprechen. An sonsten erscheint mir Deine Erklärung schlüssig und gar nicht so weit entfernt vom common sense.


Ich meine mit erkanntem Muster das einer Schallquelle im Originalsignal (also z. B. ein Instrument).
Dieses Muster wird aus dem Ohrsignal (dem Summensignal aller Schallquellen deren Schall ja gleichzeitig an die Ohren kommt) separiert.

nihil.sine.causa hat geschrieben:Nur warum in aller Welt muss das Gehör jedes einzelne Muster separat erkennen können um es anschließend wieder zusammen zu setzen? Welche Evidenz gibt es für disese "separierende" Erkenntis? Ich höre das Gesamtgeschehen im Raum. Ob es nun von einer einzelnen Schallquelle (akustisches Instrument) im Raum stammt oder ob es mir von zwei Stereolautsprechern "vorgegaukelt" wird.


Das Gehör "muss" das nicht machen, sondern es macht es - als Feststellung (!) rein aus der Analyse dessen was ich (und jeder andere Mensch) bei Musik (und in jedem Augenblick) "hört" (angeblich "schläft" das Gehör nicht).

Die Tatsache, daß wir z. B. in einer Gesprächsrunde bei der mehrere Menschen fortlaufend gleichzeitig sprechen jeden Sprecher einzeln "hören" und "verstehen" (oder uns auf einen fokussieren) setzt zwingend eine Separation der zu jedem Sprecher gehörenden Information - also dem Signalverlauf jedes Sprechers - voraus.
Ansonsten würden wir nicht nur Wörter von unterschiedlichen Sprechern zu "nichtzusammengehörigen" Sätzen vermischen, sondern auch Buchstaben bzw. die sich überlagernden Schallsignale zu neuen Buchstaben oder dann eher "Geräuschen" zusammensetzen.
Bei Musik mit mehreren Instrumenten wäre dann z. B. ein neuer Ton, der sich aus dem Schallanteil z. B. der Geige und des Klaviers zusammensetzt, hörbar - von denen ja zur gleichen Zeit und auch über einen gleichen Zeitraum hinweg sich überlagernde Schallsignale an die Ohren kommen - das Gehör also anhand dieses Suemmsingnal auch über einen längeren Zeitraum hinweg nicht direkt weiss welcher Schallanteil zur Geige und welcher zum Klavvier gehört. Also das, was Du als "Gesamtgeschehen" im Raum betrachtest "hörst" Du auch in Form seiner einzelnen an diesem Geschehen beteiligten Schallquellen... Du kannst jede einzelne Schallquelle separat "auswerten" hinsichtlich ihres Klangs und ihrer Lokalisation. -auch wenn Du es als "Gesamtgeschehen" wahrnimmst. Das macht das Gehirn dann anhand der separat gehörten Schallquellen... die es dann miteinander "verknüpft". Aber Stimme wird dabei anders "interpretiert" - Du kannst den gesungenen Text versehen - als Klavier oder Geige (die Du auch mit ihrem jeweiligen Klang "hörst"... also schon "separat".

Das Summensignal an den Ohren beinhaltet zwar alle dazu notwendigen "Informationen" aber nicht in "kodierter" Form welcher Schallanteil zu welcher Schallquelle gehört.
Diese "Informationstrennung" (und Zuordnung welche Information zu welcher Schallquelle gehört) macht das Gehör durch die Separation...erst danach (!) kann es Klang und auch Lokalisation für jede dieser "Informationen" ermitteln (vorher kann es gar keine Auswertung für die jeweiligen in den Ohrsignalen enthaltenen Schallquellen machen...das wäre unlogisch).

Was bringt das Ganze?
In erster Linie ein besseres Verständnis wie die Klangeindrücke entstehen könnten und wovon deren Qualität abhängen könnte.
Wie an den o. a. "Gegenbeispielen" zu sehen, was passieren kann, wenn die Separation nicht oder nur unzureichend funktioniert, ist das schon eine Erklärung für manche "Klangunterschiede" bei Anlagen. Denn ich bin mir sicher, daß viele unterschiedliche Klangeindrücke bei unterschiedlichen Anlagen - z. B. bez. der Wiedergabe von Stimmen oder der Bühnenabbildung - auf die unterschiedliche Qualität der Separation im Gehör zurückzuführen sind. Es wurden einfach nicht alle zu der jeweiligen Schallquelle (z. B. des Klaviers) gehörenden
Informationen separiert ...und evt. sogar Schallanteile des Klaviers denen anderer Instrumente zugeordnet, was natürlich deren Klangeindruck "verändert" - kurz gesagt die klingen dann anders als über eine Anlage, bei der dem Gehör diese Separation "besser" gelingt.

Im Weiteren erlaubt das ein besseres Verständnis vom Signal an den Ohren... also welchen Einfluss haben Reflexionen auf die Ohrsignale... sie verändern zwar das Ohrsignal, aber offenbar nicht die Klangeindrücke in der Form wie man die Veränderung messen kann (siehe Linzwitz etc....).

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 543
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon Hans-Martin » 16.08.2018, 21:34

Diskus_GL hat geschrieben:Wie an den o. a. "Gegenbeispielen" zu sehen, was passieren kann, wenn die Separation nicht oder nur unzureichend funktioniert, ist das schon eine Erklärung für manche "Klangunterschiede" bei Anlagen. Denn ich bin mir sicher, daß viele unterschiedliche Klangeindrücke bei unterschiedlichen Anlagen - z. B. bez. der Wiedergabe von Stimmen oder der Bühnenabbildung - auf die unterschiedliche Qualität der Separation im Gehör zurückzuführen sind.

Hallo Joachim,
wenn die Separation ein Vorgang im Gehör ist, hat er mE. eine personenspezifische gleichbleibende Qualität, und ist nicht eine Funktion der (austauschbaren) Anlage.
Es wurden einfach nicht alle zu der jeweiligen Schallquelle (z. B. des Klaviers) gehörenden
Informationen separiert ...und evt. sogar Schallanteile des Klaviers denen anderer Instrumente zugeordnet, was natürlich deren Klangeindruck "verändert" - kurz gesagt die klingen dann anders als über eine Anlage, bei der dem Gehör diese Separation "besser" gelingt.

Ich erinnere mich an ein Telefonat mit Peter Lyngdorf, der mir bestätigte, dass im Hintergrund Oscar Peterson Klavier spielte. Nicht nur, dass ich Peter LKyngdorfs Stimme erkannte, das eingeschränkte Spektrum des Telefons war hinreichend, ein Klavier von einer Geige zu unterscheiden, und ich konnte sogar den Interpreten erkennen, ohne das Stück jemals vorher gehört zu haben.
Im Weiteren erlaubt das ein besseres Verständnis vom Signal an den Ohren... also welchen Einfluss haben Reflexionen auf die Ohrsignale... sie verändern zwar das Ohrsignal, aber offenbar nicht die Klangeindrücke in der Form wie man die Veränderung messen kann (siehe Linzwitz etc....).

Konzertsäle haben lange Nachhallzeiten, Theater haben aus gutem Grund kurze .
Eine Durchsage im Bahnhof versteht man nicht, obwohl es nur 1 Sprecher ist, eben weil die Hallanteile das Verständnis unmöglich machen. Diese Erfahrung kann wohl jeder bestätigen, und da wäre Separation des Originalschalls vom Hall sehr wünschenwert.

Hast du schon mal versucht, deine Theorien von einem Experten kommentieren zu lassen wie z.B. zitierter Prof. Jens Blauert, der übrigens einst relativ schnell auf meine Anfrage per E-Mail reagiert hat. Ich denke, auch Gunther Theile wird auf eine qualifizierte Frage eine gute Antwort parat haben, trotz Ruhestand. Auch Klaus Genuit schrieb mir zurück, ebenso Tony Faulkner, Doug Sax, Stan Ricker, Eberhardt Sengpiel (lange bevor er hier im Forum auftauchte) und Dr. Christian Koch, Leiter des Fachbereichs Schall der PTB.
Gute Leute sind meiner Erfahrung nach gern behilflich, wenn es darum geht, jemand, der ihre Ideen aufgegriffen hat, vor Fehlinterpretation zu bewahren. Höflich und sachbezogen angeschrieben, habe ich immer eine freundliche und inhaltlich individuell ausgearbeitete Antwort bekommen (nur bei Siegfried Linkwitz waren es offensichtlich Textbausteine, verständlich angesichts seiner fortgeschrittenen Erkrankung).
Besonders bemerkenswert scheint mir die Beobachtung, dass gerade bei den reiferen Herrschaften die Informationsdichte der Antwort ungeahnte Größenordnung erreichen kann, was ich als persönliche Bereicherung aufnahm, etwas von Wert, was mich auch vor manchem Holzweg bewahrte.
Grüße
Hans-Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 5708
Registriert: 14.06.2009, 15:45

Beitragvon Diskus_GL » 17.08.2018, 08:52

Hallo Hans-Martin,

die Separation an sich wird (wahrscheinlich) ein individueller Vorgang im Gehör sein, ebenso wie die Muster, mit denen das Gehör die Separation macht. Da wird auch im Laufe des Lebens ein Training stattfinden.
Die Wiedergabeanlage hat aber sehr wohl einen Einfluss, da sie ja die "Rahmenbedingungen" schafft, damit die Separation - mehr oder weniger gut - gelingt.
Z. B. wird das Reflexionsbild am Hörplatz allein durch die Anlage bestimmt (welche Boxen mit welchem Abstrahlverhalten an welchen Plätzen im Raum im Bezug zum Hörplatz etc.. Auch andere Aspekte der Anlage spielen da eine Rolle), das hat einen nicht unerheblichen Einfluss. Wenn wir etwas "unscharf" lokalisieren schafft es das Gehör offenbar nicht die Schallanteile dieser Schallquelle gut genug zu separieren. Über eine andere Anlage kann das dann besser loklisiert werden...weil dann die Separation besser gelingt (wiel die Anlage in Bezug auf die Voraussetungen zur Separation besser ist).

Es geht nicht Reflexionen an sich, sondern diese Reflexionen am Hörplatz müssen bestimmte Bedingungen erfüllen. Extreme wie Konzerthallen oder Bahnhofshallen sind auch für die Separation z. T. sehr ungünstig und dementsprechend hört man da auch.
Linkwitz z. B. beschäftigt sich eher mit Wohnräumen und den Bedingungen für Reflexionen die da wichtig sind.

Meine "Gedanken" sind ja nicht so neu... u. a. Albert S. Bregman (http://webpages.mcgill.ca/staff/Group2/ ... abpubl.htm) hat die Notwendigkeit der Separation ja auch schon vor längerer Zeit aufgeführt. Interessant finde ich, daß man bei vielen der Branche (z. B. Linkwitz, oder bei Entwicklern z. B. von DIRAC, CHORD) immer öfter Verweise auf ASA bzw. die Problematik der Separation liest.
Aber die Idee solche Personen mal anzuschreiben und zu fragen ist gut...werde ich mir mal durch den Kopf gehen lassen.

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 543
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon Hans-Martin » 17.08.2018, 14:13

Diskus_GL hat geschrieben: Wenn wir etwas "unscharf" lokalisieren schafft es das Gehör offenbar nicht die Schallanteile dieser Schallquelle gut genug zu separieren. Über eine andere Anlage kann das dann besser loklisiert werden...weil dann die Separation besser gelingt (wiel die Anlage in Bezug auf die Voraussetungen zur Separation besser ist).

Hallo Joachim,
nach meinen Vorstellungen ist hilfreich, Doppelbilder zu vermeiden. Dazu rechne ich Reflexionen, ungünstigen Hall, Echos, Phasendrehungen, wie man sie beim Zusammenmischen von Direktschall und zeitverzögertem Eintreffen desselben aber abgeschwächten Schallereignisses bekommt.
Dazu gehört aber auch der Fehler in der Aufnahme (bei gepannten Monokanälen, wie sie bei Gesangsmikrofonen und instrumentenpickups üblich sind), dass für die laterale Ortung der Grundtöne keinerlei Laufzeitunterschied das Gehör bedient, sondern nur die Intensitätsunterschiede ausgewertet werden können. Ein erheblicher Fehler, den man mit FLOW recht gut aber nicht vollständig beheben kann.
Was die Separation erheblich erschwert, weil das Objekt eine unnatürliche Ausdehnung bekommt, ja geradezu zerreißt. Erst, wenn Grund- und Obertöne dieselbe Position der Phantomschallquelle im Stereo einnehmen, wird das Gehör angemessen bedient.
Schließlich ist das natürliche Schallereignis eine Punktschallquelle, gefolgt von natürlichem Nachhall. Bei Stereo ergibt sich ein Vielfaches davon, welches es zu ordnen gilt.

Dazu gehört auch der Fehler, dass immer noch ein Großteil der Aufnahmen inverse Polarität aufweisen, wenn sie aus der Produktion kommen, selbst, wenn die ursprüngliche Aufnahme mal korrekt war (Aussage von Tony Faulkner). Was als raumfüllendere Diffusität bei Mono-Wiedergabe über einen einzelnen LS überzeugen mag, versagt bei Stereo, ist kontraproduktiv, weil verschwommener, scharfe Ortung weniger möglich, folglich auch die Separation von anderen ebenfalls verschwommenen Phantomschallquellen.
Daran angeschlossen ist die Frage, ob alle Pickups und Mikrofone mit optimaler Polarität arbeiten, jedes gute Studiomischpult hat für jeden Eingangskanal einen Polaritätsschalter, von dem offenbar nicht immer konsequent gebrauch gemacht wird.
Ich werde den Verdacht nicht los, dass man im Studio Wert auf eine gewisse Diffusität legt, vielleicht auch mit dem Ziel, eine größere Hörzone zu Ungunsten des Sweet Spots zu schaffen.
Ebenfalls daran angeschlossen ist die Frage, wie eindeutig der LS im Grundtonbereich mit der Polarität umgeht, es gibt genügend LS, deren TT positiv arbeitet (Auslenkung in Richtung Hörer bei einer positiven Signalflanke), während der Mitteltöner vielleicht ab 400-500Hz schon einsetzt und aus Gründen der Zeitkoinzidenz verpolt wird, um mit der Frequenzweichencharakteristik eine gute Sprungantwort abzugeben und den FG möglicht glatt zu bekommen. Da wird etwas geopfert, in dessen Folge das Ohr irritiert wird, der Bass ist prägnant, die Mitten diffus, polt man zum Vergleich das Signal um, bleibt man unschlüssig, welche Version besser sein könnte.

Damit habe ich mal wieder Anlass auf meinen Schlagworte FLOW und Polarität herumzureiten :wink: , denn Abbildungsschärfe sollte doch das Ziel einer guten Stereowiedergabe sein, sonst könnte man doch bei Mono bleiben, das ist viel überschaubarer...
Diffusität erzeugen ist aus meiner Sicht tückisch, es ist gefällig, weiträumig, deckt Details etwas zu, fördert Easy Listening, aber beim aufmerksamen Hinhören ziehe ich die prägnantere, deutlichere, und greifbarere Version vor. Theile benutzt zu Recht auch Begriffe wie Deutlichkeit und Gestalt (2 Begriffe, die danach sogar im amerikanischen Sprachgebrauch der Akustiker zu finden sind).

Angesichts des fortgeschrittenen Alters der meisten Forenten denke ich, dass zu der Deutlichkeit ein wirkungsgradstärkerer Lautsprecher einen guten Beitrag leisten kann, sofern der Hersteller die Verfärbungsfreiheit im Griff hat. Zahlreiche Threads weisen schon in diese Richtung.
Größere Dynamik...

Auch die Dynamikkompression wird gern in dieser Richtung angenommen, wäre da nicht eine gewisse Lästigkeit, die ich auf die angehobenen Obertöne zurückführe, Zischlaute bei der Stimme, die sonst -40dB hinter den Kehllauten zurückbleiben, sind bei der Kompression deutlicher wahrnehmbar, nicht immer zum Guten...

Man kann auch aus meiner Sicht einige Korrekturen machen, um die Separation zu fördern.
Dabei spielen aber die Eindeutigkeit und Kohärenz die herausragende Bedeutung, mMn ein Gegenpart zur Diffusität.
Grüße
Hans-Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 5708
Registriert: 14.06.2009, 15:45

Beitragvon Diskus_GL » 17.08.2018, 15:26

Hallo Hans-Martin,

da bin ich weitgehend voll bei Dir.
Leider (!) kann man mit der Anlage zu Hause nur noch versuchen, mit den Mängeln der Aufnahme umzugehen.

Grüße Joachim

PS.: Was man wie macht hängt auch vom individuellen Ziel ab.
Ich kam zu der Beschäftigung mit Reflexionen, weil ich zum Einen Boxen habe, deren Abstrahleigenschaften ich (in Grenzen) verändern kann und damit ein wenig experimentiere.
Zum Anderen, weil ich meine Anlage in mein Wohnzimmer integriere, das ich bez. Einrichtung, Aufstellung der Boxen, Hörplätze und akustischer Gestaltung nur sehr begrenzt "modifizieren" will.
D. h. ich will auch in meiner rel. halligen Umgebung und an aussermittigen Hörplätzen gut Musik hören.
Das geht, wenn auch nicht so gut wie in einem Stuido mit entspr. optimierter Akustik und Hörplatz etc.. Dazu sind aber Reflexionen und die Beschäftigung damit - also welche Art am Hörplatz gut sind und welche weniger - durchaus hilfreich.
Als Folge davon kam ich dann zu ASA ... und dvon wiederum dazu wie Klangeindrücke überhaupt "entstehen" können...wovon sie abhängen..welche Zusammenhänge es geben kann... um eben meine Anlage zu Hause zu optimieren... usw...
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 543
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon Hans-Martin » 17.08.2018, 21:49

Diskus_GL hat geschrieben:Zum Anderen, weil ich meine Anlage in mein Wohnzimmer integriere, das ich bez. Einrichtung, Aufstellung der Boxen, Hörplätze und akustischer Gestaltung nur sehr begrenzt "modifizieren" will.
D. h. ich will auch in meiner rel. halligen Umgebung und an aussermittigen Hörplätzen gut Musik hören.

Hallo Joachim,
das verstehe ich gut, muss allerdings einschränken, dass mir dies bisher ohne Boxendrehung, also nur mit Laufzeit (per DSP) und Intensitätskorrektur ("Balance") nicht gelungen ist. Er bleibt offenbar auch noch ein Kantendiffraktionsproblem, welches unter den dann unterschiedlichen Abstrahlwinkeln die LS nicht zum geforderten identischen Übertragungsverhalten kommen lässt.
Das Bild http://www.troelsgravesen.dk/Manger_files/red-disp-hor-0-5-10-15-20-25-b.gif auf der Seite http://www.troelsgravesen.dk/Manger.htm zeigt das Bündelungsverhalten ab 3kHz, sobald man die Mittelachse verlässt.
"Gewöhnliche" Lautsprecher haben einen Kalottenhochtöner, der den Bereich oberhalb 3kHz in üblicher Breite abstrahlt. Der Nachhall des Raums soll ja dieselbe Klangfarbe haben, wie der Direktschall. Der Direktschall beider LS soll selbstverständlich (bei gleicher Ansteuerung) gleichartig sein. Der Manger MSW ist aber dafür bekannt, dass es einen Sweet Spot gibt, auf den der MSW ausgerichtet sein soll.
Mich hat er bisher nur unter diesen Bedingungen überzeugt, ich hatte allerdings nur einmal ein Paar Boxen (Selbstbau) zum Spielen, bei dem ein seitlich abstrahlendes Paar MSW das nach vorn abstrahlende ergänzte. Ich fand damals (1995), dass die MSW Chassis im Selbstbaubereich Streuungen hatten (2 Paare waren nacheinander bestellt und mit Markierungen versehen worden, aber auch die Paare waren in sich nicht hinreichend gleich), einfach erkennbar an fehlender Fokussierung bei männlicher Sprache (Monosignal). Ich gehe davon aus, dass sowohl die Fertigungsstreuung seitdem besser geworden ist wie auch eine paarweise Selektion für die eigenen Fertigprodukte stattfindet.
Am ausgeprägten Bündelungsverhalten ändert das aber nichts und es bleibt die Frage, inwiefern das MSW-spezifische Klangverhalten all deine Erkenntnisse mitgeprägt hat (und zugleich Ursache für die fehlende Übertragbarkeit bzw. Nachvollziehbarkeit mit meinen LS ist).

NXT (Mission, Cyrus, Elac, Wharfedale) und BMR (Naim Ovator) sind ebenfalls Biegewellenwandler, deren Bündelungsverhalten deutlich weniger ausgeprägt ist. Zumindest bei NXT kann ich sagen, dass man einzelne Panels durchaus um 60° verdrehen kann, ohne dass das Stereobild kollabiert. Das will ich hier nicht argumentativ gegen den MSW eingesetzt verstanden sehen - nur als Argument, dass Bündelungsverhalten eine spezifische Besonderheit ist, die Linkwitz bei seinen LS in dieser Form nicht hat (sein rückwärtig abgestrahler Teil ist dipoltypisch invers, deiner positiv und verzögert), und auch Blauert müsste genaugenommen immer erklären, wo er sich auf natürliche Schallquellen bezieht und wo auf die Wahrnehmung von 2 Stereolautsprechern (oder Gültigkeit für beide Fälle besteht*).
Grüße
Hans-Martin

*
Hans-Joachim Platte, Klaus Genuit hat geschrieben:Es bleibt daher auch weiterhin die nachrichtentechnisch plausible Arbeitshypothese bestehen, dass der Nachrichtenempfänger "menschliches Gehör" die von mehreren kohärenten Schallquellen resultierenden Ohrsignale in gleicher Weise verarbeitet wie Ohrsignale aufgrund einer einzelnen Schallquelle.
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 5708
Registriert: 14.06.2009, 15:45

Beitragvon Diskus_GL » 20.08.2018, 00:28

Hallo Hans-Martin,

Ich denke, wir haben unterschiedliche Vorstellungen von „gut Musik hören“.
Mir geht es nicht darum an allen Plätzen „gleich gut“ Musik zu hören - es gibt hier durchaus Unterschiede. Im Sweet-Spot klingt die Bühne (natürlich) deutlich breiter und tiefer als z. B. In der Achse vor einer Box. Die Bühnendarstellung - gerade ausserhalb des Sweet-Spots - ist auch sehr stark von den Aufnahmen abhängig (hatten wir ja schon). Aber es sollte tonal und bez. der Unterscheidbarkeit der Schallquellen (der Aufnahme) ein ähnlicher „Eindruck“ entstehen.
Das gelingt durchaus, und in meinen verschiedenen Experimenten mit dem hinteren MSW - also dem bewussten Erzeugen zusätzlicher Reflexionen deren Quellsignal tonal dem des Direktschallsignal entsprechen - sind die Reflexionen an den Hörplätzen dafür wesentlich.

Nach meiner bisherigen Erfahrung müssen dafür nicht alle Reflexionen (die an den Hörplatz ankommen) ideal sein - es reicht, wenn ein paar starke Reflexionen den Bedingungen entsprechen. Die anderen sind dann relativ unwichtig, solange sie deutlich leiser sind. Das erreiche ich ja durch den (rel. lauten) hinteren MSW. Die anderen Reflexionen meiner MSWs - also von dessen seitlicher Abstrahlung, die tonal nicht mehr mit dem Direktschall übereinstimmt - sind in jedem Fall leiser und damit offenbar nicht so wichtig.

Um es nochmals zu betonen: es geht nicht um Nachhall sondern um Reflexionen und auch nicht darum daß die Reflexionen am Hörplatz tonal denen des Direktschalls entsprechen, sondern sie sollen tonal am Hörplatz so ankommen, wie die Reflexionen aller anderen Schallquellen in diesem Raum. Das erreicht man eben, wenn der Schall, der von der Boxen ausgeht (!) tonal dem Schall von der Box entspricht, der direkt zum Hörplatz kommt. Dann wird dieser reflektierte Schall am Hörplatz tonal die gleichen Veränderungen erfahren haben (durch die Wände etc.) wie die Reflexionen jeder anderen Schallquelle in diesem Raum. Dann kann das Gehör diesen auch aufgrund dessen „bekannter“ tonaler Veränderung mit einem (vorher separiertem) Direktschallsignal vergleichen (was ja der Separation und der "Eliminierung des Raums" förderlich ist).

Vielleicht nochmal kurz der Gedanke dazu. Wie bereits Blauert ausführte, scheint das Gehör rel. schnell und gut das Reflexionsbild in einem Raum zu erfassen und dieses dann auch für alle weiteren Schallauswertungen zu verwenden. Aus diesem Grunde sollte auch der Schall von Boxen im Raum tonal so am Hörplatz ankommen, wie der Schall jeder anderen Schallquelle in diesem Raum.
Sicher wäre es ideal, wenn jeder Schall der von den Boxen abgestrahlt wird, der genannten Bedingung entspricht - also wenn das Rundstrahlverhalten quasi rundum konstant wäre (und die Reflexionen mit mind. 3ms - 5ms Verzögerung an die Ohren kommen) .
Wenn man aber die Situation am Hörplatz betrachtet ist es „nur“ wichtig, daß das Verhältnis von Direktschall und Reflexionen so ist, daß genügen laute Reflexionen am Hörplatz ankommen, die der o. a. Bedingung entsprechen…andere, leisere sind dann nicht mehr so prägend.
Genau daß erreiche ich ja mit meinen rückwärtigen, rel. laut abstrahlenden hinteren MSW..auch wenn die MSW an sich kein „ideales“ Abstrahlverhalten haben.

Anmerkung: Es gibt Polardiagramme vom MSW, bei dem gut zu sehen ist, daß er MSW symmetrisch unter Winkeln „Keulen“ ausbildet, die durchaus bis weit über 3kHz gleichbleibende Pegel haben. Es könnte durchaus sein, daß diese Keulen bei Boxen mit einem MSW je nach Aufstellung für ein paar lautere Reflexionen der o. a. Bedingung erzeugen… müsse man mal untersuchen…

Die Symmetrie erreiche ich ja bei mir durch die DRC… die Symmetrierung beider Kanäle halte ich für eines der Wesentlichen Eigenschaften eines DRC-Systems.

NXT sind m. W. keine Biegewellenwandler…schon gar keine biegeweichen wie der MSW. Göbbel macht biegesteife Beigenwellenwandler und DDD und Ohm haben die sog. Walsh-Wandler, die auch noch Biegewellenwandler sind - deren Abstrahlverhalten ist natürlich anders.
Linkwitz erzeugt mit seinen Dipolen auch am Hörplatz entspr. starke Reflexionen die den o. a. Bedingungen entsprechen - er führt ja die Begründung mit der besseren „Ausblendung“ des Raumes durch das Gehör explizit auf.
Ob der Schall, der von hinten abgestrahlt wird, invers „reflektiert“ wird, könnte einen Effekt haben, glaube ich aber nicht.

Die von Dir zitierte Aussage von Platte und Genius ist ja kein Wiederspruch. Im Gegenteil. Solange die mehreren kohärenten Schallquellen sich genauso „verhalten“ (bez. Ihres Reflexionsbildes am Hörplatz) wie jede andere Schallquelle in dem Raum wird das ja so sein.
Die Annahme einer gleitenden Kreuzkorrelation mit Musterabgleich zur Separation, oder auch die Bildung von auditiven Streams in jedem Ohrsignal (als Repräsentant einer Schallquelle) bei ASA, lassen ja genau diese Hypothese auch zu. Auch wenn aus zwei Boxen im Raum Signale kommen, werden die halt nach Mustern durchsucht, bzw. Auditive streams gebildet.
Bei Stereoboxen sind es eben doppelt soviel auditive Streams bei denen - je nach Anlage - mehr Übereinstimmung ist als wenn es statt der Boxen die Originalschallquellen.
An der Notwendigkeit den Raum aufgrund der Reflexionen „zu eliminieren“ ändert das ja auch nichts. Was unterhalb von 3ms (bzw. 5ms… je nach Quelle) an auditiven Streams „gebildet“ wird, wird - so die Hypothese - ohnehin zu einem Stream zusammengefasst. Alles spätere, was zu einem vorherigen Stream passt, wird als dessen Reflexion angesehen und entspr. „behandelt“.

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 543
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Vorherige

Zurück zu Grundlagen

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste