"Erste Wellenfronten" - Existenz und Notwendigkeit

Sebabe
Aktiver Hörer
Beiträge: 438
Registriert: 08.02.2018, 22:10
Wohnort: Erlangen

Beitrag von Sebabe »

Hallo - ich bin noch nicht ganz durch den Thread - aber vielleicht kann ich etwas beitragen.
Ich habe des öfteren die Chance mit einem Wellenfeldsynthese System zu arbeiten. Hier kann man den Effekt der ersten Wellenfront sehr gut erfahren. Hier spielen in der Regel viele Lautsprecher das gleiche Signal, lediglich zeitlich versetzt. Man lokalisiert im Ergebnis sehr präzise eine einzelne Quelle, genau aus der Richtung, aus der der früheste Lautsprecher spielt ( sogar wenn andere Lautsprecher lauter spielen). Das funktioniert auch noch wenn viele Quellen hier überlagert werden und aus verschiedenen Richtungen erklingen sollen. Dieser Effekt ist ist wirklich sehr stark.
Besser funktioniert es mit Instrumenten deren Töne mit einem Impuls beginnen oder Transienten enthalten (Perkussionsinstrument, Zupfinstrumente, aber auch Streicher und Stimmen usw. ) Sehr schwer wird es bei langsam anschwellenden Sinustönen. Ich hatte mal eine Aufnahme gemacht bei denen ich die einzeln aufgenommen Monospuren lediglich mit Laufzeiten im Panorama verteilt hatte. Das klappte super - nur bei einem Horn mit sehr weichem Ansatz war es schwierig. Die Töne schwirrten irgendwo im Raum herum und waren kaum zu bändigen...

Ich denke unser Gehirn ist sehr gut darin einzelne Objekte zu identifizieren. Tritt ein neues Objekt auf,
wird beim ersten Auftreten die Richtung bestimmt. Anschließend wird diese Richtung immer wieder mit dem ersten Eindruck abgeglichen. Bei Gelegenheiten die sich ergeben - wie einem neuen Tonanfang, einem impulshaften Geräusch usw... Ich denke das Beispiel mit der Wellenform oben sagt hier nicht viel aus. Daran kann man nicht sehen wie das Signal von unserer Cochlear codiert wird. Wahrscheinlich wäre ein Spektrogramm schon näher an der Wahrheit als das Zeitsignal. Hier würde man wahrscheinlich auch ein paar Onsets erkennen können...

Viele Grüße
Sebastian
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9259
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9259
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Sebabe hat geschrieben:Wahrscheinlich wäre ein Spektrogramm schon näher an der Wahrheit als das Zeitsignal. Hier würde man wahrscheinlich auch ein paar Onsets erkennen können...
Hallo Sebastian,
du verkennst offenbar die Komplexizität und Vielseitigkeit menschlichen Hörens,
https://de.wikipedia.org/wiki/Franssen-Effekt ist ein synthetisch erzeugtes Modell, welches in der Natur so nicht existiert. Die Beispiele Akustischer Täuschungen von Diana Deutsch machen immer wieder Spaß und geben zu denken.
Einerseits setzen die Härchenzellen auf Druck (erkennbar weniger auf Sog) bei der der Position auf der Cochlea entsprechenden Frequenz einen Puls ab, andererseits haben sie eine Erholzeit, was die Anstiegsflanke eines Impulses alle betreffenden Zellen zunächst einmal feuern lässt, und danach im eingeschwungenen Zustand des Tons alle betreffendene frequenzrelevanten Zellen in erwähnten erholzeitbedingten Abständen weiter feuern.
Damit geschieht sowohl eine Analyse wie bei FFT wie auch bei Analyzern mit einer großen Anzahl schmalbandiger Filter.
Im superior olivary complex geschieht die Auswertung der intensitäts- und zeitlich-versetzten Signale beider Ohren für die laterale Ortung.
Grüße
Hans-Martin
Bild
Diskus_GL
Aktiver Hörer
Beiträge: 598
Registriert: 14.03.2016, 20:35
Wohnort: Bergisch Gladbach

Beitrag von Diskus_GL »

Hallo,

wie bereits mehrfach ausgeführt, kann das Ergebnis der Cochleaanalyse nur das Summensignal sbetreffen - also des Signals, das die sich überlagernden Wellenfronten und Signalverläufe aller Schallquellen beinhaltet. Auch die intensitäts- und zeitlich-versetzten Signale beider Ohren sind Summensignale, die alle Schallquellen in Summe beinhalten!
Diese Analyse kann keine Zuordnung zu einzenen Schallquellen beinhalten ...das würde logischerweise nur gehen, wenn nur eine Schallquelle vorhanden ist und diese keinerlei Reflexionen erzeugt.
Da dies in 99% aller an den Ohren ankommenden Schallsignale nicht der Fall ist, wir aber dennoch sehr gut auch bei sehr komplexen Schallverläufen, die sehr viele Schallquellen aus verschiednen Lokalisationen beinhalten, jede einzelne dieser Schallquelle "hören" (inkl. Lokalisation), kann die Lokalisation der einzelnen Schallquellen - logischwerweise - nicht anhand der Analyse in der Cochlea erfolgen, sondern erst nachdem das Gehör das Cochleasignal in die einzelnen in dem Summensignal enthaltenen Schalquellen separiert hat.
Das erfolgt mit sehr großer Wahrscheinlichkeit anhand einer Auswertung längerer Zeitabschnitte (der Cohleaanalyse).

Wie gesagt, bei all den Betrachtungen von Wellenfronten oder "eingeschwungen Zuständen" muss man unterscheiden zwischen dem Schall einer einzelnen Schallquelle (den ich isolliert theoretisch betrachte) und dem Schall der an den Ohren ankommt.
Bei den Ohrsignalen kann ich in 99% der fälle nicht mehr eine "Wellenfront" (der Ohrsignale) einer (darin als Teil des Summensignals enthaltenen) Schallquelle zuordnen - ebensowenig irgendwleche Signalverläufe der Ohrsignale "eingeschwungenen Zuständen" einzelner Schallquellen zuordnen.

Grüße Joachim
Bild
Sebabe
Aktiver Hörer
Beiträge: 438
Registriert: 08.02.2018, 22:10
Wohnort: Erlangen

Beitrag von Sebabe »

Jemand der sich mit dem Thema viel beschäftigt und den ich auch sehr schätze ist David Griesinger.
In seinen jüngsten Vorträgen spricht er sehr direkt von dem Thema hier.

http://www.davidgriesinger.com/IOA/IOA_2018.pptx

Es sagt auch - es braucht eine Zeit bis ILD and ITD detektiert werden können.

Man muss aber erwähnen das David Griesinger seine Erkenntnisse stark aus der eigenen Erfahrung ableitet. Daher polarisiert er in der wissenschaftliche Gemeinde ziemlich...

Viele Grüße
Sebastian
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9259
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Sebabe hat geschrieben:Es sagt auch - es braucht eine Zeit bis ILD and ITD detektiert werden können.
Hallo Sebastian,
das habe ich wohl überlesen. Hilf mir mal mit der Nummer der Folie, auf die du dich beziehst.
Griesinger sagt (auf Folie 22), dass ein bis zu 5ms verzögertes hinzugefügtes Signal die Lokalisation verbessert, während mehr (6 oder 7ms) das verschlechtert.
Ob sich das auf die Heimsituation sinnvoll übertragen lässt, wo ich nicht die LS, sondern die Phantomschallquellen besser orten will, ist ein diskutabler Punkt.
Grüße
Hans-Martin
Bild
Sebabe
Aktiver Hörer
Beiträge: 438
Registriert: 08.02.2018, 22:10
Wohnort: Erlangen

Beitrag von Sebabe »

Hallo Hans-Martin - so verstehe ich Folie 13 (unten in rot).
Klär mich auf wenn ich das falsch verstanden habe..

Die Folie 22 zweifele ich ehrlich gesagt etwas an. Ich meine da schon etwas gegenteiliges von Ihm gelesen zu haben. Das es da eine harte Grenze zwischen 5 und 6 ms geben soll hört sich für mich komisch an...
Vielleicht bezieht sich das sehr speziell auf dieses Experiment und ist nicht allgemeingültig gemeint.

Grüße
Sebastian
Bild
Sebabe
Aktiver Hörer
Beiträge: 438
Registriert: 08.02.2018, 22:10
Wohnort: Erlangen

Beitrag von Sebabe »

Ich bin immer noch nicht ganz durch den Thread durch... aber:

Ich denke die Diskussion ist etwas zu schwarz/weiß. Lokalisation und Separation sind ja nicht das gleiche.
Unbestritten gibt es für mich ein Gesetz der ersten Wellenfront. Damit können wir super in schwierigen Situationen lokalisieren. Dafür gibt es viele Belege und leicht selbst durchführbare Experimente. Natürlich ist es aber nicht der einzige Effekt um zu lokalisieren und schon gar nicht der einzige um zu Separieren.
Es ist doch klar das wir Pitch, Envelope, Timbre, Proximity, Kontext, Inhalt usw. auch gut mit einem Ohr zur Separation nutzen können. Selbst Lokalisation funktioniert ja (wenn auch sehr eingeschränkt) auch mit einem Ohr.
Insofern kann man hier gar nicht das eine gegen das andere ausspielen. Das Gehirn nimmt alle Informationen die da sind und erkennt erlernte Muster.
Was für mich noch ein spannendes Thema ist: Phasenkoharenz. Ist die Phase innerhalb eines Signals kohärent, entstehen in der Chochlear innerhalb einer bestimmten zeitlichen Folge Druckmaxima. Dieses entstandene Pattern kann das Gehirn (scheinbar) nutzen um Klänge einem bestimmten Objekt zuzuordnen. Ich stelle mir das vor wie einen ID code. Hier braucht man natürlich etwas Zeit um das Pattern zu erkennen. Da ist es dann auch schlecht wenn der Direktschall ohne Lücke mit den ersten frühen Reflexionen überlagert wird. Dadurch würde das Pattern gleich am Anfang recht chaotisch variiert und das Muster wäre nicht erkennbar.
Hierzu findet man auch bei Griesinger eine Quelle - ich kann mich aber gerade nicht erinnern wo das war...

Spannendes Thema..

Noch ein Gedanke zu der These man braucht Zeit für ILD und ITD detection. Ich denke das hängt auch hier ganz von der Komplexität ab. Es gibt ja einfache Experimente mit Klicks die man leicht lokalisieren kann. (Klar die Verarbeitung braucht Zeit - das Signal kann aber sehr kurz sein) Etwas ganz anderes ist es manchmal die Flöten im Orchester zu lokalisieren, oder die Kontrabässe. Je weniger eindeutig die ILD und ITDs sind - desto länger braucht man. Hin und wieder helfen ja auch Kopfbewegungen um vorne und hinten zu unterscheiden - das braucht aber natürlich Zeit um die Änderung der ILD und ITD während der Bewegung zu vergleichen. Griesinger erwähnt ja oft den Unterschied des Hörens mit offenen Augen und geschlossen - das ist ja auch ein riesiger Unterschied. Mit offenen Augen brauchen wir keine Zeit um zu entscheiden ob vorne oder hinten...

Viele Grüße
Sebabe
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9259
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Hallo Sebastian,
ich verstehe den Text auf Folie 13 so: Um eine Tonhöhe (Frequenz) als solche gehörmäßig wahrzunehmen, müssen mehr als 1 Schwingung dieser Frequenz existieren. In einem Knack sind viele Frequenzen enthalten, versuche mal eine Aussage über die gehörte Zusammensetzung... :cheers:
Mit Audacity kann man per Tongenerator beliebige Sequenzen erzeugen, die man soweit verkürzen kann, bis man den Ton nicht mehr hört. Dann erkennt man sein persönliches Limit oder die Mindestmenge von Schwingungen, die erforderlich ist.

Da liegt auch einer der Gründe, weshalb ich extrem skeptisch werde, wenn jeman aus Differenzbildung von Original und Replik anhand der Hörbarkeit des Differenzsignals irgendwelche Schlussfolgerungen ziehen will. Natürlich gibt es dort auch mal zyklische Komponenten, die eine Aussage zulassen, aber wenn gar keine Wiederholung stattfindet, bleibt ein sehr schwaches Rauschen ohne erkennbare Zuordnung.

5ms entspricht der Wellenlänge von 200Hz, oder einer halben von 100Hz, mit 5ms verzögertem reflektierten Schall würde würden bei 100Hz mit dem Direktschall Auslöschungen entstehen, dasselbe gilt für alle ungradzahlichen Vielfachen (Kammfiltereffekt).
5ms ist die mir bekannte Erholzeit der Hörzelle auf der Cochlea, bevor der nächste Puls abgegeben werden kann. Jan Schnupp hat mir das 2012 per PN erklärt, leider konnte ich das Video https://mustelid.physiol.ox.ac.uk/drupa ... se_locking nicht mehr finden, aber Google förderte neuere Zusammenfassungen zutage: https://slideplayer.com/slide/5949188/, ich finde, sehr lesenswert - daraus geht u.a. hervor, dass Nervenzellen nur bei positiven Flanken feuern, und am Ende spielen aperiodische Signale eine untergeordnete Bedeutung. Die Vielzahl der Aspekte kann einen erschlagen, ich bin da noch lange nicht durch. http://auditoryneuroscience.com
Grüße
Hans-Martin
Bild
Sebabe
Aktiver Hörer
Beiträge: 438
Registriert: 08.02.2018, 22:10
Wohnort: Erlangen

Beitrag von Sebabe »

Hallo Hans-Martin, aber auf der Folie steht ja nichts von Tonhöhe. Es steht explizit ITD und ILD - als interaurale Laufzeit und Pegelunterschiede. Pitchdetection ist etwas anderes.

Das mit der Erholzeit ist glaube ich auch nicht so einfach. Es gibt ja einen Vor und Nachverdeckungseffekt. Da müsste ich selbst erst nochmal recherchieren wie stark der Effekt ist. Aber auf jeden Fall wäre der ja auch Frequenz- und Pegelspezifisch. Dh - wenn du recht hast, gilt das auch nur für bestimmte Impulse bei bestimmter Lautstärke.

Vielleicht interessant:
http://www.bseeber.de/itg_page/maskierung.html

Viele Grüße
Sebabe
Bild
Adagio
Aktiver Hörer
Beiträge: 29
Registriert: 13.09.2018, 19:06

Beitrag von Adagio »

Hallo,

bin gerade mittels der Suchfunktion über diese hochinteressante Diskussion gestolpert, vielen Dank dafür. :cheers:

Für mich (sehr grob!) zusammengefaßt heißt das:
Die erste Wellenfront dient der Lokalisation
Die Reflexionen sollten nicht zu schnell nach der ersten Wellenfront beim Ohr ankommen (mehr als 3-6ms etwa), damit sie nicht auch als Primärschallquelle empfunden werden.
[Folgerung: Lautsprecher steht in der Ecke, damit kommt jede Menge reflektierter Bass zeitgleich an, somit Bass ist lauter. Nachteil: Schallquelle ist verschmiert, Ortbarkeit nimmt ab].
Wenn die Reflexionen also spät genug kommen, werden sie nicht als eigenes Schallereignis empfunden sondern sie unterstützen den Direktschall und machen es dem Gehirn leichter, den Frequenzinhalt der Musik zu analysieren).

Frage: Ich vermute den Fall, dass die Reflexionen so spät kommen, dass sie wieder als ‚neues‘ Ereignis empfunden würden, kann man in unseren üblichen Hörräumen ausschließen bzw. die Signalstärke wäre mittlerweile so gering, dass vernachlässigbar?

Mit freundlichen Grüßen
G.
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9259
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Hallo G.
eine klare Aussage zu den Auswirkungen von verzögerten (reflektierten) Schallanteilen macht Wikipedia. Um als Echo wahrgenommen zu werden, sind >50 ms Verzögerung erforderlich, entsprechend etwa 17m Schallumweg mindestens also mehrere Durchläufe im "normal" dimensionierten Wohnraum.

Eckaufstellung von LS führt nicht zwangsläufig zu einem diffuseren Klang, wohl aber zu einer Betonung der Bässe*), also veränderung der Klangfarbe. Vielmehr ist diese Aufstellung -auch bedingt durch das Bündelungsverhalten der Chassis- tendenziell eher frei von nennenswerten seitlichen Reflexionen, die die Abbildung verschmieren, vor allem, wenn um 45° eingewinkelt.
Wenn der Schallstrahl zuerst auf die gegenüberliegende Seitenwand gerät und hinter dem Hörplatz auf die nächste Wand im Diffusbereich verschwindet (und nicht als frühe Reflexion an der benachbarten Seitenwand), ergibt sich sogar eine bessere Abbildung. Bei dem italienischen Hersteller Chario hieß das RXL-Aufstellung, siehe viewtopic.php?p=99234#p99234 (einige Links in diesem Thread funktionieren nicht mehr, E.J.Jordans Artikel ist hier zu finden:https://worldradiohistory.com/UK/Wirele ... 971-02.pdf (PDF-Seiten 63-65).
Ich hatte die Wireless World zu jener Zeit zwar abonniert, identische Boxen für Stereo hatte ich allerdings erst Anfang 1972 und diesen Artikel nachzubauen verhinderte mein Dachzimmer. Heute lese ich den Artikel mit sehr gemischten Eindrücken, die Ansprüche sind heute doch erheblich höher - und dem reflektierten Schall eine Priorität vor dem Direktschall einzuräumen, hat mich schon 5 Jahre später eher abgetörnt (ich hatte 3 Jahre mit Bose-901-Nachbauten im 10qm Wohnheimzimmer gehört).
*)Die Bassüberhöhung bei Eckaufstellung verlangt nach Entzerrung, hat aber einige weitere Vorteile wie minimierte Auslöschungs-und Phasenprobleme (s.a.Roy Allison).
Grüße
Hans-Martin
Bild
Adagio
Aktiver Hörer
Beiträge: 29
Registriert: 13.09.2018, 19:06

Beitrag von Adagio »

Hans-Martin hat geschrieben: 06.08.2024, 15:51 …Eckaufstellung von LS führt nicht zwangsläufig zu einem diffuseren Klang, wohl aber zu einer Betonung der Bässe…

…(ich hatte 3 Jahre mit Bose-901-Nachbauten im 10qm Wohnheimzimmer gehört)…
Danke!
Man stellt sie also in die Ecke wegen der anderen Vorteile und nimmt die Betonung der Bässe in Kauf, um diese dann wieder zu kompensieren?

Klingt nach Studentenzeit :D

Günter
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4699
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Frequenzgangüberhöhungen lassen sich leicht kompensieren. Löcher im Frequenzgang hingegen schlecht. Insofern hilft die Eckaufstellung (pseudo Hornwirkung) mit mehr Effektivität, also Pegel. Und damit lässt sich mit Korrektur leichter ein glatterer Frequenzgang herstellen.
Allerdings: wenn ein Raum dann auf der Seite hinter Hörer unsymmetrisch ist, geht das ganze Konzept auch schnell in die Hose.

Viele Grüsse
Uli
Bild
Hans-Martin
Aktiver Hörer
Beiträge: 9259
Registriert: 14.06.2009, 15:45

Beitrag von Hans-Martin »

Adagio hat geschrieben: 06.08.2024, 18:07Man stellt sie also in die Ecke wegen der anderen Vorteile und nimmt die Betonung der Bässe in Kauf, um diese dann wieder zu kompensieren?

Klingt nach Studentenzeit :D
Hallo Günter,
sind wir nicht alle ewig Studierende, was das weite, facettenreiche Gebiet Audio betrifft? Nur, dass vom Kinder-Jugendzimmer- Studierendenwohnheim- Mietwohnung- Eigenheim die Größen- bzw auch Seitenverhältnisse sich wandeln und neue Erfahrungen erleben lassen.

Die freie Aufstellung der LS gemäß der meist minimalistischer Bedienungsanleitung des Herstellers (jegliche Wandabstände möglichst mehr als 60cm), gepaart mit der Empfehlung, das gleichseitige Dreieck als Maß aller Dinge für die Aufstellung bezogen auf den Hörplatz zu nehmen, lässt noch viel Raum für Optimierung.

Für mich steht an erster Stelle die Wahl des Hörplatzes in den Raummoden, die Wahl der Hörachse, wo in den Wänden jeweils hinter LS und Hörplatz mehr (hinzugefügte sowie natürliche) Absorption, und dann die LS aufstellen, ausrichten für bestmögliche räumliche Projektion (Schwerpunkt Fokussierung). Dass dann bei dem Abstand zur Rückwand es im Bass Auslöschungen und Phasendrehungen gibt, beantworte ich mit Eck-Bass-LS und Zeitverzögerung für die Haupt-LS, also einem 2.2 System, mit digitalem Korrektursystem (K. vorausgesetzt).
Da macht man schnell die Erfahrung, dass auch das beste Korrektursystem Auslöschungen (wie sie bei 2.0 ausausweichlich sind) nicht ungeschehen machen kann, wie Uli schon andeutete, konsequenterweise man also die Bässe vom Rest trennt. Dann Aufstellung der Bässe näher an die Wand (Boden, Wände) als 1/8 der Wellenlänge der Übergangsfrequenz, bei den Haupt-LS mehr Abstand als 1/2 Wellenlänge d.Ü.
Da bei 1/4 Wellenlänge eine Auslöschung geschieht und sich der Einbruch über 2/3 Oktave abzeichnet, ist für den Übergangsbereich noch etwas mehr Reserve im Abstand wünschenswert.
Auch die ungerazahligen Vielfachen Frequenzen werden ausgelöscht, beim Bass aber außerhalb des Übertragungsbereichs, beim Mittelton meist schon durch Richtwirkung nicht mehr relevant.
Grüße
Hans-Martin
Bild
Antworten