"Erste Wellenfronten" - Existenz und Notwendigkeit

Tontechnische Basisthemen

Beitragvon Sebabe » 19.12.2018, 00:02

Hallo - ich bin noch nicht ganz durch den Thread - aber vielleicht kann ich etwas beitragen.
Ich habe des öfteren die Chance mit einem Wellenfeldsynthese System zu arbeiten. Hier kann man den Effekt der ersten Wellenfront sehr gut erfahren. Hier spielen in der Regel viele Lautsprecher das gleiche Signal, lediglich zeitlich versetzt. Man lokalisiert im Ergebnis sehr präzise eine einzelne Quelle, genau aus der Richtung, aus der der früheste Lautsprecher spielt ( sogar wenn andere Lautsprecher lauter spielen). Das funktioniert auch noch wenn viele Quellen hier überlagert werden und aus verschiedenen Richtungen erklingen sollen. Dieser Effekt ist ist wirklich sehr stark.
Besser funktioniert es mit Instrumenten deren Töne mit einem Impuls beginnen oder Transienten enthalten (Perkussionsinstrument, Zupfinstrumente, aber auch Streicher und Stimmen usw. ) Sehr schwer wird es bei langsam anschwellenden Sinustönen. Ich hatte mal eine Aufnahme gemacht bei denen ich die einzeln aufgenommen Monospuren lediglich mit Laufzeiten im Panorama verteilt hatte. Das klappte super - nur bei einem Horn mit sehr weichem Ansatz war es schwierig. Die Töne schwirrten irgendwo im Raum herum und waren kaum zu bändigen...

Ich denke unser Gehirn ist sehr gut darin einzelne Objekte zu identifizieren. Tritt ein neues Objekt auf,
wird beim ersten Auftreten die Richtung bestimmt. Anschließend wird diese Richtung immer wieder mit dem ersten Eindruck abgeglichen. Bei Gelegenheiten die sich ergeben - wie einem neuen Tonanfang, einem impulshaften Geräusch usw... Ich denke das Beispiel mit der Wellenform oben sagt hier nicht viel aus. Daran kann man nicht sehen wie das Signal von unserer Cochlear codiert wird. Wahrscheinlich wäre ein Spektrogramm schon näher an der Wahrheit als das Zeitsignal. Hier würde man wahrscheinlich auch ein paar Onsets erkennen können...

Viele Grüße
Sebastian
Bild
Sebabe
Aktiver Hörer
 
Beiträge: 59
Registriert: 08.02.2018, 23:10
Wohnort: Erlangen

Beitragvon Hans-Martin » 19.12.2018, 01:51

Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 5882
Registriert: 14.06.2009, 15:45

Beitragvon Hans-Martin » 19.12.2018, 02:16

Sebabe hat geschrieben:Wahrscheinlich wäre ein Spektrogramm schon näher an der Wahrheit als das Zeitsignal. Hier würde man wahrscheinlich auch ein paar Onsets erkennen können...

Hallo Sebastian,
du verkennst offenbar die Komplexizität und Vielseitigkeit menschlichen Hörens,
https://de.wikipedia.org/wiki/Franssen-Effekt ist ein synthetisch erzeugtes Modell, welches in der Natur so nicht existiert. Die Beispiele Akustischer Täuschungen von Diana Deutsch machen immer wieder Spaß und geben zu denken.
Einerseits setzen die Härchenzellen auf Druck (erkennbar weniger auf Sog) bei der der Position auf der Cochlea entsprechenden Frequenz einen Puls ab, andererseits haben sie eine Erholzeit, was die Anstiegsflanke eines Impulses alle betreffenden Zellen zunächst einmal feuern lässt, und danach im eingeschwungenen Zustand des Tons alle betreffendene frequenzrelevanten Zellen in erwähnten erholzeitbedingten Abständen weiter feuern.
Damit geschieht sowohl eine Analyse wie bei FFT wie auch bei Analyzern mit einer großen Anzahl schmalbandiger Filter.
Im superior olivary complex geschieht die Auswertung der intensitäts- und zeitlich-versetzten Signale beider Ohren für die laterale Ortung.
Grüße
Hans-Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 5882
Registriert: 14.06.2009, 15:45

Beitragvon Diskus_GL » 19.12.2018, 11:43

Hallo,

wie bereits mehrfach ausgeführt, kann das Ergebnis der Cochleaanalyse nur das Summensignal sbetreffen - also des Signals, das die sich überlagernden Wellenfronten und Signalverläufe aller Schallquellen beinhaltet. Auch die intensitäts- und zeitlich-versetzten Signale beider Ohren sind Summensignale, die alle Schallquellen in Summe beinhalten!
Diese Analyse kann keine Zuordnung zu einzenen Schallquellen beinhalten ...das würde logischerweise nur gehen, wenn nur eine Schallquelle vorhanden ist und diese keinerlei Reflexionen erzeugt.
Da dies in 99% aller an den Ohren ankommenden Schallsignale nicht der Fall ist, wir aber dennoch sehr gut auch bei sehr komplexen Schallverläufen, die sehr viele Schallquellen aus verschiednen Lokalisationen beinhalten, jede einzelne dieser Schallquelle "hören" (inkl. Lokalisation), kann die Lokalisation der einzelnen Schallquellen - logischwerweise - nicht anhand der Analyse in der Cochlea erfolgen, sondern erst nachdem das Gehör das Cochleasignal in die einzelnen in dem Summensignal enthaltenen Schalquellen separiert hat.
Das erfolgt mit sehr großer Wahrscheinlichkeit anhand einer Auswertung längerer Zeitabschnitte (der Cohleaanalyse).

Wie gesagt, bei all den Betrachtungen von Wellenfronten oder "eingeschwungen Zuständen" muss man unterscheiden zwischen dem Schall einer einzelnen Schallquelle (den ich isolliert theoretisch betrachte) und dem Schall der an den Ohren ankommt.
Bei den Ohrsignalen kann ich in 99% der fälle nicht mehr eine "Wellenfront" (der Ohrsignale) einer (darin als Teil des Summensignals enthaltenen) Schallquelle zuordnen - ebensowenig irgendwleche Signalverläufe der Ohrsignale "eingeschwungenen Zuständen" einzelner Schallquellen zuordnen.

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 553
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon Sebabe » 20.12.2018, 17:38

Jemand der sich mit dem Thema viel beschäftigt und den ich auch sehr schätze ist David Griesinger.
In seinen jüngsten Vorträgen spricht er sehr direkt von dem Thema hier.

http://www.davidgriesinger.com/IOA/IOA_2018.pptx

Es sagt auch - es braucht eine Zeit bis ILD and ITD detektiert werden können.

Man muss aber erwähnen das David Griesinger seine Erkenntnisse stark aus der eigenen Erfahrung ableitet. Daher polarisiert er in der wissenschaftliche Gemeinde ziemlich...

Viele Grüße
Sebastian
Bild
Sebabe
Aktiver Hörer
 
Beiträge: 59
Registriert: 08.02.2018, 23:10
Wohnort: Erlangen

Beitragvon Hans-Martin » 20.12.2018, 23:12

Sebabe hat geschrieben:Es sagt auch - es braucht eine Zeit bis ILD and ITD detektiert werden können.

Hallo Sebastian,
das habe ich wohl überlesen. Hilf mir mal mit der Nummer der Folie, auf die du dich beziehst.
Griesinger sagt (auf Folie 22), dass ein bis zu 5ms verzögertes hinzugefügtes Signal die Lokalisation verbessert, während mehr (6 oder 7ms) das verschlechtert.
Ob sich das auf die Heimsituation sinnvoll übertragen lässt, wo ich nicht die LS, sondern die Phantomschallquellen besser orten will, ist ein diskutabler Punkt.
Grüße
Hans-Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 5882
Registriert: 14.06.2009, 15:45

Beitragvon Sebabe » 21.12.2018, 00:21

Hallo Hans-Martin - so verstehe ich Folie 13 (unten in rot).
Klär mich auf wenn ich das falsch verstanden habe..

Die Folie 22 zweifele ich ehrlich gesagt etwas an. Ich meine da schon etwas gegenteiliges von Ihm gelesen zu haben. Das es da eine harte Grenze zwischen 5 und 6 ms geben soll hört sich für mich komisch an...
Vielleicht bezieht sich das sehr speziell auf dieses Experiment und ist nicht allgemeingültig gemeint.

Grüße
Sebastian
Bild
Sebabe
Aktiver Hörer
 
Beiträge: 59
Registriert: 08.02.2018, 23:10
Wohnort: Erlangen

Beitragvon Sebabe » 21.12.2018, 01:30

Ich bin immer noch nicht ganz durch den Thread durch... aber:

Ich denke die Diskussion ist etwas zu schwarz/weiß. Lokalisation und Separation sind ja nicht das gleiche.
Unbestritten gibt es für mich ein Gesetz der ersten Wellenfront. Damit können wir super in schwierigen Situationen lokalisieren. Dafür gibt es viele Belege und leicht selbst durchführbare Experimente. Natürlich ist es aber nicht der einzige Effekt um zu lokalisieren und schon gar nicht der einzige um zu Separieren.
Es ist doch klar das wir Pitch, Envelope, Timbre, Proximity, Kontext, Inhalt usw. auch gut mit einem Ohr zur Separation nutzen können. Selbst Lokalisation funktioniert ja (wenn auch sehr eingeschränkt) auch mit einem Ohr.
Insofern kann man hier gar nicht das eine gegen das andere ausspielen. Das Gehirn nimmt alle Informationen die da sind und erkennt erlernte Muster.
Was für mich noch ein spannendes Thema ist: Phasenkoharenz. Ist die Phase innerhalb eines Signals kohärent, entstehen in der Chochlear innerhalb einer bestimmten zeitlichen Folge Druckmaxima. Dieses entstandene Pattern kann das Gehirn (scheinbar) nutzen um Klänge einem bestimmten Objekt zuzuordnen. Ich stelle mir das vor wie einen ID code. Hier braucht man natürlich etwas Zeit um das Pattern zu erkennen. Da ist es dann auch schlecht wenn der Direktschall ohne Lücke mit den ersten frühen Reflexionen überlagert wird. Dadurch würde das Pattern gleich am Anfang recht chaotisch variiert und das Muster wäre nicht erkennbar.
Hierzu findet man auch bei Griesinger eine Quelle - ich kann mich aber gerade nicht erinnern wo das war...

Spannendes Thema..

Noch ein Gedanke zu der These man braucht Zeit für ILD und ITD detection. Ich denke das hängt auch hier ganz von der Komplexität ab. Es gibt ja einfache Experimente mit Klicks die man leicht lokalisieren kann. (Klar die Verarbeitung braucht Zeit - das Signal kann aber sehr kurz sein) Etwas ganz anderes ist es manchmal die Flöten im Orchester zu lokalisieren, oder die Kontrabässe. Je weniger eindeutig die ILD und ITDs sind - desto länger braucht man. Hin und wieder helfen ja auch Kopfbewegungen um vorne und hinten zu unterscheiden - das braucht aber natürlich Zeit um die Änderung der ILD und ITD während der Bewegung zu vergleichen. Griesinger erwähnt ja oft den Unterschied des Hörens mit offenen Augen und geschlossen - das ist ja auch ein riesiger Unterschied. Mit offenen Augen brauchen wir keine Zeit um zu entscheiden ob vorne oder hinten...

Viele Grüße
Sebabe
Bild
Sebabe
Aktiver Hörer
 
Beiträge: 59
Registriert: 08.02.2018, 23:10
Wohnort: Erlangen

Beitragvon Hans-Martin » 21.12.2018, 10:49

Hallo Sebastian,
ich verstehe den Text auf Folie 13 so: Um eine Tonhöhe (Frequenz) als solche gehörmäßig wahrzunehmen, müssen mehr als 1 Schwingung dieser Frequenz existieren. In einem Knack sind viele Frequenzen enthalten, versuche mal eine Aussage über die gehörte Zusammensetzung... :cheers:
Mit Audacity kann man per Tongenerator beliebige Sequenzen erzeugen, die man soweit verkürzen kann, bis man den Ton nicht mehr hört. Dann erkennt man sein persönliches Limit oder die Mindestmenge von Schwingungen, die erforderlich ist.

Da liegt auch einer der Gründe, weshalb ich extrem skeptisch werde, wenn jeman aus Differenzbildung von Original und Replik anhand der Hörbarkeit des Differenzsignals irgendwelche Schlussfolgerungen ziehen will. Natürlich gibt es dort auch mal zyklische Komponenten, die eine Aussage zulassen, aber wenn gar keine Wiederholung stattfindet, bleibt ein sehr schwaches Rauschen ohne erkennbare Zuordnung.

5ms entspricht der Wellenlänge von 200Hz, oder einer halben von 100Hz, mit 5ms verzögertem reflektierten Schall würde würden bei 100Hz mit dem Direktschall Auslöschungen entstehen, dasselbe gilt für alle ungradzahlichen Vielfachen (Kammfiltereffekt).
5ms ist die mir bekannte Erholzeit der Hörzelle auf der Cochlea, bevor der nächste Puls abgegeben werden kann. Jan Schnupp hat mir das 2012 per PN erklärt, leider konnte ich das Video https://mustelid.physiol.ox.ac.uk/drupa ... se_locking nicht mehr finden, aber Google förderte neuere Zusammenfassungen zutage: https://slideplayer.com/slide/5949188/, ich finde, sehr lesenswert - daraus geht u.a. hervor, dass Nervenzellen nur bei positiven Flanken feuern, und am Ende spielen aperiodische Signale eine untergeordnete Bedeutung. Die Vielzahl der Aspekte kann einen erschlagen, ich bin da noch lange nicht durch. http://auditoryneuroscience.com
Grüße
Hans-Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 5882
Registriert: 14.06.2009, 15:45

Beitragvon Sebabe » 21.12.2018, 11:18

Hallo Hans-Martin, aber auf der Folie steht ja nichts von Tonhöhe. Es steht explizit ITD und ILD - als interaurale Laufzeit und Pegelunterschiede. Pitchdetection ist etwas anderes.

Das mit der Erholzeit ist glaube ich auch nicht so einfach. Es gibt ja einen Vor und Nachverdeckungseffekt. Da müsste ich selbst erst nochmal recherchieren wie stark der Effekt ist. Aber auf jeden Fall wäre der ja auch Frequenz- und Pegelspezifisch. Dh - wenn du recht hast, gilt das auch nur für bestimmte Impulse bei bestimmter Lautstärke.

Vielleicht interessant:
http://www.bseeber.de/itg_page/maskierung.html

Viele Grüße
Sebabe
Bild
Sebabe
Aktiver Hörer
 
Beiträge: 59
Registriert: 08.02.2018, 23:10
Wohnort: Erlangen

Vorherige

Zurück zu Grundlagen

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste