"Erste Wellenfronten" - Existenz und Notwendigkeit

Tontechnische Basisthemen

Beitragvon Hornguru » 13.08.2018, 12:48

Morgen an Alle

Ich glaube das Thema ist ganz Simpel:

1. Wenn das Geräusch ankommt, bestimmte die Erste Front die Lokalisation (0-2 ms). Als erstes kommt logischerweise der Peak der hohen Töne, welche dadurch von Natur aus die Lokalisation dominieren. Weils halt einfach zuerst da ist...

Alles was dann kontinuierlich nachklingt auf sehr ähnliche Art (also Fortsetzung des Tones) wird dann mit diesem Ort reinassoziiert.
Es kann sogar die Tonalität langsam leicht ändern (Gong), oder später lauter werden (Amphitheater) und bleibt trotzdem in der Wahrnehmung 1 Quelle.

2. Ganz elementar ist der "Gewöhnungseffekt". Das Hirn prägt sich für kurze Zeit diese Herkunft ein. Und verliert die Info gleich wieder. Wie eine Helldunkeladaption vom Auge. Ein Impuls reizt den Nerv, dieser klingelt nach und maskiert nachfolgende Reize, bis er sich wieder erholt hat.

Ändert sich der Ton also ausreichend lang über die Maske hinaus, kann man ihn erneut lokalisieren.
Das Betrifft Tonhöhe oder Pegel (analog zu Farbe oder Helligkeit visuell). Auch dazu viele analogien imho in der Optik https://de.wikipedia.org/wiki/Optische_T%C3%A4uschung


Das führt dann zu lustigen Dingen wie einen Sinus den man erst am Anfang lokalisieren kann.
Nach einem kurzen Moment verliert das Hirn die Quelle.
Auch erlebt: großer Güterzug fuhr hinter dem Haus vorbei. Seine Welle beugt sich ums Haus und wird vom Nachbarhaus zu mir reflektiert -> ich lokalisiere im ersten Moment den Zug im Nachbarhaus. Erst nach einem Moment und ein paar Kopfbewegungen (und Bewusstsein dass das nicht sein kann :) ) nehme ich den Zug hinter mir und dem Haus wahr. Das Rauschen der Gleise war sicher eingeschwungen, aber das Klappern und die Dopplermodulation halfen bei erneuter Lokalisation.

Grüße
Josh
Bild
Hornguru
Aktiver Hörer
 
Beiträge: 1315
Registriert: 08.02.2016, 14:13
Wohnort: Trier

Beitragvon Diskus_GL » 13.08.2018, 12:49

Zitat: Jeder Ton hat meiner Meinung nach seine eigene erste Wellenfront. Ich verstehe Dich aber so, dass Du immer vom gesamten Signal ausgehst.

Ja, genau das ist es.
Das Gehör kann nur vom "gesammten Signal" (wie Du es nennst) ausgehen. Das sind die zwei Ohrsignale.

Insofern betrifft die ganze Betrachtung über das was wir Hören - also wenn wir über Klang eines Instrumentes (bei einem oder auch mehreren gleichzeitig spielenden Instrumenten etc.) disskutieren - und was dafür im Anlagensignal bzw. im Siganl am Hörplatz - wichtig ist, das "Gesammtsignal".
Für Wiedergabe von Musik über eine Anlage ist das für eine einzelne Schallquelle bezogene Signal völlig unwichtig weil das so gut wie nie in dieser Form (als einzelnens Signal) an die Ohren kommt.
Auch nicht bei Live-Wiedergabe! Nach wenigen Millisekunden wird auch das Signal eines Instrumentes im Raum durch dessen Reflexionen überlagert. Sobals schon zwei Instrumente spielen ist an den Ohren nur noch ein (manigfaltig) überlagertes Signal.
Da das Gehör trotzdem recht gut beide Instrumente recht gut hört (mit all den jeweiligen Klangeigenschaften und Loaklisation) muss es eine Separation der jeweiligen Schallanteile geben (auch Separation von den jeweiligen Reflexioenen)... und je besser diese Separeation gelingt, desto besser ist die Qualität der Klangeindrücke jedes dieser Instrumente...m. M. n. völlig logisch...

Mein erstes Bild zeigt das ja recht einsichtig... Ganz oben die Signale von zwei Instrumenten und ganz unten die Signale aus denen das Gehör jedes dieser zwei Instrumente erkennt, lokalisiert und den Klang analysiert etc. pp... und da sind noch keine Reflexionen mit betrachtet, die kommen noch dazu!

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 569
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon Diskus_GL » 13.08.2018, 13:04

Hornguru hat geschrieben:Morgen an Alle

Ich glaube das Thema ist ganz Simpel:

1. Wenn das Geräusch ankommt, bestimmte die Erste Front die Lokalisation (0-2 ms). Als erstes kommt logischerweise der Peak der hohen Töne, welche dadurch von Natur aus die Lokalisation dominieren. Weils halt einfach zuerst da ist...

Alles was dann kontinuierlich nachklingt auf sehr ähnliche Art (also Fortsetzung des Tones) wird dann mit diesem Ort reinassoziiert.
Es kann sogar die Tonalität langsam leicht ändern (Gong), oder später lauter werden (Amphitheater) und bleibt trotzdem in der Wahrnehmung 1 Quelle.

2. Ganz elementar ist der "Gewöhnungseffekt". Das Hirn prägt sich für kurze Zeit diese Herkunft ein. Und verliert die Info gleich wieder. Wie eine Helldunkeladaption vom Auge. Ein Impuls reizt den Nerv, dieser klingelt nach und maskiert nachfolgende Reize, bis er sich wieder erholt hat.

Ändert sich der Ton also ausreichend lang über die Maske hinaus, kann man ihn erneut lokalisieren.
Das Betrifft Tonhöhe oder Pegel (analog zu Farbe oder Helligkeit visuell). Auch dazu viele analogien imho in der Optik https://de.wikipedia.org/wiki/Optische_T%C3%A4uschung


Das führt dann zu lustigen Dingen wie einen Sinus den man erst am Anfang lokalisieren kann.
Nach einem kurzen Moment verliert das Hirn die Quelle.
Auch erlebt: großer Güterzug fuhr hinter dem Haus vorbei. Seine Welle beugt sich ums Haus und wird vom Nachbarhaus zu mir reflektiert -> ich lokalisiere im ersten Moment den Zug im Nachbarhaus. Erst nach einem Moment und ein paar Kopfbewegungen (und Bewusstsein dass das nicht sein kann :) ) nehme ich den Zug hinter mir und dem Haus wahr. Das Rauschen der Gleise war sicher eingeschwungen, aber das Klappern und die Dopplermodulation halfen bei erneuter Lokalisation.

Grüße
Josh


Hi Josh,

Genau das kann so definitiv nicht funktionieren.
Zu 99% hören wir mehrere Schallquellen. Ein "geräusch" wird so gut wie nie als singuläres Signal an unsere Ohren kommen.
Und bei Musik oder einer Diskussionsrunde (gutes Beispiel Cocktailpartyeffekt) sind immer mehrere Schallquellen gleichzeitig im Spiel - das gehör muss als erstmal erkennen wieviel Schalquellen sind im Signal (weiss es ja noch nicht) und dann muss es die Schallquellenanteile aller erkannten Schallquellen voneinander separieren. Erst dann (!!!) kann es anfangen für jede dieser erkannten Schallquellen den Ort (Lokalisation) den Klang, die Art etc. pp. zu analysieren.
Auch eine "Erste Front" einer (erkannten) Schallquelle kann erst "definiert" werden, wenn der Schallanteil, dere diese "Erste Front" darstellt von den Schallanteilen aller anderen Schallquellen separiert ist....
Vorher kann das Gehör die "Front" des an den Ohren ankommenden Signals ja keiner einzenen Schallquelle zuordnen, wiel dieses Signal ja die "Fronten" und "eingeschwungenen Zustände" (und deren Refelxionen im Aufnahmeraum und ggf. im Wiedergaberaum) aller (bis dahin unbekannten Anzahl) von Schallquellen enthält...das ist reine Logik.

Das ist zwingend so.

Damit ist diese Separation das Wichstigst und entscheidend für alle weiteren Höreindrücke..also Lokalisation, Klang etc... Ohne Separation kein Klang oder Lokalisation!

Grüße Joachim

Bildlich etwas ausgeführt: siehe : http://www.audioclub.de/index.php/clubl ... wir-hoeren
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 569
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon Hornguru » 13.08.2018, 13:42

Joachim

Ich sehe da keinen Widerspruch zu meiner Aussage.

Sprichwort Cocktail, alle haben unterschiedliche Tonalität (Farbe) oder Distanz (Pegel) -> insofern erhalten alle einen extra Stempel im Hirn.

Sollte tatsächlich jemand die gleiche Stimme haben und exakt zur gleichen Zeit das gleiche Sagen (siehe Stereophonie) so wird dieser mit dem anderen Verschmelzen und wir Orten in der Mitte bzw nur allein den der 1ms früher anfing zu quatschen.

Letzendlich sind die 2000 Reflektionen ja auch nur weitere Gäste.

Gruß
Josh
Bild
Hornguru
Aktiver Hörer
 
Beiträge: 1315
Registriert: 08.02.2016, 14:13
Wohnort: Trier

Beitragvon Tinitus » 13.08.2018, 21:56

Hallo Joachim,

Danke für die Verweise zu weiteren uellen zu diesem Thema, leider steht mir nur begrenzt Zeit für die Bescäftigung mit der Theorie der Musikwiedergabe zur Verfügung.
Bei der Diskussion der Linkwitz'schen Zitate, habe ich mich "eingemischt", da ich diese ihrer Überschaubarkeit sei Dank recht leicht "verarbeiten" konnte und sie wie Hans-Martin dahingehend interpretiere, dass Linkwitz Reflektionen nicht positiv wertet sondern schildert unter welchen Bedinungen unser Gehirn in der Lage ist, diese Reflektionen weg zu filtern. Inwiefern man gerne mitten in der Musik sitzt oder eine kleinere Bühne mit besserer Ortbarkeit in Kauf nimmt ist sicherlich ein Stück weit Geschmacksache. Ich bin aber bei Tobias, wenn er sagt, warum soll ich das Gehirn damit belasten Originalsignal von Reflektionen trennen zu müssen, wenn ich dies durch raumakustische Maßnahmen vermeiden kann.

Hallo Simon, Hallo Tobias,

bis 6 ms mindestens 30 dB Pegelunterschied, oh oh da habe ich noch einen weiten Weg vor mir. Um diesen Faden nicht mit meiner speziellen Fall zu zu müllen, werde ich ein paar Bilder von gemessenen ETC in meinem Vorstellungsfaden einstellen, vielleicht könnt ihr mal vorbeischauen und kommentieren? Findet man solche Kurven in euren Vorstellungsfäden, mich würden vor allem eure aktuelle Hörsituation interessieren.

Gruß

Uwe
Bild
Tinitus
Aktiver Hörer
 
Beiträge: 870
Registriert: 10.11.2013, 22:48

Beitragvon Hans-Martin » 13.08.2018, 22:40

Diskus_GL hat geschrieben:Damit ist diese Separation das Wichstigst und entscheidend für alle weiteren Höreindrücke..also Lokalisation, Klang etc... Ohne Separation kein Klang oder Lokalisation!

Hallo Joachim,
diese Separation geschieht im Nucleus olivaris superior und im Pars medialis geschieht die Koordination mit den Signalen aus dem Gleichgewichtsorgan, ebenfalls beteiligt an der Ortung.
Die emotionale Reaktion wird vom Hypothalamus gesteuert.
Grüße
Hans-Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 6205
Registriert: 14.06.2009, 15:45

Beitragvon chriss0212 » 13.08.2018, 22:58

Hallo Joachim,

wie gesagt hier bin ich Laie... in Sachen Wellenfront:

Wenn ich mir in einem analogen Videosignal eine Zeile des Bildes anschaue, sieht das im Grunde aus, wie ein Audiosignal, zumindest, wenn man die Synchronisierungssignale außen vor lässt, nur mit deutlich höherer Frequenz da Licht ja nun einmal "etwas" höherfrequent unterwegs ist. Hier sind wir eindeutig in der Lage Objekte eindeutig zu identifizieren. Und wenn jemand eine Taschenlampe einschaltet nehmen wir das eindeutig als neu hinzugekommenes Signal war. Also eine Art neue Wellenfront in einem Signal...

Wenn ich mir einen Teich mit Wellen anschaue... und dann einen Stein rein werfe... kann ich die Wellen des Steins eindeutig als neue Wellenfront ausmachen...

In beiden Fällen hatte ich auch vorher schon ein stetiges Signal.

Kann ich mir hier eventuell Analogien zum Hören vorstellen?

Ach ja... wenn mal jemand wissen möchte wie sich Bilder anhören:
https://www.youtube.com/watch?v=ZaTuFB5QXHo
Ab Minute 5 ;)

Viele Grüße

Christian
Bild
chriss0212
Aktiver Hörer
 
Beiträge: 3122
Registriert: 06.01.2015, 22:03
Wohnort: Wuppertal

Beitragvon FoLLgoTT » 14.08.2018, 07:54

Hallo Christian,
chriss0212 hat geschrieben:In beiden Fällen hatte ich auch vorher schon ein stetiges Signal.


Leider nein, der Vergleich hinkt gewaltig. Beim Sehen ist ein einzelner Empfänger (Auge) schon 2-dimensional und Sehen passiert nicht im Zeitbereich, sondern im Raumbereich. Es gibt bei statischen Bildern einen konstanten Lichtstrom, der auf die Netzhaut fällt, die erste Wellenfront hat da keine Relevanz. Wir können ein unbewegtes Objekt an seiner 2-dimensionalen Kontur erkennen. Oder kurz gesagt: beim Bild haben die Frequenzen den Orts als X-Achse und beim Ton die Zeit.

Analog und digital kann man ein Bild- und Tonsignal nicht unterscheiden (mathematisch nahezu dasselbe), aber in der Funktionsweise der Wahrnehmung ist da ein großer Unterschied.

Gruß
Nils
Bild
FoLLgoTT
Aktiver Hörer
 
Beiträge: 528
Registriert: 20.01.2011, 15:05
Wohnort: Hannover

Beitragvon chriss0212 » 14.08.2018, 08:06

Hallo Nils

OK... dachte man könne es evtl. vergleichen, eben da es messtechnisch ja das gleiche ist ;)

Wenn ich Joachim richtig verstehe gibt es ja seiner Meinung nach keine erste Wellenfront in einem Musiksignal... das habe ich noch nicht verstanden.

Hier kann ich Joachim nicht wirklich folgen. Aus meiner Sicht hat jedes Signal seine eigene erste Wellenfront, da es sich ja in den meisten Fällen in Pegel Frequenz und Phasenlage von den anderen Signalen unterscheidet. Aus meiner Sicht kann unser Hirn genau darum zwischen verschiedenen Signalen unterscheiden.

Irgend etwas hören wir ja immer... und wenn es unser eigenes Grundrauschen ist... demnach gäbe es je nie eine erste Wellenfront.

Viele Grüße

Christian
Bild
chriss0212
Aktiver Hörer
 
Beiträge: 3122
Registriert: 06.01.2015, 22:03
Wohnort: Wuppertal

Beitragvon Hans-Martin » 14.08.2018, 08:52

Hallo,
in unserer Sprache bilden wir Silben, die meist mit Konsonanten (kurz) beginnen, einen Vokal einschließen (länger) und dann mit einem Konsonaten (kurz) enden. Den Vokalen kann man Frequenzen zu den Grundtönen (zwischen 200 und 400Hz) zuordnen, die Konsonanten sind obertonhaltiger, ihr Frequenzspektrum liegt erheblich höher, ist vielfältiger, eher ein Rauschen.
Gäbe es keinem zeitlichen Ablauf zu analysieren, wäre Sprache nicht verständlich. Das wir Menschen an ihrer Sprache erkennen, auch mitschwingende Emotionen gut erkennen können, ist jedem vertraut.
Spracherlernung hält man für die größte Leistung der kindlichen Entwicklung.
Dass sich das Ohr durch parallele visuelle Eindrücke täuschen lässt, zeigt der McGurk-Effekt.

Ich bin nach wie vor der Meinung, dass Stereo-Lokalisation (Phantomschallquellen von 2 LS "projiziert") und einzelne natürliche Schallquellen sich (möchte sagen: gravierend) unterscheiden. Zwischen Mitte und Außen liegen maximal 2ms Differenz bzw. 20dB Pegelunterschied in den Kanälen.
Grüße
Hans-Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 6205
Registriert: 14.06.2009, 15:45

Beitragvon Diskus_GL » 14.08.2018, 11:40

Hallo,

@Christian: Jedes Signal für sich betrachtet mag seine "erste Wellenfront" haben, da diese sich aber mit dem Signalverlauf - oder auch die "ersten Wellenfronten" anderer Schallquellen - überlagert, ist das, was an die Ohren kommt ein Summensignal und keine evt. darin enthaltene "erste Wellenfront" ist so direkt erkennbar.
Betrachte mal meine Bilder im ersten Beitrag. Schon in den zwei Mikrofonsignalen sind die Wellenfronten (wenn man z. B. mal die steilen Anstiege als Wellenfronten betrachtet) der zwei Instrumente nicht mehr erkennbar. Erst recht nicht den zwei Ohrsignalen.
In dem Bach-Konzert - bei dem mind. 4 Instrumente beteiligt sind ist auch keine einem Instrument zuordnenbare Wellenfron erkennbar.
Es kommt ja noch hinzu, daß das Gehör gar nicht weiss ob und wann eine neue erste Wellenfront hinzukommt (oder eine andere aufhört) und auch nicht wieviel Instrumente überhaupt im Spiel sind. Auch die Anzahl der zu hörenden Schallquellen muss erst noch ermittelt werden.

Das sich ein (neues) Signal bez. Pegel und zeitlichem Versatz (Phase) unterscheidet ist ein "Unterscheidungskriterium", aber auch erst, wenn im Amplituden-Zeitverlauf (oder auch im Frequenzspektrum) der Anteil für dieses neue Signal) von den Anteilen der anderen Signale separiert wurde. Vorher weiss das Gehör ja noch gar nicht ob ein Teil dieses Pegels nicht zu einem bereits vorhandenen Signal gehört oder ob es zu einem neuen gehört... Wie gesagt, es kommt immer ein Summensignal an die Ohren.
D. h. alleine, daß ein Signal - wenn man es isolliert betrachtet - in Bezug auf die zwei Ohrsignale eine Amplituden und Zeit-differenz hat, kann als Unterschiedungskriterium nicht ausreichen, da das Gehör nie dieses Signal isoliert zu hören bekommt....

@Hans-Martin: Das ist ja die Annahme. Das Gehör analysiert zeitliche Abschnitte und "durchsucht" diese quasi nach bekannten Mustern, die in beiden Ohrsignalen vorkommen.
Dieser Musterabgleich über einen (rel.) längeren Zeitraum lässt z. B. zu, daß ein Pegel zu einem Zeitpunkt Anteile von mehreren Schallquellen beinhaltet.
Damit ist der "stationäre" Pegel zu einem Zeitpunkt bzw. der aus den Boxen kommende Amplitudenverlauf nicht mehr das wesentliche Kriterium. Der kommt - wenn man dann noch die Reflexionen im Abhörraum betrachtet und das Übersprechen von der jeweils anderen Stereobox - so ohnehin nie an die Ohren.
Viel wichtiger ist dann der Erhalt der Parameter für die Mustererkennung - das ist ein anderes Ziel (für eine Anlage) als zu versuchen, den von der Quelle kommende Signalverlauf möglichst unverändert an die Ohren zu bringen... (ganz nebenbei erklärt das auch ganz gut, warum Anlagen, bei denen sowohl das Boxensignal als auch die Ohrsignale - z.B. aufgrund von Reflexionen - rel. stark vom Quellsignal abweichten trotzdem gut "klingen" können).

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 569
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon Diskus_GL » 14.08.2018, 12:47

Nachtrag:
Die Separation funktioniert ja auch mit nur einem Ohr. Auch da kann man sehr gut Stimmen Instrumente oder Geräusche auseinanderhalten - zwar nicht ganz so gut aber prinzipiell funktioniert das. Das funktioniert auch mit einem Ohr mit allen Reflexionen im Raum, die noch dazukommen.
Würde das anhand von Unterschieden in den zwei Ohrsignalen erfolgen (Wellenfronten, Amplituden- und Zeitunterschiede bzw. Freuqenz und Phasenunterschiede) würde das mit einem Ohr nicht funktionieren...
Eine Separation anhand eine Musterabgleichs ist auch mit einem Ohr schlüssig erklärbar.

Grüße Joachim
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 569
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

Beitragvon phase_accurate » 14.08.2018, 13:37

Moin Forenten

Denke, ich werde zu ein paar Sachen auch noch meinen Senf dazugeben.

Ich bin aber bei Tobias, wenn er sagt, warum soll ich das Gehirn damit belasten Originalsignal von Reflektionen trennen zu müssen, wenn ich dies durch raumakustische Maßnahmen vermeiden kann.


Man sollte aber zu einem gewissen Grad das Gehör damit belasten, weil es dem natürlichen Hören entspricht ! Wir hören fast überall deutlich mehr reflektierten Schall als direkten (als Ausnahmen kommen mir nur ein reflektionsfreier Raum oder irgendein Ort weitab von reflektierenden Flächen in den Sinn). Ich weiss, es gibt einen Unterschied zwischen der Produktions- (d.h. der natürlichen Original-) und der Reproduktions- Seite. Aber wenn wir nur den direkten Schall unserer LS hören würden, also nur die verschwindend geringe Schalleistung, welche über den verschwindend kleinen Raumwinkel, den unser Gehörgang abdeckt, abgestrahlt wird, dann kämen wohl auch die grössten Boliden nicht über Zimmerlautstärke hinaus (etwas krass ausgedrückt).
Die Anforderungen an das reflektierte Signal (für eine neutrale Wiedergabe) wurden ja von Linkwitz schön definiert: Verfärbungsfrei sollten diese Signalanteile sein und innerhalb eines bestimmten zeitlichen Fensters liegen.

Bezüglich der ersten Wellenfront:
Eine Definition, was das genau sein soll, habe ich noch nie gesehen. Ich wage aber einmal zu behaupten, dass der Begriff eher zur Definition einer Systemeigenschaft taugt als der Definition einer Eigenschaft des Nutzsignals. Man sieht öfters die Forderung, dass die erste Wellenfront einen Linearen Frequenzgang aufweisen sollte. D.h. bei einem CSD Plot (Wasserfall) sollte die "Krete" einigermassen horizontal verlaufen.

Gruss

Charles
Bild
phase_accurate
Aktiver Hörer
 
Beiträge: 690
Registriert: 06.05.2008, 16:47
Wohnort: Bern

Beitragvon Hans-Martin » 14.08.2018, 15:14

phase_accurate hat geschrieben:Die Anforderungen an das reflektierte Signal (für eine neutrale Wiedergabe) wurden ja von Linkwitz schön definiert: Verfärbungsfrei sollten diese Signalanteile sein und innerhalb eines bestimmten zeitlichen Fensters liegen.

Hallo Charles,
Linkwitz definiert das Zeitfenster, außerhalb dessen die erste Reflexion eintreffen soll, nach 6ms
Bezüglich der ersten Wellenfront:
Eine Definition, was das genau sein soll, habe ich noch nie gesehen. Ich wage aber einmal zu behaupten, dass der Begriff eher zur Definition einer Systemeigenschaft taugt als der Definition einer Eigenschaft des Nutzsignals. Man sieht öfters die Forderung, dass die erste Wellenfront einen Linearen Frequenzgang aufweisen sollte. D.h. bei einem CSD Plot (Wasserfall) sollte die "Krete" einigermassen horizontal verlaufen.

Einen Impuls kann man technisch in seine Spektralanteile zerlegen.
Was machen die Härchenzellen auf der Cochlea, wenn ein Impuls ankommt? Diejenigen, deren Frequenzzugehörigkeit gerade angesprochen wird, liefern den ersten Impuls auf "ihren" Hörnerv, dann folgt eine Zeitspanne, die die Zelle zur chemischen Regeneration braucht, bevor der nächste Puls nach Empfang umgesetzt werden kann. Diese Erholzeit beträgt etwa 5ms.
Dieses Verhalten trennt 2 Hörvorgänge, die erste Pulsfront spricht alle zuständigen Zellen an (die sich ja im Bereitschaftszustand befinden, dann kommen danach wiederholt der eingehenden Wellen entsprechende synchrone, aber -von der Erholzeit geprägt, deshalb - lückenhaft Pulse. Die sind zwar phasenstarr an den Ton gekoppelt, nämlich immer bei der ansteigenden Flanke der Schwingung.
Aus der Ruhe heraus wird demnach ein Vorgang ausgelöst, wo die Zellen aus der ersten Wellenfront eine FFT-ähnliche Spektralanalyse machen, die anderen nicht angesprochenen Zellen liefern nur ein zufälliges gelegentliches Signal, welches in der großen Summe vielleicht als Rauschen wahrgenommen wird. Und nach der Erholzeit der einzelnen Zellen kommen dann in Abständen Pulse, deren Abstände ganzzahlige Vielfache der Wellenlänge des jeweiligen Tons entsprechen.

Lothar Cremer formulierte 1948 das Gesetz der ersten Wellenfront, auch Präzedenz-Effekt genannt. Es gibt sie also, die erste Wellenfront und sie hat bei der Ortung eine große Bedeutung.
Wikipedia hat geschrieben:Trifft das gleiche Schallsignal zeitverzögert aus unterschiedlichen Richtungen bei einem Hörer ein, so nimmt dieser nur die Richtung des zuerst eintreffenden Schallsignals wahr; die verzögerten Schallsignale werden in der Richtung des ersten (der ersten Wellenfront) lokalisiert.

Danach kommt der Haas-Effekt zum Tragen, zwischen 10-50ms verzögert, darf der Schall stärker als die erste Wellenfront sein und ändert die Lokalisation kaum, trägt aber deutlich zur Gesamtlautstärke bei, der bekannte und vielgenutzte Effekt der Beschallungstechnik.

Wäre keine erste Wellenfront -so kann man aus beiden Effekten schließen- gäbe es in einer halligen Umgebung keine gute Lokalisation. Ich halte diese Aussage für hinreichend etabliert.
Grüße
Hans-Martin
Bild
Hans-Martin
Aktiver Hörer
 
Beiträge: 6205
Registriert: 14.06.2009, 15:45

Beitragvon Diskus_GL » 14.08.2018, 16:03

Hallo Hans Martin,

bitte erkläre das mit dem "Impuls" und dessen Erholzeit mal an meinen zwei Bildern (dem mit den zwei Instrumenten und dem des Bach-Konzertes.
Was ist in diesen zwei Bildern jeweils der Impuls und was die Erholzeit (im Bach-Konzert ist ja eine Zeitachse mit Millisekunden-Angaben). Welcher dieser Impulse im ersten Bild gehört zu welchem Instrument?
Ich denke dann wird es "einsichtiger"...

Grüße Joachim

PS.: Die Arbeit von Theile (http://hauptmikrofon.de/theile/1980-1_D ... eutsch.pdf) zeigt ja recht schön, das das Gesetz der Ersten Wellenfront bzw. der Präzendezeffekt so nicht mehr haltbar ist.
Bild
Diskus_GL
Aktiver Hörer
 
Beiträge: 569
Registriert: 14.03.2016, 21:35
Wohnort: Bergisch Gladbach

VorherigeNächste

Zurück zu Grundlagen

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast