@Truesound:
Truesound hat geschrieben:
Daten über den tatsächlichen Frequenzgang des M 150 findet man z.b. an dieser Stelle:
http://www.sengpielaudio.com/NeumannMikrofonM50.pdf
http://www.neumann.com/?lang=de&id=curr ... m150_data#
Dort erkennen wir bereits das bei 20000 kHz ein Pegelabfall von 4 dB eingetreten ist und die Kurve steil nach unten geht.....
Da kann man sehr gut sehen wie der Frequenzgang des M 150 zu hohen Frequenzen und wie stark abfällt und oberhalb 20 kHz geht der Abfall dann so weiter....Nun könnte man hinterfragen warum Neumann in seinen veröffentlichen Messungen nur bis 20kHz die Diagramme schreibt...
Dann kann man dann ja mal gerne bei Neumann anfragen und wird dann eine passende Antwort bekommen...
… womit dann eindeutig bewiesen wäre, dass Du dir noch nicht einmal die Mühe gemacht hast, nachzulesen was wir hier diskutieren. Das kostet nun wirklich jede Glaubwürdigkeit, es gehe Dir um eine Diskussion um die Sache. Aber lassen wir den Teil jetzt mal, ich gehe trotzdem auf ein paar Dinge nochmal ein:
Wenn Du tatsächlich an der Sache interessiert bist, dann klick doch einfach mal auf den Link zum PDF aus dem Studio Magazin und lese die paar Seiten. Ich habe damals mit NEUMANN telefoniert und wir haben uns sogar die abgedruckte Passage explizit von NEUMANN autorisieren lassen. Dann empfehle ich dringend das PDF auf der NEUMANN-Seite, dass im Artikel per Fußnote als Quelle genannt ist. Ich hatte damals durch den persönlichen Kontakt hauptsächlich sicherstellen wollen, dass der Frequenzschrieb des M150 nicht oberhalb des abgedruckten Bereichs wieder ein weiteres Maximum aufweist. Es könnte ja auch nur eine Delle im Frequenzgang bei 20kHz haben und ab 23kHz wieder bis 60kHz weiterlaufen. Dann wäre die ganze Argumentation mit diesem Beispiel hinfällig. Ich bekam aber die Aussage, dass der Frequenzgang oberhalb 20kHz genauso weiter abfällt wie es das Diagramm ab 17kHz andeutet.
Und genau das ist ja gerade der Knackpunkt, dass die gemessene Impulsgenauigkeit damit nicht zusammenpasst. Das Gespräch war übrigens ein ganz wichtiger Baustein, um mal über die Beziehung bzw. „Nicht-Beziehung“ von linearen und nichtlinearen Systemen nachzudenken. Wir haben uns alle schon so an das Hin- und Herspringen zwischen Frequenz- und Zeitebene gewöhnt, dass keiner mehr über die Randbedingungen nachdenkt. Und genau wie eben dieses Mikrofon wegen der Nichtlinearität dieser ganz besonderen Kapsel nichtlinear arbeitet – zum Glück auf eine für die Aufgabenstellung Musikübertragung ganz vorzügliche Art und Weise – und somit im Zeitbereich viel genauer abbildet, als es der Frequenzgang vermuten lässt, genauso kann man bei dem nichtlinearen System “Hörapparat des Menschen“ aus der Messung des Frequenzgangs NICHTS über das Verhalten im Zeitbereich folgern.
Deshalb ist die Annahme, die – ich weiß – seit 30 Jahren überall gelehrt wird: FALSCH. Der Hörbereich von 20kHz ist deshalb kein taugliches Argument dafür, um technische Systeme für Musikübertragung auf eine Bandbreite von 20kHz zu beschränken. Dazu müsste man mit dem Hörsystem einen ähnlichen Test machen wie NEUMANN mit den Mikrofonkapseln. Man müsste explizit das Zeitverhalten untersuchen und erst wenn das keine höhere Systemgenauigkeit ergibt, als die in einem technischen System mit 20kHz Bandbreite gegeben wäre, erst dann dürfte man von einer verlustfrei möglichen Beschränkung auf 20kHz Bandbreite ausgehen.
Truesound hat geschrieben:
Wie gesagt es gibt keine staatliche Preisbindung für Aufnahmen in verschiedenen Samplingfrequenzen nur die Herstellungskosten sind gleich ob man nun mit 192 kHz oder 44,1 kHz diese herstellt...
Diese Aussage greife ich nur mal exemplarisch auf, um Dir deutlich zu machen, dass es noch eine Welt jenseits des Dir Bekannten gibt. Das ist übrigens Kennzeichen fast aller Diskussionen zu dem Thema: Es melden sich vornehmlich die lautstark zu Wort, die es nie selbst ausprobiert haben. Ich kenne keinen einzigen Kollegen, der angefangen hat, mit hohen Abtastraten zu arbeiten und es dann wieder bleiben ließ, weil es nichts bringt. „Bestenfalls“ kenne ich Kollegen, die sagen: „Ja ich weiß, würde ich gerne, bezahlt mir aber kein Kunde.“
Natürlich kann ich mir irgendein Audiointerface für ein paar hundert Euro kaufen und irgendeine billige Native-Audiosoftware und das alles auf 192kHz schalten, ohne dass dieses Setup deshalb mehr Geld kostet. Da reden wir dann aber über Spielzeug.
Ruf doch mal Digitalaudioservice in Hamburg an, derzeitiger Deutschlandvertrieb von Pyramix und autorisierter Protools-Händler; beides vermutlich die einzigen für HD-Audio-Produktionen überhaupt ernsthaft verwendbaren Systeme. (Ich weiß, es geht auf dem Papier mit vielen Native-Lösungen auch, aber ich weiß aus leidvoller eigener Erfahrung wo dann die Fallstricke lauern).
Lass Dir mal ein Angebot für folgende Eckdaten machen: 32 Inputs und Outputs, AES/EBU oder MADI, Software Komplettausstattung, wie man sie im üblichen Rahmen für Musikproduktion ohne MIDI oder Video-Sync-Geschichten braucht. Das dann jeweils mit der Maßgabe 48kHz, 96kHz und 192kHz. Insbesondere der Differenzbetrag zwischen letzteren beiden wird sehr deutlich ausfallen. Beim Pyramix wären wegen der zweiten MADI-Tochterkarte und der dazu nötigen zweiten DSP-Karte direkt mal 6000,- EUR nur bei den I/Os fällig. Mit AES/EBU ist die Sache heute zwar bei weitem nicht mehr so dramatisch wie noch vor ein paar Jahren, als wir damit angefangen haben, aber es kostet immer noch einen satten Aufschlag. Die Aufrüstung von 96kHz auf 192kHz hat allein bei beiden Schnittstellenkarten damals 2700,- EUR gekostet. Und überall wo DSP-Leistung gefragt ist, verdoppelt sich der Preis im Prinzip mit einer Verdopplung der Abtastrate, weil sich üblicherweise die Zahl der möglichen Kanäle oder PlugIn-Instanzen halbiert.
Soll es dann ein echtes „in Hardware gegossenen“ Mischpult sein, dann wird es richtig teuer, weil die ganze massenhaft auf dem Markt befindliche Standardtechnik von der Stange mit etwas Glück vielleicht 96kHz kann, auch die gehobenen Hersteller wie Stagetec und Lawo, aber für 192kHz meines Wissens nur Fairlight und vor allem AMS NEVE in Frage kommen – finde ich übrigens interessant, dass gerade wieder der Name NEVE auftaucht.
Will man HD-Audio ernsthaft produzieren und nicht nur auf eine Weise, dass man formal richtig das Label drauf drucken darf – weil das 200,- EUR-Audiointerface bei der Aufnahme auf 192kHz stand – dann kostet auch die Technik richtig viel Geld.
Truesound hat geschrieben:
Das Abtasttheorem besagt, dass ein Signal, welches einer Bandbegrenzung unterliegt (also irgend eine höchste vorkommende Frequenz besitzt) und mit einer Abtastfrequenz abgetastet wird, die höher, als das Doppelte der höchsten vorkommenden Signalfrequenz ist, genau so wieder rekonstruiert werden kann.
Wann werde ich eigentlich diese falsche Auslegung des Abtasttheorems nicht mehr lesen müssen…
Außerdem scheint der gesamte Beitrag eine 1:1-Kopie von hier zu sein:
http://goldohr.wordpress.com/2012/09/25 ... tal-audio/
Warum keinen Link dorthin? Dein Blog oder Diebstahl geistigen Eigentums?
Zum „… genau so wieder rekonstruiert werden kann“: Die genaue Rekonstruktion ist nur mit unendlichem Aufwand möglich. Wir beschäftigen uns immer nur mit an das Ideal möglichst dicht herankommenden Näherungen; das ist auch Ulis Spezialgebiet, kann man denke ich sagen, oder Uli? Mittlerweile ist die Technik diesbezüglich auch schon sehr gut. Nur wird diese Näherung immer genauer, je höher die Abtastrate. Deshalb ja auch die Idee mit Upsampling…
Also hier zum dritten Mal, denn was Shannon schon damals selbst schrieb, kommt irgendwie nicht an:
Passage aus Shannons „A Mathematical Theory of Communication“ (S. 47/48):
Claude Elwood Shannon hat geschrieben:This means that to transmit the output of a continuous source with exact recovery at the receiving point requires, in general, a channel of infinite capacity (in bits per second). Since, ordinarily, channels have a certain amount of noise, and therefore a finite capacity, exact transmission is impossible.
This, however, evades the real issue. Practically, we are not interested in exact transmission when we have a continuous source, but only in transmission to within a certain tolerance. The question is, can we assign a definite rate to a continuous source when we require only a certain fidelity of recovery, measured in a suitable way. Of course, as the fidelity requirements are increased the rate will increase. It will be shown that we can, in very general cases, define such a rate, having the property that it is possible, by properly encoding the information, to transmit it over a channel whose capacity is equal to the rate in question, and satisfy the fidelity requirements. A channel of smaller capacity is insufficient.
(Die Hervorhebung mit Fettschrift stammt von mir).
Allmählich habe ich die Befürchtung, weil mir das nun schon so oft passiert ist, dass vor allem jüngere E-Technik-Studenten dieses verkürzte „Wissen“ mit einer großen Selbstsicherheit verteidigen, dass dies längst an unseren Hochschulen so gelehrt wird. Kann mir eigentlich jemand sagen, ob nach diesen ganzen Bachelor-Reformen Physik noch ein Lehrfach in einem E-Technik-Studium ist?
An der Stelle sei aber vor allem nochmal angemerkt, dass es keine bandbegrenzten Signale gibt. Allein ein Signal das irgendwann beginnt und wieder endet, kann wegen der Unstetigkeit beim Beginn und Ende nicht bandbegrenzt sein. Das mag sich alles vielleicht nach Pfennigsfuchserei anhören. Das muss man aber einfach wissen, wenn man verstehen will, dass die Theorie nicht so rund und vollkommen ist wie sie auf den ersten Blick erscheint. Genau das hat Shannon in seinem o.g. Absatz formuliert. Am Ende kommt es darauf an, welche Ansprüche an die Übertragungsqualität man hat und dann kann man ein System so konstruieren, dass es im Rahmen dieser Einschränkungen den Ansprüchen genügt.
Die Entscheidung für eine Bandbegrenzung bei 22,05kHz beispielsweise ist dann genau diese Entscheidung für ein bestimmtes Qualitätsniveau, auf dem die Theorie DANN einwandfrei funktioniert. Mit der Bandbegrenzung verliert man aber immer Präzision, und ganz besonders dann, wenn Nutzsignal abgeschnitten wird.
@Uli: Das ist genau das was Du gerade erklärt hast und somit stimme ich Dir voll zu, dass die Ergebnisse genau dem entsprechen, was die Theorie vorgibt. Das ist aber nicht der Sinnzusammenhang in dem ich diese Seiten 16/17 gebrauche. Die genannten Beispiele sollen ja gerade illustrieren, dass die Verarbeitungsgenauigkeit bei einer Begrenzung der Bandbreite sinkt. Und genau das hast Du dankenswerter Weise verifiziert. Ich habe also auch hier bei den Bildern nicht getrickst.
uli.brueggemann hat geschrieben:
Ralf Koschnicke hat geschrieben:das auch nach Upsampling auf 192 kHz – wie gesagt, stellvertretend für die analoge Kurvenform – die ursprüngliche Struktur nicht mehr auflöst.
Es ist für mich aber nun eine Pseudoargumentation, dass dieses nachfolgende Upsampeln auf 192 kHz die ursprüngliche Signalform nicht mehr hervorbringt. Kann es ja auch nicht.
Eben! Ja, den Schritt sind wir nun endlich weiter. Danke!
uli.brueggemann hat geschrieben:
Der Hochfrequenzanteil ist ja weggenommen worden. Was wird damit bewiesen? Doch genau das, dass nämlich die Theorie der Bandbreitenbegrenzung funktioniert. Wohingegen Dein Text beim unbedarften Betrachter das unerschwellige Gefühl hinterlässt: huch, das passt ja gar nicht mehr, die nehmen mir all das weg, was ich zum Überleben benötige.
Zum Überleben braucht man sowieso andere Dinge. Alles andere ist eine Frage des Qualitätsanspruchs. Die Bilder beweisen genau das was sie sollen. Dass bei 24kHz Bandbreite das Auflösungsvermögen (im Zeitbereich) reduziert wird. Nur jetzt belastete ich den „unbedarften Betrachter“ plötzlich mit selbstverständlichen Dingen, um irgendwelche unterschwelligen Gefühle zu erzeugen. Weiter oben gab es genau das – wie im Zusammenhang mit den Sinussignalen heiß diskutiert – angeblich nicht
Mir ist aber bereits vor Ulis letztem Post klargeworden, wo glaube ich der Knackpunkt liegt, weshalb wir nicht auf einen Nenner kommen. Wir haben alle das Problem, dass wir ein Musiksignal als solches nicht mathematisch beschreiben können. Natürlich können wir irgendeine Signalform per Fourier in Sinusschwingungen überführen. Wobei: Soll das in quasi Echtzeit geschehen FFT, gibt es ohnehin wieder Probleme, siehe z.B.
http://www.bores.com/courses/advanced/w ... indows.pdf. Es wäre eine völlig falsche Vorstellung, man könnte irgendeine x-beliebige Signalform kontinuierlich mit unendlicher Genauigkeit in ihre Bestandteile aus Sinusschwingungen aufteilen und deshalb bei einem komplexen Musiksignal so tun als ob man nur viele Sinusschwingungen gleichzeitig übertragen müsste. In einem Musiksignal gibt es – außer vielleicht bei manchen Orgelklängen, wenn man die Töne lange stehen lässt – nie Sinusschwingungen als Signalform an sich, d.h. eine Schwingung in einem eingeschwungenen, stationären Zustand. Deshalb hat ein Musiksignal erst einmal wenig mit einem Sinus gemein.
Weil wir diese Signalform Musik mathematisch nicht beschreiben und auch messtechnisch schwer greifen können, müssen wir uns nur eben stets irgendwelcher Modelle behelfen. Berühmtes Beispiel für die Probleme mit solchen Modellen ist das Licht, einmal „gehorcht“ es dem Wellenmodell und sein Verhalten lässt sich darüber beschrieben, einmal dem Teilchenmodell.
Je nachdem, was wir zeigen wollen, passt das „Denken in Sinusschwingungen“ sehr gut. Für andere Dinge aber nicht, dann beschreiben Impulsmessungen besser. Vielleicht etwas so wie die beiden gebräuchlichen Modelle beim Licht. Deshalb haben Analogentwickler doch eigentlich schon immer beides gemessen und deshalb misst NEUMANN eben auch das Impulsverhalten; wird übrigens über einen Lichtbogen-Knall als Testsignal gemacht. Nur beides in Kombination beschreibt das Verhalten des Systems einigermaßen vollständig. Daneben gibt es dann noch diverse Hilfsverfahren, wie z.B. die Messung des Phasengangs parallel zum Frequenzgang: In einem analogen – aber Achtung, NUR in einem analogen System – gibt das Phasenverhalten nämlich auch Aufschluss über das Zeitverhalten. Mir ist beispielsweise kein analoges System bekannt, dass einen linearen Frequenz- und Phasengang zwischen 20Hz und 20kHz bei einer Sperrdämpfung von 90dB, erreicht spätestens bei 22kHz, hinbekommt. Das geht nur digital über den „mathematischen Trick“ symmetrische Filter, allerdings um den Preis eines veränderten Zeitverhaltens. Und dann fällt dieses geänderte Zeitverhalten bei der Messtechnik aus Analogzeiten noch durchs Raster; perfekter Phasengang. Diese Aussage hat nun aber leider nicht mehr den qualitativen Wert wie bei Analogtechnik.
Andersherum hat nämlich ein analoges System mit einem linearen Phasengang zwischen 20Hz und 20kHz in den meisten Fällen eine sehr große Bandbreite und damit Verarbeitungsgenauigkeit im Zeitbereich. Auch bei Verstärken findet sich in der klanglich sehr entscheidenden Anstiegsgeschwindigkeit die Systembandbreite wieder.
Die von mir verwendeten und von Uli so schön nachgebauten Bilder mit den beiden Impulsen sind folglich zugegen genauso eine „Krücke“ wie die Sinusschwingung. Natürlich kann ich nicht die beiden abgebildeten Impulse voneinander trennen; also im Sinne von Hören. Ob das System jedoch in der Lage ist, diese zu trennen oder auch nicht, das hilft bei der Einschätzung der Übertragungsgenauigkeit (vor allem im Zeitbereich). Die höhere Genauigkeit des einen Systems gegenüber einem anderen kann man wiederrum hören, das ist u.a. das was viele als Musikalität beschreiben, z.B. kann ich feine Akzentuierungen oder zeitliche Variationen im Spiel klarer definieren und mehr Nuancen hören. Das macht Musik lebendiger, emotionaler, vielfältiger…
Die Bilder zeigen in diesem Fall einfach, dass ein digitales Mischpult bei 48kHz immer eine schlechtere Präzision aufweist als ein Mischpult bei 96kHz oder 192kHz – Achtung wichtig! - ausgehend von den Mikrofonsignalen. Denn wie Uli auch richtig schreibt, wenn die Signale die ins Mischpult gehen bereits bandbegrenzt sind, dann arbeitet die Maschine (bei genügend großer Rechengenauigkeit) schon exakt. Die Präzision wurde aber an der Stelle bereits verloren, wo man die Bandbegrenzung gemacht hat.
Unsere scheinbar nicht überein zu bringenden Ansichten haben also offenbar mit den unterschiedlichen Modellen zu tun. Wir brauchen uns auch nicht darüber zu streiten, welches das richtige ist. Die Kombination von beiden ist denke ich nötig. Das Messen von Frequenzgängen und anderen Dingen (z.B. Klirr-Verzerrungen) mit Sinustönen – gerade mit Bezug auf die Eigenschaften des menschlichen Ohres – erfüllt folgenden Zweck sehr gut: Wenn ein Frequenzgang zwischen 20Hz und 20kHz nicht linear ist, hören wir das ab einem bestimmten Maß als tonale Veränderung, eben weil wir diesen Frequenzbereich bewusst wahrnehmen. Deshalb achtet man auf einen ausgeglichenen Frequenzgang in diesem Bereich. Das Gleiche gilt für Verzerrungen; wobei es hier schon wieder schwieriger mit der Klassifizierung 'hörbar' oder 'nicht-hörbar' wird (siehe nur altes Thema Klirr von Röhre vs. Transistor – ein Messwert ist nicht alles). Das alles geht anhand von Sinusschwingungen sehr gut und würde mit einem Impuls nicht gehen.
Immer dann wenn hauptsächlich das zeitliche Verhalten untersucht werden soll, dann helfen jedoch Impulsmessungen. Das machen glaube ich vor allem Lautsprecherkonstrukteure (Sprungantwort) und Mikrofonhersteller.
Deshalb: In Sinusschwingungen gedacht, kann ich zwei Sinusschwingungen um einen praktisch beliebig kleinen Phasenbetrag verschoben abbilden. Sprechen wir über das Zeitverhalten des Systems – und vor allem darum geht es beim Thema ‚hohe Abtastraten‘ – dann sind Sinusschwingungen – weil ein periodisches Signal – das falsche Modell.
Ich bevorzuge daher für die Beschreibung des Auflösungsvermögens in Analogie zur Optik die Impulsdarstellung. Denn die ‚Physik der Schwingungen und Wellen‘ gilt weitgehend für alle Teilbereiche – Mechanik, Akustik, Optik, elektromagnetische Schwingungen und Wellen – analog zueinander.
Ich weiß, ist nun lange geworden, aber es ist eben ein komplexes Thema und das lässt sich nicht auf die Länge eines Tweets runterkürzen.
Grüße
Ralf