Grenzen der digitalen Audiotechnik (Ralf Koschnicke)

Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Ach ihr meint immer noch einen Sinus... Für den oben zu erklärenden Umstand ist der Sinus ein gutes Bild. Das ist dann aber nicht "ein" Signal, sondern ein ganz bestimmter Ausnahmefall.
Für Musik im Allgemeinen ist ein Sinus sonst jedoch ein ganz schlechtes Bild, denn der kommt in einem Musiksignal so gut wie nicht vor. Musik besteht aus einem höchst komplexen Gemisch aus sich über die Zeit sehr schnell ändernden Schwingungszuständen, ein ständiges Ein- und Ausschwingen. Ganz besonders wichtig sind die Einschwingvorgänge, und für die Abbildungsgenauigkeit dabei ist die Impulsübertragung des Systems ein gutes Maß. Deshalb misst beispielsweise NEUMANN die Impulsübertragung.

Dass ich zwei Sinussignale mit quasi beliebiger Phasenverschiebung abbilden kann, das ist doch selbstverständlich. Das liefert aber im Zusammenhang mit Musik eben keinen Erkenntnisgewinn. Das Allgemeingültige im Zusammenhang mit dem Thema Auflösung habe ich nun wirklich ausführlich erklärt. Ohne den Zusatz "für den Ausnahmefall Sinus" bleibe ich somit ganz klar beim NEIN.

@Truesound: Ich kann nicht verhindern, dass man meiner Position Marketing-Absichten unterstellt. Sicher kann ich auch die geschäftlichen Aktivitäten nicht von dem trennen, was ich hier zum Thema sage. Alles was ich hier sage ist aber sauber argumentiert, wo wichtig in den Artikeln sogar mit Quellen versehen und wie oben mit vielen Querverweisen zu nachprüfbaren Fakten verbunden.
Ich vertrete hier nichts nur aus Marketing-Gründen. Was ich vertrete, davon bin ich überzeugt. Das kann man mir glauben, oder von mir aus auch nicht. Der große Unterschied ist aber, dass ich mit meinem Namen dafür einstehe und jeder weiß, mit wem er es zu tun hat. Jeder kann also ersehen, inwieweit eine Äußerung von anderen Interessen gesteuert sein könnte. Bei Leuten hinter irgendwelchen Pseudonymen kann niemand nichts einordnen.
Truesound hat geschrieben: Wenn man bei einem M 150 Neumann später im FFT Diagramm etwas im hohen Ultraschallbereich findet dann muß das nicht vom M 150 stammen sondern kann auch im Kanalzug eines analogen Mischpultes entstanden sein...insbesondere in der EQ Filterbank.....
Spätestens bei solchen Äußerungen ist für mich deshalb Schluss. Keiner redet von hohem Ultraschallbereich und es ist im Artikel eine Quelle genannt, wo die Fakten nochmal haarklein nachgelesen werden können. Neumann ist dann nicht irgendeine Firma und ihr vor kurzem in Ruhestand gegangener langjähriger Entwicklungschef ist auch nicht irgendein Spinner. Da werde ich dann wirklich böse, wenn man sich viel Mühe gibt, um Dinge zusammenzutragen und überprüfbar, sauber argumentiert in Zusammenhang zu bringen. Und dann wird irgendwie blöd daher geredet und alles irgendwie in den Dreck gezogen. Zumal dann nur Äußerungen mit einem irgendwie gearteten allgemeinen Absolutheitsanspruch kommen, ohne irgendetwas zu belegen; oder eben wenigstens am Namen und der Tätigkeit zu sehen, dass der Mensch wirklich weiß wovon er spricht. Fast jeder Absatz zeigt für mich nämlich eher das Gegenteil. Und dann werde ich besonders böse, wenn Frechheiten wie diese kommen:
Truesound hat geschrieben: Es gehen heute komischerweise nur Sachen nicht die schlecht fürs Marketing sind... :mrgreen:
Grüße Truesound
Los, wer steckt hinter Truesound! Ich will wissen, wer hier mit solchen bösen Unterstellungen arbeitet!

Grüße
Ralf
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Ralf!

Die Firma Neumann ist genauso wie die Firma Schoeps und Sennheiser..... ein hochrenommierter Betrieb was Microphonbau angeht. Dort laufen keine Spinner herum. ich weiß auch nicht wie du drauf kommst...

Daten über den tatsächlichen Frequenzgang des M 150 findet man z.b. an dieser Stelle:

http://www.sengpielaudio.com/NeumannMikrofonM50.pdf

http://www.neumann.com/?lang=de&id=curr ... m150_data#

Dort erkennen wir bereits das bei 20000 kHz ein Pegelabfall von 4 dB eingetreten ist und die Kurve steil nach unten geht.....

Da kann man sehr gut sehen wie der Frequenzgang des M 150 zu hohen Frequenzen und wie stark abfällt und oberhalb 20 kHz geht der Abfall dann so weiter....Nun könnte man hinterfragen warum Neumann in seinen veröffentlichen Messungen nur bis 20kHz die Diagramme schreibt...
Dann kann man dann ja mal gerne bei Neumann anfragen und wird dann eine passende Antwort bekommen...

Es dürfte allgemein in Szene bekannt sein das z.b. die Filterbänke von analogen Nevekonsolen Artefakte bis 70 kHz hoch erzeugen können...das ist nun aber auch an sich erstmal nichts böses oder schlimmes.Neveschaltungen finden sich aber nicht nur in Neve Konsolen wieder sondern in manchen Mischpulten mit ganz anderem Namen, weil Rubert Neve in seinem bewegten Leben viele Eisen im Feuer hatte. Ich nenne nur ein paar wenige der rund 15 Firmen die sich mit seinem Schaffen in Verbindung bringen lassen. Focusrite, Amek, Tylor Guitars, Legendary Audio.....usw.

Vielleicht verwendest du ja einer dieser Konsolen wo sich auch Schaltungen von Rubert Neve drinne wiederfinden....
Nun ist es sinnlos zu streiten wo der Ultraschallbereich losgeht bzw der hohe Ultraschallbereich....

Wiki sagt dazu:

Mit Ultraschall (oft als US abgekürzt) bezeichnet man Schall mit Frequenzen oberhalb des Hörfrequenzbereichs des Menschen und umfasst Frequenzen ab etwa 16 kHz.[1] Schall ab einer Frequenz von etwa 1 GHz wird auch als Hyperschall bezeichnet.[1] Bei Frequenzen unterhalb des für Menschen hörbaren Frequenzbereichs spricht man dagegen von Infraschall.[1]

Wiki sagt aber auch:

Als digitale Auflösung wird bezeichnet:


die Anzahl der verwendeten Teilbereiche des analogen Messbereiches,
bei binären Zahlen auch ihre Zweierpotenz (Auflösung in Bit),
bei gleich großen Intervallen auch die Größe der Intervalle selbst.

Auch der zeitliche Abstand wird als Auflösung bezeichnet.

Früher erfolgte die Quantisierung durch Ablesen des Messgerätes mit zahlenmäßigem Bewusst-Machen der an einer Skale gesehenen Zeigerstellung. Durch Aufschreiben wurden die Messwerte einer Speicherung in Tabellen und numerischer Verarbeitung zugänglich (z. B. Berechnung der Monatsdurchschnittstemperatur aus stündlichen Einzelmessungen). Heute finden solche Berechnungen praktisch nur noch in Computern statt, und die Messgröße wird dazu gerätetechnisch in einem Analog-Digital-Umsetzer quantisiert. Hierbei treten verschiedene Arten von Messabweichungen auf wie Linearitäts- und Quantisierungsabweichungen; letztere können weiterhin Quantisierungsrauschen hervorrufen.

Mit nichtlinearen Quantisierungskennlinien kann man bei nichtlinear wahrgenommenen Signalen (z. B. Audiosignalen) insbesondere bei geringen Auflösungen die wahrgenommene Signalqualität verbessern. Die Quantisierung ist also neben der Abtastung ein Schritt der Digitalisierung (A/D-Umsetzung) von analogen Signalen.

Nun hat es zur Hörbarkeit von Frequenzen oberhalb 20 kHz nun schon viele Studien gegeben:

Vor dem Hintergrund von HF-Auswirkungen führten die Wissenschaftler Ashihara Kaoru und Kiryu Shogo vom japanischen Institut ETL verschiedene Experimente und Hörversuche durch, deren Ergebnisse auf der 7. AES Convention (Paper No. 5401) der Fachwelt präsentiert wurden. Hiernach wird die Existenz eigentlich unhörbarer Frequenzen unter anderem dann wahrgenommen, wenn sie zusammen mit weiteren komplexen, nicht sinusförmigen Signalen über ein nichtlinear übertragendes System wiedergegeben werden. Durch diese nichtlinearen Übertragungseigenschaften werden die höherfrequenten Signale in den Hörfrequenzbereich demoduliert. Übertragungsglieder der Audiokette, bei denen das nichtlineare Übertragungsverhalten relativ stark ausgeprägt ist, sind z.B. die Lautsprecher, über die das Musiksignal wiedergegeben wird. Unterschiede, die bei Hörversuchen via Übertragungsketten mit unterschiedlichen oberen Grenzfrequenzen (> 20 kHz) durchaus herausgehört werden, lassen sich auf zusätzliche niederfrequente Intermodulationsprodukte u.a. der Lautsprecher zurückführen, die dann auftreten, wenn diese mit höherfrequenten (Nutz-) Signalen angeregt werden. Vor diesem Hintergrund ist es keine gute Idee ein Audiosystem insbesondere Lautsprecher mit Signalen unnötig hoher Bandbreite jenseits der 20 kHz zu beaufschlagen.

Und jetzt kommt die Praxis.... wenn ich verschieden konfigurierte Wiedergabeanlagen mit HF beaufschlage werden verschiedene Anlagenkonfigurationen u.U. auch verschieden darauf reagieren....und ohne diese verschiedenen Konfigurationen dann jeweils in ein entsprechend ausgestattes Meßlabor zu fahren um zu messen wie die Anlage bei HF Beaufschlagung genau mit Intermodulation in den hörbaren Bereich reagiert oder auch nicht, um erhörtes nochmal meßtechnisch zu untermauern oder zu überprüfen kann man mehr als schlecht zuverlässige Aussagen treffen was man da genau hört- wenn es bei veränderter Samplingfrequenz sich anders anhört....Nebenbei reagieren die meisten Hochtöner des Marktes bei Beaufschlagung mit HF mit Intermodulationsverzerrungen....

Unter diesen Umständen ist es praxisnäher den Frequenzbereich zumindestens der elektronischen Quelle besser frühzeitig zu deckeln.....

Wir wollen hier im Forum im Prinzip alle nur gut Musik hören und mehrheitlich sind es Endverbraucher die sich hier über Musikwiedergabe unterhalten....und hier geht es um den Inhalt der Beiträge und nicht um Personen....und selbst wenn du unter deinem Spitznamen hier schreiben würdest ändert das nichts am Inhalt der Postings und darauf kommt es an....

Es hat mal vor Jahren an der HfM Detmold einen Versuch gegeben zur Hörbarkeit unterschiedlicher Samplingfrequenzen mit dem Ausgang das oberhalb 48 kHz kein Unterschied beim besten Wandler mehr gehört wurde.....sich die verscheidenen Wandler aber je nach tatsächlichen Rauschabstand klanglich anders verhielten....

Wie gesagt es gibt keine staatliche Preisbindung für Aufnahmen in verschiedenen Samplingfrequenzen nur die Herstellungskosten sind gleich ob man nun mit 192 kHz oder 44,1 kHz diese herstellt...
Auch ist es nicht verboten seine Produkte in der freien Marktwirtschaft zu bewerben....und ob eine Aufnahme gut wird hängt mehrheitlich von der Performance der Künstler, der Akustik des Aufnahmeraumes dann vom Standort der Mikrophone und dann von der Qualität der Mikrophone ab und für den technischen Teil natürlich vom Können der ausführenden Technikers....und gutes Equipment kann dabei dann natürlich auch helfen... aber natürlich nicht viel kompensieren....und wenn man zum Schluß es dann auch noch so perfekt machen will das man unterschiedliche Samplingfrequenzen eben nicht hört gibt es auch dafür technische Lösungen und Equipment und das kommt sogar in extremer Häufung alles aus dem deutschsprachigen Raum....und wenn halt jemand daran interessiert ist, weil ihn dieses Problem wirklich drückt wie und womit man das erreichen kann, der kann ja auch danach Fragen wo er das entsprechende Equipment käuflich dazu erwerben kann -ganz einfach...

Ein beobachtetes unterschiedliches Klangverhalten bei jeweils unterschiedlichen Samplingfrequenzen wahrzunehmen ist die eine Sache aber man muß dann auch das entsprechende Gerät "untersuchen" bzw. auch mal mit in Frage stellen ob die Signalverarbeitung in diesem auch wirklich entsprechend korrekt ist....-nicht falsch verstehen... kein Hersteller baut absichtlich unnötige Fehler ein. Es ist vielmehr so das Produkte für verschiedene Zielgruppen und damit auch Preislagen hergestellt werden und man dann nicht für jeden Preis technisch alle Register ziehen kann die notwendig wären um ein Gerät zu bauen bei dem man die unterschiedlichen Samplingfrequenzen bei der AD-Wandlung dann nicht mehr "sicher" hören kann.....wenn dann letztere Wandler nicht überall zum Einsatz kommen ist das eine reine wirtschaftliche Frage des Tondienstleisters, ob sich das für seine Einnahmen lohnt oder wirtschaftlich darstellbar ist....
Ich nehme mal die aus der Betrachtung die nun bewußt speziell nach einem Wandler mit einem Eigensound suchen....

Ob heute Wandler zum Einsatz kommen bei den man unterschiedliche Samplingfrequenzen heraushören kann oder eben nicht ist heute nicht mehr eine Frage der technischen Machbarkeit oder des Angebotes, sondern eine wirtschaftliche Frage ob man als Tondienstleister über ein entsprechendes Kundenportofolio verfügt das man sich solche Wandler leisten kann....und da schleißt sich der Kreis und es ist wie mit allem im Leben....

Grüße Truesound
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4672
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Truesound hat geschrieben:wie gesagt natürlich geht das...!
Mir ist im nachhinein noch eingefallen, dass ich das bei Acourate nun tagtäglich anwende. Tja, der Wald und die Bäume.
Also: man stelle sich vor, dass eine Druckwelle justament am Mikro vorbeikommt, wo abgetastet wird. Dann ergibt sich eine maximale Amplitude. Man kann nun das Mikro um den Betrag verschieben, den der Schall innerhalb eines Abtastintervalls zurücklegt, also z.B. 343 m/s / 44100 = 7,8 mm. Da ist die Amplitude ebenfalls maximal . Wenn man aber um 3,9 mm verschiebt, dann eben nicht mehr. Es wird dann abgetastet, wenn der Druck noch nicht maximal oder die Welle schon wieder vorbei ist.
Das führt dann zu irritierenden IACC-Werten, wenn man zwei Kanäle aufnimmt und vergleicht, denn ein Kanal kann ja optimal, der andere verschoben aufgenommen sein.
Acourate macht deshalb ein Subsample-Shifting und führt eine Peak-Optimierung aus. Was einer Positionierung des Mikros in Schritten von 8/100 mm entspricht. Ich möchte mal den sehen, der das von Hand tun kann. Es wäre kein Problem, es auch noch feiner zu rechnen.

Also es ist kein Problem, ein Signal im Subsample-Bereich zu verschieben.

Falls nun jemnd schlussfolgert, dass es das Problem mit einer höheren Abtastrate nicht gibt, der irrt. Auch hier ändert sich das aufgezeichnete Signal, wenn man am Druckmaximum abtastet oder eben dazwischen.

Grüsse
Uli
Bild
Thias
Aktiver Hörer
Beiträge: 233
Registriert: 25.12.2011, 08:53
Kontaktdaten:

Beitrag von Thias »

Ralf Koschnicke hat geschrieben:Ach ihr meint immer noch einen Sinus... Für den oben zu erklärenden Umstand ist der Sinus ein gutes Bild. Das ist dann aber nicht "ein" Signal, sondern ein ganz bestimmter Ausnahmefall.
Für Musik im Allgemeinen ist ein Sinus sonst jedoch ein ganz schlechtes Bild, denn der kommt in einem Musiksignal so gut wie nicht vor. Musik besteht aus einem höchst komplexen Gemisch aus sich über die Zeit sehr schnell ändernden Schwingungszuständen, ein ständiges Ein- und Ausschwingen. Ganz besonders wichtig sind die Einschwingvorgänge, und für die Abbildungsgenauigkeit dabei ist die Impulsübertragung des Systems ein gutes Maß.
... werden jetzt die gängigen wissenschaftlichen Erkenntnisse auf den Kopf gestellt? :shock: :shock: :shock:

JEDES periodisches Signal kann durch eine Fourierzerlegung mathematisch als Fourierreihe beschrieben werden, d. h. als Summe von sinus- bzw. cosinusförmigen Teilschwingungen.
Musik lässt sich also komplett auf Sinusschwingungen zurück führen und zwar vollständig.
Die zitierte Aussage ist kompett falsch und bringt mich arg ins grübeln... (wird da nicht eine Hypothese auf einer falschen Grundlage aufgebaut?)

Diskutieren kann man vielleicht darüber, ob Impulse, wenn man sie zerlegt, Frequenzanteile von über 20 kHz beinhalten. Aber trotzdem bleiben sinus- bzw. cosinusförmigen Teilschwingungen.

Grüße
Thias
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4672
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Ralf Koschnicke hat geschrieben:Alles was ich hier sage ist aber sauber argumentiert, wo wichtig in den Artikeln sogar mit Quellen versehen und wie oben mit vielen Querverweisen zu nachprüfbaren Fakten verbunden.
Ralf,
ich hab mir mal in Deinem Artikel die Sache angeschaut, wo da zwei Pulse zu einer Monosumme verknüpft werden.
Testsignal ist wieder ein Impuls, hier aber mit einer auf 45 kHz eingestellten Bandbreite, was relativ gut den realen Verhältnissen in einem Musiksignal entspricht. Die Wellenformdarstellung bei 192 kHz soll quasi stellvertretend für den Plot der analogen Kurvenform stehen.

Das Bild oben zeigt auf zwei Übertragungskanälen zwei zeitlich leicht gegeneinander verschobene Impulse, die nach Bildung einer Monosumme noch voneinander als zwei diskrete Signale zu trennen sind.

Das Bild links zeigt die beiden Impulse zuerst auf 48 kHz downsampled, was die Bandbreite auf maximal 24 kHz begrenzt und wodurch die Impulse wieder zeitlich gedehnt werden. Nun verschmelzen beide Impulse in der Monosumme zu einem Signal, das auch nach Upsampling auf 192 kHz – wie gesagt, stellvertretend für die analoge Kurvenform – die ursprüngliche Struktur nicht mehr auflöst.
Also hab ich mal so eine Monosumme erstellt, dargestellt ist besagtes gedoppeltes Testsignal mit auf 45 kHz Bandbreite begrenzten Impulsen bei 192 kHz Abtastrate:
Bild

Nun machst Du ein Downsampling, was die Bandbreite des Signals auf 24 kHz begrenzt und dann wieder ein Upsampling. Ich geh jetzt her und bleib bei 192 kHz, wende aber nun zwei Filter an, ein Rechteckfilter 24 kHz als Tiefpss und ein Rechteckfilter 24 kHz als Hochpass. Das Ergebnis mit Tiefpassfilter:
Bild

Das Ergebnis mit Hochpassfilter:
Bild

Die Summe aus den gefilterten Signalen entspricht wiederum dem Ausgangssignal, was zu erwarten war.
Bild

Wenn ich nun das upgesampelte Summenbild in dem Artikel (Mono ---> Upsampled 192 kHz) mit meinem tiefpassgefilterten Bild vergleiche, dann kommt klar heraus, dass die Bandbreitenbegrenzung auf 24 kHz die Ursache ist. Dabei wird der Hochfrequenzanteil, wie oben zu sehen, logischerweise weggefiltert, also alles was eben oberhalb 24 kHz vorhanden ist. Muss ja so sein.
Ralf Koschnicke hat geschrieben:das auch nach Upsampling auf 192 kHz – wie gesagt, stellvertretend für die analoge Kurvenform – die ursprüngliche Struktur nicht mehr auflöst.
Es ist für mich aber nun eine Pseudoargumentation, dass dieses nachfolgende Upsampeln auf 192 kHz die ursprüngliche Signalform nicht mehr hervorbringt. Kann es ja auch nicht. Der Hochfrequenzanteil ist ja weggenommen worden. Was wird damit bewiesen? Doch genau das, dass nämlich die Theorie der Bandbreitenbegrenzung funktioniert. Wohingegen Dein Text beim unbedarften Betrachter das unerschwellige Gefühl hinterlässt: huch, das passt ja gar nicht mehr, die nehmen mir all das weg, was ich zum Überleben benötige.

Doch nun einmal die wirkliche Frage: was hörst Du, wenn Du dieses Beispiel mit 192 kHz und mit 48 kHz Abtastrate wiedergibst? Kannst Du mir wenigsten ein paar Leute nennen, die klar den Doppelpuls als Doppelpuls hören? Dann würde ich glatt anerkennen, dass die 48 kHz eindeutig zuwenig sind.
Ralf Koschnicke hat geschrieben:Alles was ich hier sage ist aber sauber argumentiert...
Auch eine saubere Argumentation hilft nicht weiter, wenn die Basis nicht stimmt. Ich kann jederzeit sauber argumentieren, dass die Summe der Innenwinkel im Dreieck > 180° sein können. Ist dann bloss eine andere Basis. Welche auch falsch sein könnte.

Grüsse
Uli
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Zusammen!

Mal den Zusammenhang in Worte gefasst für den der nicht "zufällig" Ingenieur Nachrichtentechnik ist:

Je nach kulturellem Hintergrund werden die Herren Nyquist, Shannon oder Kotelnikow, als die Väter des Abtasttheorems benannt. Das Abtasttheorem besagt, dass ein Signal, welches einer Bandbegrenzung unterliegt (also irgend eine höchste vorkommende Frequenz besitzt) und mit einer Abtastfrequenz abgetastet wird, die höher, als das Doppelte der höchsten vorkommenden Signalfrequenz ist, genau so wieder rekonstruiert werden kann.
Wohlgemerkt, das Abtasttheorem bezieht sich weder auf digitale Signale, noch lässt es Spielraum für eine begrenzte zeitliche Auflösung. Das rekonstruierte Signal ist identisch mit dem Originalsignal! Um aus (analogen) Abtastwerten wieder das originale Signal zu erzeugen, bedarf es des sogenannten Rekonstruktionsfilters. Als Rekonstruktionsfilter dient ein Tiefpassfilter, welches die höchste vorhandene Frequenz im Nutzsignal passieren lässt, aber alle Frequenzanteile die gleich oder größer als die halbe Abtastfrequenz sind, sicher unterdrückt. Wohl bemerkt, dieses Filter ist zwingend zur Rekonstruktion erforderlich und dieses Filter beeinträchtigt nicht das Nutzsignal, da es alle Frequenzen des Nutzsignals passieren lässt.
Eine höhere Abtastfrequenz hat somit eine höhere Bandbreite zur Folge oder auch eine höhere Auflösung.Wir erinnern uns das eine Verdopplung der Samplingfrequenz den Zugewinn von 1 Bit an Auflösung jeweils zur Folge hat! Wenn wir jedoch richtig gute A/D-Wandler verwenden, bei denen die 24 bit nicht mehr die Abtastwerte begrenzen, weil bereits andere Glieder in der Übertragungskette die Qualität des Signals beeinträchtigen, dann bringt auch eine Erhöhung der Abtastfrequenz keinen Gewinn für die zeitliche Auflösung. Richtig gute A/D Wandler im Sinne von echten 24 Bit an echt vprhandener Auflösung bedeutet das man bei dem Wandlern auch tatsächlich einen Rauschabstand von 144 dB über den Nutzfrequenzbereich messen kann! Würde man bei einem “24 Bit AD-Wandler” allerdings beispielsweise nur 98 dB Rauschabstand messen dann bedeutet das eine echte bzw. effektive Auflösung von lediglich 16 Bit und bei 110 dB entspreche die effektive Auflösung dann nur 18 Bit….- egal was nominal an Bits auf dem AD-Wandler drauf steht… und der Rest ginge im Grundrauschen des Gerätes dann zwangsläufig unter…
Eine vergrößerte Bandbreite ist die Folge einer erhöhten Abtastfrequenz. Eine höhere Abtastfrequenz kann auch zu einer höheren zeitlichen Auflösung führen – muss es aber nicht! Keinesfalls ist eine höhere Nutzbandbreite gleich zu setzen mit einer höheren zeitlichen Auflösung! Hier wird also Ursache und Wirkung verdreht und es werden mit dieser Behauptung auch andere Einflüsse übersehen.

Ein Rechnenbeispiel:

Verglichen mit dem Audiosignal einer CD bringt der Übergang von 44,1 kHz zu 96 kHz in der Abtastfrequenz eine Erhöhung der zeitlichen Auflösung um das 2,17 fache, also um 6,7 dB.
Bei einer Veränderung der Bitbreite von 16 bit auf 24 bit (echte bit) unter Beibehaltung der Abtastfrequenz von 44,1 kHz vergrößert sich die zeitliche Auflösung um volle 48 dB! Oder besser gesagt, man kann die Zeit 256 Mal feiner auflösen. Die Audioabtastfrequenz bestimmt lediglich die höchste im Audiosignal darstellbare Frequenz. Die Audioabtastfrequenz bestimmt jedoch nicht die zeitliche Auflösung! Dies ist ein weit verbreiteter Irrtum!
Die höchste zu übertragende Nutzfrequenz wir durch die Abtastfrequenz bestimmt. Die zeitliche Auflösung des Nutzsignals wird durch die Amplitudenauflösung der Abtastwerte bestimmt sprich der tatsächlich effektiven Bit-Tiefe (Bitanzahl) die über den tatsächlichen Rauschabstand des AD-Wandlers bestimmt werden.
Die Beobachtungen das eine erhöhte Abtastfrequenz wirklich etwas bringt -außer die Erhöhung der oberen Grenzfrequenz stützen sich nach meinem Erfahrungsstand auf übliche A/D-Wandler am Markt und für die gilt, dass die effektive Bitbreite nicht immer ausreichend ist -sprich die nominalen 24 Bit garnicht wirklich nutzbar sind sondern die untersten 5-8 Bit im Grundrauschen des AD-Wandler verloren gehen.Die Beobachtungen vielerorts sind ganz bestimmt richtig beobachtet – nur die Erklärungen sind leider unvollständig und falsch. Eine Erhöhung der Abtastfrequenz kann tatsächlich zu einer Verbesserung der zeitlichen Auflösung führen, aber nicht durch die höhere Bandbreite, sondern durch die Erhöhung der Zahl der Stützstellen bei der Rekonstruktion!(Wir erinnern uns das durch eine Verdopplung der Abtastfrequenz ein Bit jeweils dazugewonnen werden kann…)
Die Erfahrungen vielerorts können in so fern bestätigt werden, dass es viele Fälle gibt, bei denen sich durch eine Verdopplung der Abtastfrequenz die zeitliche Auflösung verbessert. Dies geschieht jedoch nicht, durch die mögliche erhöhte Bandbreite des Audiosignals, die nun übertragen werden kann, sondern durch eine genauere Rekonstruktion des D/A-Wandlers auf Grund der Verdopplung der Stützstellen.
Für Anwender, die mit 28 oder gar 32 bit ihr Audiosignal quantisieren können, bringt eine Erhöhung der Abtastfrequenz keine erkennbaren Vorteile mehr! Wohl gemerkt mit 28 Bit ist dann auch der tatsächlich messbare Rauschabstand von 156 dB des Wandlersystem gemeint!
Den Zusammenhang zwischen feiner zeitlicher Auflösung und großer Bitbreite bei der Wandlung hat z.B. die Fa. Stage Tec erkannt und bietet deshalb seit nunmehr 15 Jahren einen A/D-Wandler mit extrem großer Bitbreite an, den TrueMatch-Wandler. Die große effektiv nutzbare Bitbreite ist das Geheimnis, weshalb z.b. der TrueMatch-A/D-Wandler eine hörbar große Tiefenstaffelung besitzt. Dieser Wandler ist einfach sehr genau in den Abtastwerten und daher kommt eine viel bessere räumliche Darstellung heraus. Das ist im dem Fall keine Hexerei sondern technisch ganz nüchtern real. Das hat im genannten Fall echte technische Hintergründe und ist keine Marketingparole die nur erdacht auf dem Schreibtischen von Werbefachleuten stattfand.Ein Beispiel aus einer Messumgebung mit der vorhandenen EMV die auf die Messtechnik an normalen Einsatzorten der Audiotechnik stets einwirken würde ist dabei ein gutes Stichwort und zwar gerade gegen unnötig hohe Samplingfrequenzen, denn umso höher tendenziell die eingesetzte Samplingfrequenz ist umso mehr HF-Müll wird in die entstehende WAV-Datei digitalisiert die nichts mit dem eigentlichen Audiosignal zutun hat….nach dem Motto jede HF sucht sich “irgendwo” sicher ihre Demodulationsstrecke….

Vor dem Hintergrund von HF-Auswirkungen führten die Wissenschaftler Ashihara Kaoru und Kiryu Shogo vom japanischen Institut ETL verschiedene Experimente und Hörversuche durch, deren Ergebnisse auf der 7. AES Convention (Paper No. 5401) der Fachwelt präsentiert wurden. Hiernach wird die Existenz eigentlich unhörbarer Frequenzen unter anderem dann wahrgenommen, wenn sie zusammen mit weiteren komplexen, nicht sinusförmigen Signalen über ein nichtlinear übertragendes System wiedergegeben werden. Durch diese nichtlinearen Übertragungseigenschaften werden die höherfrequenten Signale in den Hörfrequenzbereich demoduliert. Übertragungsglieder der Audiokette, bei denen das nichtlineare Übertragungsverhalten relativ stark ausgeprägt ist, sind z.B. die Lautsprecher, über die das Musiksignal wiedergegeben wird. Unterschiede, die bei Hörversuchen via Übertragungsketten mit unterschiedlichen oberen Grenzfrequenzen (> 20 kHz) durchaus herausgehört werden, lassen sich auf zusätzliche niederfrequente Intermodulationsprodukte u.a. der Lautsprecher zurückführen, die dann auftreten, wenn diese mit höherfrequenten (Nutz-) Signalen angeregt werden. Vor diesem Hintergrund ist es keine gute Idee ein Audiosystem insbesondere Lautsprecher mit Signalen unnötig hoher Bandbreite jenseits der 20 kHz zu beaufschlagen.
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

uli.brueggemann hat geschrieben:
Truesound hat geschrieben:wie gesagt natürlich geht das...!
Mir ist im nachhinein noch eingefallen, dass ich das bei Acourate nun tagtäglich anwende. Tja, der Wald und die Bäume.
Also: man stelle sich vor, dass eine Druckwelle justament am Mikro vorbeikommt, wo abgetastet wird. Dann ergibt sich eine maximale Amplitude. Man kann nun das Mikro um den Betrag verschieben, den der Schall innerhalb eines Abtastintervalls zurücklegt, also z.B. 343 m/s / 44100 = 7,8 mm. Da ist die Amplitude ebenfalls maximal . Wenn man aber um 3,9 mm verschiebt, dann eben nicht mehr. Es wird dann abgetastet, wenn der Druck noch nicht maximal oder die Welle schon wieder vorbei ist.
Das führt dann zu irritierenden IACC-Werten, wenn man zwei Kanäle aufnimmt und vergleicht, denn ein Kanal kann ja optimal, der andere verschoben aufgenommen sein.
Acourate macht deshalb ein Subsample-Shifting und führt eine Peak-Optimierung aus. Was einer Positionierung des Mikros in Schritten von 8/100 mm entspricht. Ich möchte mal den sehen, der das von Hand tun kann. Es wäre kein Problem, es auch noch feiner zu rechnen.

Also es ist kein Problem, ein Signal im Subsample-Bereich zu verschieben.

Falls nun jemnd schlussfolgert, dass es das Problem mit einer höheren Abtastrate nicht gibt, der irrt. Auch hier ändert sich das aufgezeichnete Signal, wenn man am Druckmaximum abtastet oder eben dazwischen.

Grüsse
Uli

Hallo Uli!

So ist es!!

Grüße Truesound
Bild
music is my escape
Aktiver Hörer
Beiträge: 1548
Registriert: 03.07.2012, 10:56
Wohnort: Leipzig

Beitrag von music is my escape »

Eine sehr interessante Diskussion, danke dafür an alle konstruktiv Beteiligten!

Ralf Koschnicke hat geschrieben: Los, wer steckt hinter Truesound! Ich will wissen, wer hier mit solchen bösen Unterstellungen arbeitet!
Leider bringt so ein Stil nun wirklich gar niemanden weiter...

VG, Thomas.
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

music is my escape hat geschrieben:
Ralf Koschnicke hat geschrieben: Los, wer steckt hinter Truesound! Ich will wissen, wer hier mit solchen bösen Unterstellungen arbeitet!
Leider bringt so ein Stil nun wirklich gar niemanden weiter...

VG, Thomas.
Hallo Thomas,
die Wortwahl war vielleicht zugegeben etwas hart, wenn nun auch aus dem Zusammenhang gerissen. Ich muss mich hier dem Sinne nach aber einen Lügner nennen lassen, der nur irgendwelche Marketing-Interessen vertritt. Und dann bin ich der Böse, wenn ich dann mal etwas deutlicher werde, oder verstehe ich Dich nun falsch?

Truesounds-Beitrag war für mich schon ein ehrherabsetzender Angriff – so nennen die Juristen das glaube ich. Ich weiß, das gehört zur alltäglichen "Streitkultur" im Internet. Aber das heißt noch lange nicht, dass man sich alles kommentarlos bieten lassen muss. Wenn jemand persönliche Angriffe fahren will, dann soll er sich doch aber wenigstens nicht feige hinter einem Pseudonym verstecken. Was ist so schlimm an der Forderung?

Viele Grüße
Ralf

P.S.: Beiträge zur Sache folgen nachher
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Ralf Koschnicke hat geschrieben:
music is my escape hat geschrieben:
Ralf Koschnicke hat geschrieben: Los, wer steckt hinter Truesound! Ich will wissen, wer hier mit solchen bösen Unterstellungen arbeitet!
Leider bringt so ein Stil nun wirklich gar niemanden weiter...

VG, Thomas.
Hallo Thomas,
die Wortwahl war vielleicht zugegeben etwas hart, wenn nun auch aus dem Zusammenhang gerissen. Ich muss mich hier dem Sinne nach aber einen Lügner nennen lassen, der nur irgendwelche Marketing-Interessen vertritt. Und dann bin ich der Böse, wenn ich dann mal etwas deutlicher werde, oder verstehe ich Dich nun falsch?

Truesounds-Beitrag war für mich schon ein ehrherabsetzender Angriff – so nennen die Juristen das glaube ich. Ich weiß, das gehört zur alltäglichen "Streitkultur" im Internet. Aber das heißt noch lange nicht, dass man sich alles kommentarlos bieten lassen muss. Wenn jemand persönliche Angriffe fahren will, dann soll er sich doch aber wenigstens nicht feige hinter einem Pseudonym verstecken. Was ist so schlimm an der Forderung?

Viele Grüße
Ralf

P.S.: Beiträge zur Sache folgen nachher

Hallo Ralf!

Es geht hier nur um die fachliche Sache und nicht um Personen. Ich habe hier niemanden persönlich einen Lügner genannt und werde es auch nicht machen weil das auch garnicht nicht meine Art ist. Wenn sich fachliche Differenzen über die Dartsellung des Inhaltes zustandekommen dann gehe ich mal davon aus das alle beteilligten fachlich ihre These darstellen und vertreten....Welche Rückschlüsse sich im Verlauf dabei gedanklich für jeden persönlich dadurch ergeben können kann ich nicht persönlich beeinflussen.
Ich habe die Dinge und Zusammenhänge nur fachlich nach besten Wissen und Gewissen dargestellt und mehr nicht. Für mich hat an dieser Stelle die Diskussion auch ein Ende und wer konkret dranne interessiert ist wie man das "mancherorts wahrgenommene klangliche Problem" durch die Verwendung unterschiedlicher Samplingfrequenzen eben nicht hat der kann gerne nachfragen wie man das anstellt und dem wird geholfen werden.... und genau darum geht es in der Praxis eigentlich und um nichts anderes sollte es eigentlich gehen....

Grüße Truesound
Bild
music is my escape
Aktiver Hörer
Beiträge: 1548
Registriert: 03.07.2012, 10:56
Wohnort: Leipzig

Beitrag von music is my escape »

Ralf Koschnicke hat geschrieben:Was ist so schlimm an der Forderung?
Hallo Ralf,

schlimm ist an dieser Forderung natürlich erst einmal gar nichts; sie ist schlicht und einfach nur komplett unnötig und wird dem fachlichen als auch zwischenmenschlichen Argumentationsniveau der bislang höchst interessanten, durch Dich angestossenen Diskussion nicht gerecht.

Die nachvollziehbare Erklärung dafür findet sich im letzten Post von Truesound.

Nichts für ungut! :cheers:
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

@Truesound:
Truesound hat geschrieben:
Daten über den tatsächlichen Frequenzgang des M 150 findet man z.b. an dieser Stelle:

http://www.sengpielaudio.com/NeumannMikrofonM50.pdf

http://www.neumann.com/?lang=de&id=curr ... m150_data#

Dort erkennen wir bereits das bei 20000 kHz ein Pegelabfall von 4 dB eingetreten ist und die Kurve steil nach unten geht.....

Da kann man sehr gut sehen wie der Frequenzgang des M 150 zu hohen Frequenzen und wie stark abfällt und oberhalb 20 kHz geht der Abfall dann so weiter....Nun könnte man hinterfragen warum Neumann in seinen veröffentlichen Messungen nur bis 20kHz die Diagramme schreibt...
Dann kann man dann ja mal gerne bei Neumann anfragen und wird dann eine passende Antwort bekommen...


… womit dann eindeutig bewiesen wäre, dass Du dir noch nicht einmal die Mühe gemacht hast, nachzulesen was wir hier diskutieren. Das kostet nun wirklich jede Glaubwürdigkeit, es gehe Dir um eine Diskussion um die Sache. Aber lassen wir den Teil jetzt mal, ich gehe trotzdem auf ein paar Dinge nochmal ein:

Wenn Du tatsächlich an der Sache interessiert bist, dann klick doch einfach mal auf den Link zum PDF aus dem Studio Magazin und lese die paar Seiten. Ich habe damals mit NEUMANN telefoniert und wir haben uns sogar die abgedruckte Passage explizit von NEUMANN autorisieren lassen. Dann empfehle ich dringend das PDF auf der NEUMANN-Seite, dass im Artikel per Fußnote als Quelle genannt ist. Ich hatte damals durch den persönlichen Kontakt hauptsächlich sicherstellen wollen, dass der Frequenzschrieb des M150 nicht oberhalb des abgedruckten Bereichs wieder ein weiteres Maximum aufweist. Es könnte ja auch nur eine Delle im Frequenzgang bei 20kHz haben und ab 23kHz wieder bis 60kHz weiterlaufen. Dann wäre die ganze Argumentation mit diesem Beispiel hinfällig. Ich bekam aber die Aussage, dass der Frequenzgang oberhalb 20kHz genauso weiter abfällt wie es das Diagramm ab 17kHz andeutet.

Und genau das ist ja gerade der Knackpunkt, dass die gemessene Impulsgenauigkeit damit nicht zusammenpasst. Das Gespräch war übrigens ein ganz wichtiger Baustein, um mal über die Beziehung bzw. „Nicht-Beziehung“ von linearen und nichtlinearen Systemen nachzudenken. Wir haben uns alle schon so an das Hin- und Herspringen zwischen Frequenz- und Zeitebene gewöhnt, dass keiner mehr über die Randbedingungen nachdenkt. Und genau wie eben dieses Mikrofon wegen der Nichtlinearität dieser ganz besonderen Kapsel nichtlinear arbeitet – zum Glück auf eine für die Aufgabenstellung Musikübertragung ganz vorzügliche Art und Weise – und somit im Zeitbereich viel genauer abbildet, als es der Frequenzgang vermuten lässt, genauso kann man bei dem nichtlinearen System “Hörapparat des Menschen“ aus der Messung des Frequenzgangs NICHTS über das Verhalten im Zeitbereich folgern.

Deshalb ist die Annahme, die – ich weiß – seit 30 Jahren überall gelehrt wird: FALSCH. Der Hörbereich von 20kHz ist deshalb kein taugliches Argument dafür, um technische Systeme für Musikübertragung auf eine Bandbreite von 20kHz zu beschränken. Dazu müsste man mit dem Hörsystem einen ähnlichen Test machen wie NEUMANN mit den Mikrofonkapseln. Man müsste explizit das Zeitverhalten untersuchen und erst wenn das keine höhere Systemgenauigkeit ergibt, als die in einem technischen System mit 20kHz Bandbreite gegeben wäre, erst dann dürfte man von einer verlustfrei möglichen Beschränkung auf 20kHz Bandbreite ausgehen.
Truesound hat geschrieben: Wie gesagt es gibt keine staatliche Preisbindung für Aufnahmen in verschiedenen Samplingfrequenzen nur die Herstellungskosten sind gleich ob man nun mit 192 kHz oder 44,1 kHz diese herstellt...

Diese Aussage greife ich nur mal exemplarisch auf, um Dir deutlich zu machen, dass es noch eine Welt jenseits des Dir Bekannten gibt. Das ist übrigens Kennzeichen fast aller Diskussionen zu dem Thema: Es melden sich vornehmlich die lautstark zu Wort, die es nie selbst ausprobiert haben. Ich kenne keinen einzigen Kollegen, der angefangen hat, mit hohen Abtastraten zu arbeiten und es dann wieder bleiben ließ, weil es nichts bringt. „Bestenfalls“ kenne ich Kollegen, die sagen: „Ja ich weiß, würde ich gerne, bezahlt mir aber kein Kunde.“

Natürlich kann ich mir irgendein Audiointerface für ein paar hundert Euro kaufen und irgendeine billige Native-Audiosoftware und das alles auf 192kHz schalten, ohne dass dieses Setup deshalb mehr Geld kostet. Da reden wir dann aber über Spielzeug.

Ruf doch mal Digitalaudioservice in Hamburg an, derzeitiger Deutschlandvertrieb von Pyramix und autorisierter Protools-Händler; beides vermutlich die einzigen für HD-Audio-Produktionen überhaupt ernsthaft verwendbaren Systeme. (Ich weiß, es geht auf dem Papier mit vielen Native-Lösungen auch, aber ich weiß aus leidvoller eigener Erfahrung wo dann die Fallstricke lauern).

Lass Dir mal ein Angebot für folgende Eckdaten machen: 32 Inputs und Outputs, AES/EBU oder MADI, Software Komplettausstattung, wie man sie im üblichen Rahmen für Musikproduktion ohne MIDI oder Video-Sync-Geschichten braucht. Das dann jeweils mit der Maßgabe 48kHz, 96kHz und 192kHz. Insbesondere der Differenzbetrag zwischen letzteren beiden wird sehr deutlich ausfallen. Beim Pyramix wären wegen der zweiten MADI-Tochterkarte und der dazu nötigen zweiten DSP-Karte direkt mal 6000,- EUR nur bei den I/Os fällig. Mit AES/EBU ist die Sache heute zwar bei weitem nicht mehr so dramatisch wie noch vor ein paar Jahren, als wir damit angefangen haben, aber es kostet immer noch einen satten Aufschlag. Die Aufrüstung von 96kHz auf 192kHz hat allein bei beiden Schnittstellenkarten damals 2700,- EUR gekostet. Und überall wo DSP-Leistung gefragt ist, verdoppelt sich der Preis im Prinzip mit einer Verdopplung der Abtastrate, weil sich üblicherweise die Zahl der möglichen Kanäle oder PlugIn-Instanzen halbiert.

Soll es dann ein echtes „in Hardware gegossenen“ Mischpult sein, dann wird es richtig teuer, weil die ganze massenhaft auf dem Markt befindliche Standardtechnik von der Stange mit etwas Glück vielleicht 96kHz kann, auch die gehobenen Hersteller wie Stagetec und Lawo, aber für 192kHz meines Wissens nur Fairlight und vor allem AMS NEVE in Frage kommen – finde ich übrigens interessant, dass gerade wieder der Name NEVE auftaucht.

Will man HD-Audio ernsthaft produzieren und nicht nur auf eine Weise, dass man formal richtig das Label drauf drucken darf – weil das 200,- EUR-Audiointerface bei der Aufnahme auf 192kHz stand – dann kostet auch die Technik richtig viel Geld.
Truesound hat geschrieben: Das Abtasttheorem besagt, dass ein Signal, welches einer Bandbegrenzung unterliegt (also irgend eine höchste vorkommende Frequenz besitzt) und mit einer Abtastfrequenz abgetastet wird, die höher, als das Doppelte der höchsten vorkommenden Signalfrequenz ist, genau so wieder rekonstruiert werden kann.

Wann werde ich eigentlich diese falsche Auslegung des Abtasttheorems nicht mehr lesen müssen…
Außerdem scheint der gesamte Beitrag eine 1:1-Kopie von hier zu sein: http://goldohr.wordpress.com/2012/09/25 ... tal-audio/
Warum keinen Link dorthin? Dein Blog oder Diebstahl geistigen Eigentums?
Zum „… genau so wieder rekonstruiert werden kann“: Die genaue Rekonstruktion ist nur mit unendlichem Aufwand möglich. Wir beschäftigen uns immer nur mit an das Ideal möglichst dicht herankommenden Näherungen; das ist auch Ulis Spezialgebiet, kann man denke ich sagen, oder Uli? Mittlerweile ist die Technik diesbezüglich auch schon sehr gut. Nur wird diese Näherung immer genauer, je höher die Abtastrate. Deshalb ja auch die Idee mit Upsampling…

Also hier zum dritten Mal, denn was Shannon schon damals selbst schrieb, kommt irgendwie nicht an:
Passage aus Shannons „A Mathematical Theory of Communication“ (S. 47/48):
Claude Elwood Shannon hat geschrieben:This means that to transmit the output of a continuous source with exact recovery at the receiving point requires, in general, a channel of infinite capacity (in bits per second). Since, ordinarily, channels have a certain amount of noise, and therefore a finite capacity, exact transmission is impossible.
This, however, evades the real issue. Practically, we are not interested in exact transmission when we have a continuous source, but only in transmission to within a certain tolerance. The question is, can we assign a definite rate to a continuous source when we require only a certain fidelity of recovery, measured in a suitable way. Of course, as the fidelity requirements are increased the rate will increase. It will be shown that we can, in very general cases, define such a rate, having the property that it is possible, by properly encoding the information, to transmit it over a channel whose capacity is equal to the rate in question, and satisfy the fidelity requirements. A channel of smaller capacity is insufficient.
(Die Hervorhebung mit Fettschrift stammt von mir).

Allmählich habe ich die Befürchtung, weil mir das nun schon so oft passiert ist, dass vor allem jüngere E-Technik-Studenten dieses verkürzte „Wissen“ mit einer großen Selbstsicherheit verteidigen, dass dies längst an unseren Hochschulen so gelehrt wird. Kann mir eigentlich jemand sagen, ob nach diesen ganzen Bachelor-Reformen Physik noch ein Lehrfach in einem E-Technik-Studium ist?

An der Stelle sei aber vor allem nochmal angemerkt, dass es keine bandbegrenzten Signale gibt. Allein ein Signal das irgendwann beginnt und wieder endet, kann wegen der Unstetigkeit beim Beginn und Ende nicht bandbegrenzt sein. Das mag sich alles vielleicht nach Pfennigsfuchserei anhören. Das muss man aber einfach wissen, wenn man verstehen will, dass die Theorie nicht so rund und vollkommen ist wie sie auf den ersten Blick erscheint. Genau das hat Shannon in seinem o.g. Absatz formuliert. Am Ende kommt es darauf an, welche Ansprüche an die Übertragungsqualität man hat und dann kann man ein System so konstruieren, dass es im Rahmen dieser Einschränkungen den Ansprüchen genügt.

Die Entscheidung für eine Bandbegrenzung bei 22,05kHz beispielsweise ist dann genau diese Entscheidung für ein bestimmtes Qualitätsniveau, auf dem die Theorie DANN einwandfrei funktioniert. Mit der Bandbegrenzung verliert man aber immer Präzision, und ganz besonders dann, wenn Nutzsignal abgeschnitten wird.

@Uli: Das ist genau das was Du gerade erklärt hast und somit stimme ich Dir voll zu, dass die Ergebnisse genau dem entsprechen, was die Theorie vorgibt. Das ist aber nicht der Sinnzusammenhang in dem ich diese Seiten 16/17 gebrauche. Die genannten Beispiele sollen ja gerade illustrieren, dass die Verarbeitungsgenauigkeit bei einer Begrenzung der Bandbreite sinkt. Und genau das hast Du dankenswerter Weise verifiziert. Ich habe also auch hier bei den Bildern nicht getrickst.
uli.brueggemann hat geschrieben:
Ralf Koschnicke hat geschrieben:das auch nach Upsampling auf 192 kHz – wie gesagt, stellvertretend für die analoge Kurvenform – die ursprüngliche Struktur nicht mehr auflöst.
Es ist für mich aber nun eine Pseudoargumentation, dass dieses nachfolgende Upsampeln auf 192 kHz die ursprüngliche Signalform nicht mehr hervorbringt. Kann es ja auch nicht.
Eben! Ja, den Schritt sind wir nun endlich weiter. Danke!
uli.brueggemann hat geschrieben: Der Hochfrequenzanteil ist ja weggenommen worden. Was wird damit bewiesen? Doch genau das, dass nämlich die Theorie der Bandbreitenbegrenzung funktioniert. Wohingegen Dein Text beim unbedarften Betrachter das unerschwellige Gefühl hinterlässt: huch, das passt ja gar nicht mehr, die nehmen mir all das weg, was ich zum Überleben benötige.
Zum Überleben braucht man sowieso andere Dinge. Alles andere ist eine Frage des Qualitätsanspruchs. Die Bilder beweisen genau das was sie sollen. Dass bei 24kHz Bandbreite das Auflösungsvermögen (im Zeitbereich) reduziert wird. Nur jetzt belastete ich den „unbedarften Betrachter“ plötzlich mit selbstverständlichen Dingen, um irgendwelche unterschwelligen Gefühle zu erzeugen. Weiter oben gab es genau das – wie im Zusammenhang mit den Sinussignalen heiß diskutiert – angeblich nicht :shock:

Mir ist aber bereits vor Ulis letztem Post klargeworden, wo glaube ich der Knackpunkt liegt, weshalb wir nicht auf einen Nenner kommen. Wir haben alle das Problem, dass wir ein Musiksignal als solches nicht mathematisch beschreiben können. Natürlich können wir irgendeine Signalform per Fourier in Sinusschwingungen überführen. Wobei: Soll das in quasi Echtzeit geschehen FFT, gibt es ohnehin wieder Probleme, siehe z.B. http://www.bores.com/courses/advanced/w ... indows.pdf. Es wäre eine völlig falsche Vorstellung, man könnte irgendeine x-beliebige Signalform kontinuierlich mit unendlicher Genauigkeit in ihre Bestandteile aus Sinusschwingungen aufteilen und deshalb bei einem komplexen Musiksignal so tun als ob man nur viele Sinusschwingungen gleichzeitig übertragen müsste. In einem Musiksignal gibt es – außer vielleicht bei manchen Orgelklängen, wenn man die Töne lange stehen lässt – nie Sinusschwingungen als Signalform an sich, d.h. eine Schwingung in einem eingeschwungenen, stationären Zustand. Deshalb hat ein Musiksignal erst einmal wenig mit einem Sinus gemein.

Weil wir diese Signalform Musik mathematisch nicht beschreiben und auch messtechnisch schwer greifen können, müssen wir uns nur eben stets irgendwelcher Modelle behelfen. Berühmtes Beispiel für die Probleme mit solchen Modellen ist das Licht, einmal „gehorcht“ es dem Wellenmodell und sein Verhalten lässt sich darüber beschrieben, einmal dem Teilchenmodell.

Je nachdem, was wir zeigen wollen, passt das „Denken in Sinusschwingungen“ sehr gut. Für andere Dinge aber nicht, dann beschreiben Impulsmessungen besser. Vielleicht etwas so wie die beiden gebräuchlichen Modelle beim Licht. Deshalb haben Analogentwickler doch eigentlich schon immer beides gemessen und deshalb misst NEUMANN eben auch das Impulsverhalten; wird übrigens über einen Lichtbogen-Knall als Testsignal gemacht. Nur beides in Kombination beschreibt das Verhalten des Systems einigermaßen vollständig. Daneben gibt es dann noch diverse Hilfsverfahren, wie z.B. die Messung des Phasengangs parallel zum Frequenzgang: In einem analogen – aber Achtung, NUR in einem analogen System – gibt das Phasenverhalten nämlich auch Aufschluss über das Zeitverhalten. Mir ist beispielsweise kein analoges System bekannt, dass einen linearen Frequenz- und Phasengang zwischen 20Hz und 20kHz bei einer Sperrdämpfung von 90dB, erreicht spätestens bei 22kHz, hinbekommt. Das geht nur digital über den „mathematischen Trick“ symmetrische Filter, allerdings um den Preis eines veränderten Zeitverhaltens. Und dann fällt dieses geänderte Zeitverhalten bei der Messtechnik aus Analogzeiten noch durchs Raster; perfekter Phasengang. Diese Aussage hat nun aber leider nicht mehr den qualitativen Wert wie bei Analogtechnik.

Andersherum hat nämlich ein analoges System mit einem linearen Phasengang zwischen 20Hz und 20kHz in den meisten Fällen eine sehr große Bandbreite und damit Verarbeitungsgenauigkeit im Zeitbereich. Auch bei Verstärken findet sich in der klanglich sehr entscheidenden Anstiegsgeschwindigkeit die Systembandbreite wieder.

Die von mir verwendeten und von Uli so schön nachgebauten Bilder mit den beiden Impulsen sind folglich zugegen genauso eine „Krücke“ wie die Sinusschwingung. Natürlich kann ich nicht die beiden abgebildeten Impulse voneinander trennen; also im Sinne von Hören. Ob das System jedoch in der Lage ist, diese zu trennen oder auch nicht, das hilft bei der Einschätzung der Übertragungsgenauigkeit (vor allem im Zeitbereich). Die höhere Genauigkeit des einen Systems gegenüber einem anderen kann man wiederrum hören, das ist u.a. das was viele als Musikalität beschreiben, z.B. kann ich feine Akzentuierungen oder zeitliche Variationen im Spiel klarer definieren und mehr Nuancen hören. Das macht Musik lebendiger, emotionaler, vielfältiger…

Die Bilder zeigen in diesem Fall einfach, dass ein digitales Mischpult bei 48kHz immer eine schlechtere Präzision aufweist als ein Mischpult bei 96kHz oder 192kHz – Achtung wichtig! - ausgehend von den Mikrofonsignalen. Denn wie Uli auch richtig schreibt, wenn die Signale die ins Mischpult gehen bereits bandbegrenzt sind, dann arbeitet die Maschine (bei genügend großer Rechengenauigkeit) schon exakt. Die Präzision wurde aber an der Stelle bereits verloren, wo man die Bandbegrenzung gemacht hat.

Unsere scheinbar nicht überein zu bringenden Ansichten haben also offenbar mit den unterschiedlichen Modellen zu tun. Wir brauchen uns auch nicht darüber zu streiten, welches das richtige ist. Die Kombination von beiden ist denke ich nötig. Das Messen von Frequenzgängen und anderen Dingen (z.B. Klirr-Verzerrungen) mit Sinustönen – gerade mit Bezug auf die Eigenschaften des menschlichen Ohres – erfüllt folgenden Zweck sehr gut: Wenn ein Frequenzgang zwischen 20Hz und 20kHz nicht linear ist, hören wir das ab einem bestimmten Maß als tonale Veränderung, eben weil wir diesen Frequenzbereich bewusst wahrnehmen. Deshalb achtet man auf einen ausgeglichenen Frequenzgang in diesem Bereich. Das Gleiche gilt für Verzerrungen; wobei es hier schon wieder schwieriger mit der Klassifizierung 'hörbar' oder 'nicht-hörbar' wird (siehe nur altes Thema Klirr von Röhre vs. Transistor – ein Messwert ist nicht alles). Das alles geht anhand von Sinusschwingungen sehr gut und würde mit einem Impuls nicht gehen.

Immer dann wenn hauptsächlich das zeitliche Verhalten untersucht werden soll, dann helfen jedoch Impulsmessungen. Das machen glaube ich vor allem Lautsprecherkonstrukteure (Sprungantwort) und Mikrofonhersteller.

Deshalb: In Sinusschwingungen gedacht, kann ich zwei Sinusschwingungen um einen praktisch beliebig kleinen Phasenbetrag verschoben abbilden. Sprechen wir über das Zeitverhalten des Systems – und vor allem darum geht es beim Thema ‚hohe Abtastraten‘ – dann sind Sinusschwingungen – weil ein periodisches Signal – das falsche Modell.

Ich bevorzuge daher für die Beschreibung des Auflösungsvermögens in Analogie zur Optik die Impulsdarstellung. Denn die ‚Physik der Schwingungen und Wellen‘ gilt weitgehend für alle Teilbereiche – Mechanik, Akustik, Optik, elektromagnetische Schwingungen und Wellen – analog zueinander.

Ich weiß, ist nun lange geworden, aber es ist eben ein komplexes Thema und das lässt sich nicht auf die Länge eines Tweets runterkürzen. :wink:

Grüße
Ralf
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

An dieser Stelle will ich aber mal einen Neustart versuchen. Denn alles in allem drehen wir uns doch im Kreis. Es ist alles schon mehrfach in diesem Forum diskutiert worden. Auf einen ganz zentralen Punkt kann man aber anscheinend nicht oft genug hinweisen. Ich bin ein Mann der Praxis, meine eigentliche Tätigkeit ist die Musikproduktion. Die ganzen theoretischen Überlegungen sind nur eine Art Nebenbeschäftigung, um Erklärungen für Erlebnisse in der täglichen Praxis zu finden. Es geht mir nicht darum, am Grünen Tisch irgendwelche fiktiven Anforderungen auf theoretischer Basis zu formulieren und dann mit Theorien zu beweisen, dass man anschließend etwas so oder so umsetzen müsste.

Am Anfang steht ZUERST der experimentelle Befund. Es gibt Beobachtungen … die sind x-mal verifiziert, zum Glück ja inzwischen auch von vielen anderen. Diese Beobachtungen möchte ich gerne erklären können. Keinen anderen Sinn und Zweck verfolgen meine Publikationen zum Thema und das sollte eigentlich auch Sinn und Zweck dieses Threads sein.

Beiträge im Sinne von „irgendwer hat schon mal irgendwo bewiesen, dass es die Beobachtung nicht gibt“ oder „aus diesen und jenen theoretischen Gründen kann die Beobachtung nicht existent sein“ bringen uns nicht weiter und ich bitte zumindest diesen Thread hier davon frei zu halten! Wer keine Unterschiede zwischen normalen und hohen Abtastraten hört und mit der CD zufrieden ist, der darf sich gerne so glücklich fühlen, als zufriedener und nicht ständig suchender Mensch. Aber der soll bitte auch akzeptieren, dass andere mit dem Ist-Stadium nicht zufrieden sind und bessere Lösungen suchen. Die Beobachtungen bleiben ja schließlich auf jeden Fall erhalten und lösen sich nicht in Luft auf, nur weil man sie irgendwie wegdiskutieren könnte. Das WARUM ist die Fragestellung.

Ich werde mich folglich nicht mehr an Diskussionen beteiligen, die mir – und auch vielen anderen – versuchen, ihre tatsächlich real vorhandene Wahrnehmung wegzudiskutieren. Das ist ein absurdes Unterfangen und reine Zeitverschwendung für alle Beteiligten.

Dieser Thread war lange Zeit eingeschlafen. Zum Leben erweckt wurde er durch einen Hinweis auf privater Ebene, worauf ich es dann (offenbar leichtsinnigerweise ;) ) für sinnvoll erachtet habe, meinen letzten im Februar im Studiomagazin veröffentlichten Artikel hier zugänglich zu machen (http://www.acousence.de/StudioMagazin2_ ... enzung.pdf). Das zentral Neue ist nun, dass die für digitale Standardtechnik notwendige Bedingung für das Funktionieren der Theorie – die Argumentation mit dem menschlichen Hörbereich – nicht geeignet ist, diese darauf basierend eingeführte Randbedingung (Bandbegrenzung auf 22,05 bzw. 24kHz) hinreichend zu argumentieren (Details im Artikel). Das ist ein ganz entscheidender Baustein auf dem Weg zum WARUM. Denn damit entfällt nun endlich der bisher scheinbar vorhandene Widerspruch, dass wir Dinge offenbar wahrnehmen können, die wir eigentlich nicht wahrnehmen können dürften. Es ist eben noch lange nicht bewiesen, dass dem menschlichen Hörsystem durch die Begrenzung der Bandbreite auf 22kHz kein Informationsgehalt verloren geht. Wie weiter oben bereits gesagt, das könnte zwar zufällig so sein, weil das Gegenteil auch noch nicht wirklich bewiesen ist. Aber es ist doch nun ein ganz entscheidender Unterschied für die Diskussion, wenn auf der Suche nach Lösungsansätzen diese Schranke fällt.

Wenn jemand hier allerdings eine Argumentationslücke erkennt oder gar aus seiner Sicht falsche Schlussfolgerungen anzumerken hat, dann darf er es gerne tun. Wenn man Neuland betritt, gibt es immer das Risiko, auch einzubrechen. Aber nur so kommt man wirklich weiter. Das Mindeste was ich dann aber erwarte ist, dass man sich mit dem Artikel und den Argumenten auseinandersetzt. Anders geht es nicht. Uli hat es ja gerade vorgemacht. Er geht auf einen bestimmten Punkt ein, wo er Kritik anzumelden hat und dann kann man den Punkt diskutieren.

Viele Grüße
Ralf
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Hallo Ralf!

Was das von dir beschriebene Equipment kostet bin ich im Bilde und was es kann auch..... Das Equipment setzte ich jetzt mal vorraus ob nun mit 44,1 kHz/48 kHz oder 192 kHz produziert wird -wenn man technisch wirklich hochwertig produzieren möchte.... .Und dann ergibt sich nicht wirklich ein Unterschied in den Herstellungskosten von der Seite des Equipments her.... ob nun mit 44, 48 kHz oder 192 kHz produziert wird ist dann egal.....Sehr wichtig ist dann die Qualität der AD-Wandler die per MADI ans System angeschlossen werden......24 Kanäle Stagetec haben schon ihren Preis... Das beschriebene Equipment ist nun auch nichts besonderes als das was einschlägige Qualitätstondienstleister bei ihren Produktionen für die großen Label verwenden....

Wieviel DSP Power ich benötige hängt nicht nur von der Samplingfrequenz sondern auch von der Größe und Art der Projekte ab die damit abgewickelt werden...

Wie gesagt ich verwende hochqualitative Wandler denen man keinen Unterschied anhört -ob sie nun gerade mit 44/48 kHz oder 96 kHz arbeiten von daher sind die Samplingfrequenzen für mich persönlich praktisch völlig uninteressant.

Mag ja sein das hier sonst noch jemand im Forum ein akustisches Problem bei seiner individuellen Wandlerlösung hat.......ich jeden Falls nicht.....

Du kannst den Blogbetreiber gerne anschreiben ... ich habe sein Einverständnis besagte Inhalte zu verwenden....


Grüße Truesound
Bild
uli.brueggemann
Aktiver Hersteller
Beiträge: 4672
Registriert: 23.03.2009, 15:58
Wohnort: 33649
Kontaktdaten:

Beitrag von uli.brueggemann »

Ralf,

zu dem Neumann-Mikro möchte ich doch noch gerne einen Punkt schreiben. Was eigentlich aufzeigen soll, wie man sich selbst auch täuschen kann:
De facto möchte ich gerne das hören, was live passiert. Ich weiss, ich weiss, ein hehres Ziel. Und wenn ich nur die CD in der Hand hab, weiss ich auch nicht wie es denn wirklich original geklungen hat.
Nun hat das Mikro einen fallenden Frequenzgang und den von Dir beschriebenen nichtlinearen Effekt, welcher denn nun wie auch immer wundersam wunderbar wirkt.

Was aber definitiv klar sein sollte: wenn das Mikro genau das wiedergibt, was es aufnimmt, dann DARF es keine nichtlinearen Effekte geben. Eine 1:1 Wiedergabe ist immer linear, gekennzeichnet durch einen Dirac-Puls, einen glatten horizontalen Frequenzgang (von mir aus auch bis x MHz) und Null Phasendrehungen.
Wenn das Mikrofon nichtlineare Effekte hätte, dann würde es verfärben, tonal, durch Seitenbänder, durch harmonische und nichtharmonische Anteile. Das mag Dir möglicherweise auch vom Sound her gefallen, aber es verfälscht.

Und dabei ist es egal, ob wir nun mit 44.1 kHz oder 384 kHz abtasten, das kommt ja erst danach.

Und es ist auch egal, wie es mit den Nichtlinearitäten unseres Gehörs ausschaut. In einem Fall kommt der Originalklang unverfälscht 1:1, siehe oben, an unser Gehör. Im anderen Fall würde, selbst wenn anschliessend alles andere perfekt ist, durch das Mikro der Originalklang verfälscht. Das bedeutet, dass wir eine dem Ohr vorausgehende Verfälschung haben. Und das können wir nicht schönreden und es wird nicht besser, wenn wir diese Verfälschung durch eine höhere Abtastrate zusätzlich rüberbringen.

Fazit: wenn das Mikro einen abfallenden Frequenzgang hat und trotzdem 8µs-Pulse rüberbringt, dann widerspricht es dem Prinzip der linearen 1:1 Übertragung.
Ergo bleibt dann nur die Wahl entsprechend den eigenen Geschmacksprinzipien: Aufnahme mit verfälschendem Mikro mit hoher Abtastrate oder Abschneiden der Nichtlinearitäten im oberen Frequenzbereich. Eine sachliche Feststellung der Richtigkeit ist hier nicht möglich, weil das Grundprinzip bereits verletzt ist.

Grüsse
Uli
Bild
Antworten