Die Technik hinter Linn DS Netzwerkstreamern

Franz
inaktiv
Beiträge: 4422
Registriert: 24.12.2007, 17:07
Wohnort: 53340 Meckenheim

Beitrag von Franz »

Winfried,

wenn du dein Orgelprojekt durchführst, wäre ich gerne mal dabei, das interessiert mich, mal einem Tonschaffenden über die Schulter zu gucken, war leider noch nie bei einer solchen Tonproduktion dabei. :cheers:

Ganz allgemein gehalten bin ich der Meinung, daß heute die Tonproduktion viel zu sehr technisiert abläuft. Das verkommt oft zum reinen Studio-patchwork. Mir scheint, es wäre viel wichtiger und auch im Endergebnis zielführender, wenn sich die Tonschaffenden und damit auch die Entwickler von audio-Gerätschaften sich darauf zurückbesinnen würden, wie der Mensch eigentlich hört, was dem menschlichen Gehör so etwas wie "Echtheit" und "Natürlichkeit" vermittelt, wie das Gehirn beim Hören filtert. Habe vor einiger Zeit Den Bellity, der die LaRosita entwickelt hat, zugehört in seinem kleinen Vortrag. Das hat mich stark beeindruckt. Vielleicht hat er es verstanden, denn jedenfalls klangen seine Geräte selbst bei 16 Bit Auflösung und einer Abtastfrequenz von 44,1 kHz dermaßen gut für mein musikalisches Empfinden, daß ich nur noch gestaunt habe. Ich denke, viele Techniker haben es verlernt, der Musik sich zu nähern. Sie tun dies eher mit dem Draufschauen auf technische Parameter, wissen aber anscheinend weniger, wie die Musik, die sie aufnehmen, klingen soll. Manche "moderne" Produktionen tönen derart unnatürlich, daß einem das Grauen kommt.

So, jetzt genug geschimpft. :mrgreen: Es ändert sich ja ohnehin nichts, denn wir wenigen "audiophilen Spinner" schert die Musikindustrie doch überhaupt nicht. Wir müssen weiterhin die audiophilen Perlen wie die Stecknadel im Heuhaufen suchen. Glücklich der, der sie finden kann. :cheers: Es gibt sie ja zum Glück auch noch.

Gruß
Franz
Bild
JOE
Aktiver Hörer
Beiträge: 1227
Registriert: 21.07.2008, 20:36

Beitrag von JOE »

Meines Erachtens kann man einerseits die Diskussion endlos und gleichzeitig fruchtlos führen: Mit der steigenden Zahl der eben nicht nur zu berücksichtigenden Variablen, sondern - und das ist aus Nutzersicht viel wichtiger und leider auch enttäuschender! - eben auch zu variierenden/manipulierenden ist es in der Regel nachträglich nicht mehr rückverfolgbar, was da bei der Produktion des Guten und des "Guten" zu viel getan worden ist.

So bleibt also nur das, was Franz gerade (letzter Beitrag auf S. 4) beschrieben hat. Das Bedauern, dass es anders besser wäre und besser gehen könnte (zumal wir Hörer unter dem Einfluss der historisch driftenden teils in eine gemeinsame, teils in sehr ambivalente Richtungen gehenden Produktionsgewohnheiten über die Jahre eben auch nicht die Gleichen bleiben ...), ist nicht auf einen oder einige wenige Nenner zu bringen. Das gilt insbesondere, wenn man nicht nur an das Einzelindividuum denkt.

Das ist aber kein neues oder spezielles Phänomen:

Wir schätzen die relative ästhetische Geschlossenheit historischer Stadtkerne nicht nur aus nostalgischen Gründen. Vielmehr ist es so, dass die jeweils zur Verfügung stehenden Baustoffe und -techniken zu einer relativen Vereinheitlichung führen mussten. Mit der Erweiterung des Materialangebots wie auch der Bautechnik ergeben sich viele neue Möglichkeiten, darunter zahlreiche "ästhetische Unmöglichkeiten".

Das gilt auch für Bereiche, an die man zunächst vielleicht gar nicht denkt: So hat die moderne Küchentechnik allein wegen der Verfügbarmachung von schneller und hoher Hitze nicht nur zu einem anderen Kochstil (zu hohe Gartemperaturen mit gleichzeitiger Verkürzung der Garzeit) im Einzelfall geführt, sondern inzwischen finden sich entsprechend falsche (meint: suboptimale) Angaben in praktisch allen Kochbüchern. Nicht das Fleisch ist über die Zeit so schlecht geworden (auch wenn da die Fetthysterie nicht folgenlos geblieben ist), sondern es wird einfach nicht mehr kompetent gekocht, und das Wissen ist weit gehend verloren gegangen. (Interessant die randständige Entwicklung ins andere Extrem des Sous-vide-Garens.) Daneben werden die "Zutaten der Welt" kombiniert, was sowohl bei den Konsumenten wie auch den Köchen zu mancher interessanten Neuentwicklung, aber auch zahlreichem "geschmacklichen Schrott" führt, über den man obendrein kaum geschmacksästhetische Übereinstimmung erzielen kann. Dies wiederum nicht nur, weil bei so Vielen die Kriterien verloren gegangen sind.

Für die Profis unter uns - egal, ob geräte-technisch orientiert oder Musik produzierend - ist freilich die breit angelegte mühsame kritische und selbstkritische Diskussion unentbehrlich, will man nicht gleich alles den nur an der Masse und damit dem Umsatz orientierten Kräften überlassen. Und es steht auch fest, dass manches an Wissen und auch Grundhaltung aus den "analogen Zeiten" bewahrt werden sollte - dabei um die Gefahr wissend, wie leicht rückblickend eine Periode verklärt zu werden droht. (Und schon haben wir auch da mit einer unübersichtlich komplexen Themenlage zu tun ...!)

Entschuldigt den Exkurs! :oops: Ich habe die Hoffnung, dass der Beitrag helfen könnte, die auseinander driftenden ambivalenten Diskussionstränge neu "zu erden" und ein fruchtloses Hin und Her, wie wir es schon so oft erlebt haben, zu verhindern, indem man sich klar macht, dass es zwei Stränge sind, die da nebeneinander her laufen und diese nicht miteinander vermengt werden sollten - auch wenn sie nicht ohne Einfluss aufeinander sind.

Gruß
Joe
Bild
Bernd Peter
Aktiver Hörer
Beiträge: 4005
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo,

na das Jahr 2012 fängt ja gleich gut an, da geht es direkt zur Sache.

Was auffällt, ist die Tatsache, daß erfahrene Leute mit Studiowissen unterschiedlich argumentieren und denken.

Ich kann als Konsument Jürgen zustimmen, allein die Auflösung ist nicht das Allheilmittel, selbst bei Original HD-Files.

Gruß

Bernd Peter
Bild
Bernd Peter
Aktiver Hörer
Beiträge: 4005
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo,

bezüglich des Beitrages von Joe plädiere ich für die Neuaufnahme eines Unterordners "Kochen mit Verstand".

Ich weiß zwar, daß Rudolf die Übersichtlichkeit sehr schätzt, aber ungeachtet dessen wäre es doch spannend, was wir da alles zusammentragen könnten, so als Männerclub.

Ich wär dabei.

Gruß

Bernd Peter
Bild
JOE
Aktiver Hörer
Beiträge: 1227
Registriert: 21.07.2008, 20:36

Beitrag von JOE »

Bernd Peter hat geschrieben:... bezüglich des Beitrages von Joe plädiere ich für die Neuaufnahme eines Unterordners "Kochen mit Verstand".

Ich weiß zwar, daß Rudolf die Übersichtlichkeit sehr schätzt, aber ungeachtet dessen wäre es doch spannend, was wir da alles zusammentragen könnten, so als Männerclub.
Gute Idee! Muß ja auch die Übersichtlichkeit nicht beeinträchtigen. Vielleicht kommt dann doch diese oder jene Frau im Forum dazu ... :wink:

Gleichzeitig will ich - und wollte ich oben - dafür plädieren, die beiden Diskussionsstränge in diesem Thread getrennt zu halten, was bedeuten würde, dass die "Studioerfahrenen" (ggf. zusammen mit engagierten Hörern) den einen Teil der Diskussion führen und die anderen den (praktisch rein) Technik bezogenen: Letzteres ist doch nur für einen sehr beschränkten Personenkreis kompetent miteinander zu führen und gleichzeitig für uns Hörer nicht wirklich nachvollziehbar.

Hier würde dann nur noch der "technische Strang" fortgeführt.

Gruß
Joe
Bild
martino
Aktiver Hörer
Beiträge: 501
Registriert: 31.01.2010, 21:50
Wohnort: Berlin

Beitrag von martino »

Hallo zusammen,

eine immer wieder interessante Diskussion! Allerdings wird sie auch in diesem Forum häufig und mit der Zeit erschöpfend geführt. Zu einer Einigung wird es wohl nicht kommen! Am interessantesten finde ich eigentlich diese Aussage:
Bernd Peter hat geschrieben:Was auffällt, ist die Tatsache, daß erfahrene Leute mit Studiowissen unterschiedlich argumentieren und denken.
Bei uns in diesem Fall drei Studio-Fachleute und drei Ansätze, die sicher alle ihre Berechtigung haben. Schwierig wird es immer dann, wenn eine Schule behauptet die Alleinseeligmachende zu sein. Was im Stillen natürlich einjeder von sich selber und der eigenen Philosophie denkt, sofern man nur einigermaßen davon überzeugt ist. Öffentlich rausposaunt führt das aber verständlicherweise zu erbittertem Widerspruch.

In der Tat wäre aber eine Abspaltung des Themas und ein Einfügen in einen alten Thread zu den möglichen Vorzügen von HD Audio sicher angebracht - hat ja hier schon lange keinen Bezug mehr zum Thema Linn DS...

Ich kann als Konsument Jürgen zustimmen, allein die Auflösung ist nicht das Allheilmittel, selbst bei Original HD-Files.
Das ist sicher richtig, aber als Argument gegen HD taugt es auch nicht. Hohe Auflösung heißt nicht gleich besser, dafür gibt es eine Menge trauriger Negativbeispiele. Das Verkaufsargument HD ist immer kritisch zu hinterfragen. Der Umkehrschluss, HD sei generell Nepp und auch technisch nicht zu begründen ist aber in meinen Augen unzulässig.

Ich denke ein Tonschaffender sollte die ihm gegebenen technischen Möglichkeiten optimal nutzen. Daß dabei verschiedene Wege zu herausragenden Ergebnissen führen (und viele andere zu schlechten) ist eigentlich vorhersehbar. Ob diese herausragenden Ergebnisse nun rein analog, in digitalem Standardformat oder HD erzielt wurden erscheint mir erstmal herzlich egal.

Svens These würde ich so zusammenfassen, daß er an einen Vorteil hoher Samplingfrequenzen bei der digitalen Aufnahme nicht glaubt, und die von ihm zugestandenen immer mal wieder beobachteten Unterschiede für mastering-bedingt hält - im Sinne von "es muss einen Unterschied geben damit das teurere Produkt gekauft wird, also machen wir einen". Diese Praxis wird wohl von einigen Tonschaffenden auch offen zugegeben. Unklar ist aber, ob sie einen nonexistenten Unterschied simulieren, oder einen bestehenden vergrößern. Außerdem gibt es immer Labels (und ich hoffe immernoch es sind die Meisten), die ordentlich arbeiten und soetwas nicht tun würden.

Ralf z.B. beschreibt doch recht detailliert, wie er die verschiedenen Gegebenheiten verglichen hat, und warum er sich letztendlich für seine individuelle Kombination aus analoger Signalführung/Mischung und HD-Aufzeichnung in PCM entschieden hat. Diesen Ansatz hat er verfeinert, so wie Winfried seine reinen Analogaufnahmen und Sven seine Standardformat-Digitalaufzeichnungen. Er hat bei seinen Aufnahmen deutliche Unterschiede insb. bzgl. der Räumlichkeit/Deitailauflösung zwischen 16/44.1 und HD ausgemacht. Wenn ich mich richtig erinnere handelte es sich bei diesem Vergleich nicht um ein 192/24 Master das dann downgesampled wurde - sondern um einen Vergleich paralleler Aufnahmen in verschiedenen Auflösungen. Stimmt das so, Ralf? Und ist es das, was auch auf den Comparison Kits drauf ist? Denn Svens etwas provokante These war hier (natürlich nicht auf Ralfs Aufnahmen bezogen): "Wundert euch nicht wenns anders klingt - den Qualitätsverlust macht nicht die niedrigere Auflösung sondern das Downsampling"

Meine Meinung: wenn jemand seinen Weg gefunden hat, aus dem HD-Format alles rauszuholen, warum sollte er dann drauf verzichten nur weil andere sagen bei ihren Produktionen brächte es nichts. Das Produkt spricht für sich, hörts euch an... So schon auf mehreren Forentreffen eindrucksvoll demonstriert. Was widerum keinesfalls heißen kann, daß Ralfs Aufnahmen wegen 24/192 Svens oder Winfrieds Aufnahmen überlegen wären.

Martin
Bild
Bernd Peter
Aktiver Hörer
Beiträge: 4005
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo,

ich glaube nicht, daß hier einer gegen den technischen Fortschritt ist, warum auch.

HD ist gut und hat Potential.

Die Qualität der Aufnahmen ist jedoch nicht einheitlich, wie auch bei 16/44.1.

Deshalb ist der Aufdruck HD oder 24/192 sicher kein Gütesiegel.

Wenn die geführte Diskussion Ansporn für die Fachleute bei der täglichen Arbeit ist, umso besser für die Sache.

Am Ende zählt nur die Leistung und das Können des Toningenieurs.

Gruß

Bernd Peter
Bild
martino
Aktiver Hörer
Beiträge: 501
Registriert: 31.01.2010, 21:50
Wohnort: Berlin

Beitrag von martino »

Bernd Peter hat geschrieben:Wenn die geführte Diskussion Ansporn für die Fachleute bei der täglichen Arbeit ist, umso besser für die Sache.

Am Ende zählt nur die Leistung und das Können des Toningenieurs.
Ein Zitat zum Einrahmen :cheers:
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Ralf Koschnicke hat geschrieben:@Jürgen: Ja, Du hast eigentlich recht. Ich werde aber auch nichts mehr liefern, außer:

@Sven: Sorry, Du verstehst überhaupt gar nicht um was es geht. Das ist fundamentale Physik und die Übertragung akustischer bzw. elektrischer Schwingungen gehorcht nach heutigem Stand der Wissenschaft diesen Gesetzen. Die digitale Aufzeichnung findet nicht in einem Paralleluniversum statt. Bitte beschäftige Dich mit Küpfermüller!!! Die Impulsbreite eines M150 lässt sich mit 44,1kHz nicht abbilden, auch nicht bei 64Bit. Die Bandbreite von 22,05kHz ermöglicht keine Impulse von 7µs zeitlicher Ausdehnung. Bei Tiefpassfilterung im AD werden die breiter und streuen die Energie über einen weiteren zeitlichen Bereich. Eine alternative, anschauliche Herleitung ohne Küpfermüller: 22500 Schwingungen pro Sekunde ergibt etwa 45µs pro Schwingung. Eine Halbwelle ist 22,5µs lang. Das ist die absolute Untergrenze.

Grüße
Ralf

Hallo Ralf!

Fahre mal zu Herrn Dr.Jahne Leiter Stagetec Entwicklung nach Berlin und dann misst er dir das Live vor das 10 Nanosekunden bei 44,1kHz gehen.... :lol:
Schau auch mal ins Datenblatt eines modernen Wandlers-Stichwort Oversampling:

http://www.ti.com/lit/ds/symlink/pcm4222.pdf

http://www.stagetec.com/web/de/audiotec ... h-rmc.html
http://www.media-schmid.de/assets/plugi ... andler.pdf
http://pelmazosblog.blogspot.com/2009/1 ... och-nicht.

Grüße Sven
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Ralf Koschnicke hat geschrieben:@Jürgen: Ja, Du hast eigentlich recht. Ich werde aber auch nichts mehr liefern, außer:

@Sven: Sorry, Du verstehst überhaupt gar nicht um was es geht. Das ist fundamentale Physik und die Übertragung akustischer bzw. elektrischer Schwingungen gehorcht nach heutigem Stand der Wissenschaft diesen Gesetzen. Die digitale Aufzeichnung findet nicht in einem Paralleluniversum statt. Bitte beschäftige Dich mit Küpfermüller!!! Die Impulsbreite eines M150 lässt sich mit 44,1kHz nicht abbilden, auch nicht bei 64Bit. Die Bandbreite von 22,05kHz ermöglicht keine Impulse von 7µs zeitlicher Ausdehnung. Bei Tiefpassfilterung im AD werden die breiter und streuen die Energie über einen weiteren zeitlichen Bereich. Eine alternative, anschauliche Herleitung ohne Küpfermüller: 22500 Schwingungen pro Sekunde ergibt etwa 45µs pro Schwingung. Eine Halbwelle ist 22,5µs lang. Das ist die absolute Untergrenze.

Grüße
Ralf

Hallo Ralf!

Ich zitere jetzt mal aus einem Interview zwischen Fritz Frey und Dr.Helmut Jahne der Entwickler des Stagetec Truematch AD. Da wird nicht nur geschnackt sondern er beweist mit den klanglichen Eigenschaften dieses würde durchaus sagen "Ausnahmewandlers" auch praktisch was geht- weil wir hier auch so für die tägliche Praxis sind:

Fritz Fey: Die Basis der Überlegungen bezieht sich ja nicht nur auf die obere Grenzfrequenz,
sondern auf die Genauigkeit der Abtastung oder die Anzahl der Abtastproben von komplexen Wellenformen. Was sagt der Wissenschaftler und Entwickler dazu?
Helmut Jahne: Diese Annahme ist ein Irrglaube. Es gibt eine ganz klare Regel: Frequenzen, die kleiner als die halbe Abtastfrequenz sind, kann ich hundertprozentig ohne jegliche Abstriche rekonstruieren, mit beliebiger Präzision und Phasengenauigkeit. Auch wenn es einem optisch schwerfällt, das zu glauben – wenn ich ein Blatt Papier nehme und ein paar Kreuzchen darauf male und mich frage, wie wohl das Signal aussehen mag, dass diese Kreuzchen trifft, kommt das Rekonstruktionsfilter ins Spiel. Man darf nicht glauben, dass dieses Filter die Kreuzchen optisch miteinander verbindet und es trifft daher auch nicht zu, dass mehr Abtastpunkte ein ‚schöneres‘ oder genaueres Signal ergeben. Die Frage kann daher nur sein, ob
Frequenzen höher als die halbe Abtastrate vorliegen oder nicht. Wenn dem so ist,
muss ich logischerweise eine höhere Abtastfrequenz wählen. Alle die behaupten, sie könnten da etwas hören, hören nichts, was mit den übertragenen Frequenzen zu tun hat. Da bin ich vollkommen sicher. Die
andere Überlegung – und da steckt dann doch das Körnchen Wahrheit in der Diskussion – ist, dass Digitaltechnik auch quantisiert ist. Digitaltechnik quantisiert nicht die Zeit, auch wenn es viele Leute gibt, die das behaupten. Ich kann mit einer konstanten Abtastung mein Signal beliebig fein rekonstruieren. Wenn ich bei 44.1 kHz Abtastrate nur alle 22 Mikrosekunden einen Abtastwert nehme, kann ich trotzdem auf eine Nanosekunde genau zwei Signale zueinander versetzt abbilden und die kommen auch mit einer Nanosekunde Versatz wieder aus dem digitalen System heraus. Ich habe mein Audiomesssystem bei einem Wandlerabgleich einmal missbraucht, weil ich auf der Suche nach einem Phasenfehler zwischen zwei Kanälen war. Dieser Phasenfehler lang bei 0.07 Grad bei 20 kHz. Das haben wir dann zurückgerechnet und landeten bei 10 Nanosekunden. Diese 10 Nanosekunden haben wir mit dem Audiomesssystem bei 48 kHz Abtastrate gemessen. Mit anderen Worten, die zeitliche Auflösung ist völlig außen vor, wenn ich nur die Amplitude genau abbilden kann. Das Einzige, was nämlich quantisiert wird, ist die Amplitude. Wenn ich meine
hohen Frequenzen ganz fein aufgelöst bekomme, dann kann ich auch meine Kurve durchlegen und
erhalte auch ganz präzise die zeitliche Relation dieser Kurve. Wenn ich eine schlechte Auflösung habe,
also beispielsweise ein 16 Bit Signal, dann bringt der Wechsel auf eine höhere Abtastrate tatsächlich etwas, da bei 16 Bit eine grobe Quantisierung vorliegt. Liegt ein Wert dazwischen, kann ich meinen rekonstruierten Kurvenzug präziser durchlegen. Wenn mir jemand erzählt, dass 192 kHz wie analog klingt, dann glaube ich ihm, aber dann hatte er es mit einem Signal zu tun, das grob quantisiert war. Wenn es mir aber gelingt, eine extrem feine Quantisierung zu realisieren, was mit unserem Wandler intern mit 32 Bit Auflösung möglich ist,
dann bringt eine höhere Abtastrate keine Vorteile. Pro Verdopplung der Abtastfrequenz bekomme ich einen Abtastwert mehr, also genauso viel wie ein Bit mehr. Das heißt, wenn ich von 16 auf 17 Bit erhöhe, hat das
den gleichen Vorteil, als wenn ich von 44.1 auf 88.2 kHz gehe. Es ist also wesentlich effizienter, die Bitauflösung hochzutreiben. Wenn ich nur genügend Dynamik zur Verfügung habe, bekomme ich auch eine sehr präzise Ortung. Diese kann ich aber auch mit weniger Bits und ganz, ganz viel Abtastung erreichen.
Günter Pauler: Ich möchte gerne mal ein Thema ansprechen, was mich längere Zeit beschäftigte, nämlich die Tatsache, dass ich aus heiterem Himmel mit ‚seltsamen‘ Geräuschen auf meinem Wandlerset zu kämpfen hatte. Zunächst hatte ich nach Netzstörungen gesucht, bis ich dann dahinter kam, dass die
Phantomspeisung eine Ursache sein könnte. Nach meinem Wissensstand gibt es bestimmte Regeln, wie die Phantomspeisung auszulegen ist, doch scheint es genauso gewiss zu sein, dass sich die wenigsten Mikrofonhersteller daran halten. Ich kam zu der
Erkenntnis, dass die Stagetec-Variante eine sehr genaue Auslegung der Norm ist, die mancher Mikrofone aber eben nicht.
Helmut Jahne: Dazu würde ich gerne einiges
erzählen. Der vierkanalige Mikrofonvorverstärker, den wir 1997 bauten, hatte technische Parameter, die man mit einem klassischen Vorverstärker gar nicht erreichen kann. Genau diese Parameter wurden durch
das Einschalten der Phantomspeisung ‚zur Sau gemacht‘. Die Phantomspeisung erfordert zwei Widerstände, die so viele Nachteile in die Schaltung brachten, dass ich dar-
über wirklich genervt war. Vorher war dies den Anwendern gar nicht so bewusst, da die erhältlichen Mikrofonvorverstärker in der Mehrzahl auch nicht so toll waren. In einer solchen Situation fängt man natürlich an, darüber nachzudenken, was man tun kann. Die Norm schreibt nicht zwingend diese Widerstände vor, sondern die Norm sagt, dass ein bestimmtes Stromspannungsverhalten gewährleistet sein muss. Bei meinen Versuchen, eine gute technische Lösung mit anderen Mitteln zu finden, die die guten Eigenschaftenmeines Gerätes nicht kaputt machen, fand ich einen Weg, der bei den uns
zu Testzwecken zur Verfügung stehenden Mikrofonen auch funktionierte. Ich hatte mir
allerdings nicht träumen lassen, dass beinahe jeder Mikrofonhersteller irgendwelche geheimnisvollen
Kunstgriffe anwendet, die auch nicht dokumentiert sind. Nicht ohne Grund und Eigennutz bin ich in die Mikrofonnormungssitzung der AES gegangen, in der ich auch heute noch mitmische. Inzwischen bin ich
dort auch sehr bekannt als der einzige Mischpulthersteller, der sich für die Phantomspeisung interessiert. Ich habe dort auch vieles lernen müssen – zum Beispiel über Mikrofone, die wahlweise 12 Volt und 48 Volt Speisung haben. Diese Mikrofone schalten nämlich um, und zwar dergestalt, dass sie
bei 48 Volt eine kleine Stromaufnahme haben und bei 12 Volt eine höhere. Es gehört nicht viel elektrotechnisches Wissen dazu, festzustellen, dass wenn ich bei kleiner Spannung viel und bei
großer Spannung wenig Strom ziehe, ein negativer Innenwiderstand entsteht.
Wenn ich einen negativen Innenwiderstand an einen Regler anschließe, entsteht ein Schwingkreis. Man kann dagegen etwas tun, denn wenn die Regelfrequenz der Spannungsumschaltung
am Mikrofon eine andere als die meines Spannungsreglers ist, funktioniert
alles wunderbar. Für besagte Vierkanalkarte gibt es mittlerweile drei oder
vier Revisionen, die sich durch veränderte Regelzeitkonstanten unterscheiden, immer dann, wenn uns wieder eine Störung mit einem bislang nicht in Erscheinung getretenen Mikrofon zur Kenntnis gebracht wurde. Es liegt nicht daran, dass wir nicht in der Lage wären eine Phantomspeisung zu bauen, sondern daran, dass ich versucht habe, das, was die Norm zulässt, auch auszureizen. Diese Norm wurde von Mikrofonherstellern ‚erfunden‘, nach dem Prinzip, dass die Gegenseite genormt wird, aber was das Mikrofon macht, nirgends beschrieben ist. Inzwischen habe ich mit der XMIC+ Karte dem Spuk durch den Einsatz zweier immerhin selektierter Widerstände ein Ende gemacht. Um anderen Herstellern zukünftig solche Erfahrungen zu ersparen, werden höchstwarscheinlich die nächsten IEC- und AES-Normen diese Widerstände zwingend vorschreiben.

Grüße Sven
Bild
Truesound
inaktiv
Beiträge: 1095
Registriert: 22.10.2011, 17:18
Wohnort: Everglades National Park

Beitrag von Truesound »

Ralf Koschnicke hat geschrieben:@Jürgen: Ja, Du hast eigentlich recht. Ich werde aber auch nichts mehr liefern, außer:

@Sven: Sorry, Du verstehst überhaupt gar nicht um was es geht. Das ist fundamentale Physik und die Übertragung akustischer bzw. elektrischer Schwingungen gehorcht nach heutigem Stand der Wissenschaft diesen Gesetzen. Die digitale Aufzeichnung findet nicht in einem Paralleluniversum statt. Bitte beschäftige Dich mit Küpfermüller!!! Die Impulsbreite eines M150 lässt sich mit 44,1kHz nicht abbilden, auch nicht bei 64Bit. Die Bandbreite von 22,05kHz ermöglicht keine Impulse von 7µs zeitlicher Ausdehnung. Bei Tiefpassfilterung im AD werden die breiter und streuen die Energie über einen weiteren zeitlichen Bereich. Eine alternative, anschauliche Herleitung ohne Küpfermüller: 22500 Schwingungen pro Sekunde ergibt etwa 45µs pro Schwingung. Eine Halbwelle ist 22,5µs lang. Das ist die absolute Untergrenze.

Grüße
Ralf

Hallo Ralf!

Ich zitere jetzt mal aus einem Interview zwischen Fritz Frey und Dr.Helmut Jahne der Entwickler des Stagetec Truematch AD. Da wird nicht nur geschnackt sondern er beweist mit den klanglichen Eigenschaften dieses würde durchaus sagen "Ausnahmewandlers" auch praktisch was geht- weil wir hier auch so für die tägliche Praxis sind:

Fritz Fey: Die Basis der Überlegungen bezieht sich ja nicht nur auf die obere Grenzfrequenz,
sondern auf die Genauigkeit der Abtastung oder die Anzahl der Abtastproben von komplexen Wellenformen. Was sagt der Wissenschaftler und Entwickler dazu?
Helmut Jahne: Diese Annahme ist ein Irrglaube. Es gibt eine ganz klare Regel: Frequenzen, die kleiner als die halbe Abtastfrequenz sind, kann ich hundertprozentig ohne jegliche Abstriche rekonstruieren, mit beliebiger Präzision und Phasengenauigkeit. Auch wenn es einem optisch schwerfällt, das zu glauben – wenn ich ein Blatt Papier nehme und ein paar Kreuzchen darauf male und mich frage, wie wohl das Signal aussehen mag, dass diese Kreuzchen trifft, kommt das Rekonstruktionsfilter ins Spiel. Man darf nicht glauben, dass dieses Filter die Kreuzchen optisch miteinander verbindet und es trifft daher auch nicht zu, dass mehr Abtastpunkte ein ‚schöneres‘ oder genaueres Signal ergeben. Die Frage kann daher nur sein, ob
Frequenzen höher als die halbe Abtastrate vorliegen oder nicht. Wenn dem so ist, muss ich logischerweise eine höhere Abtastfrequenz wählen. Alle die behaupten, sie könnten da etwas hören, hören nichts, was mit den übertragenen Frequenzen zu tun hat. Da bin ich vollkommen sicher. Die andere Überlegung – und da steckt dann doch das Körnchen Wahrheit in der Diskussion – ist, dass Digitaltechnik auch quantisiert ist. Digitaltechnik quantisiert nicht die Zeit, auch wenn es viele Leute gibt, die das behaupten. Ich kann mit einer konstanten Abtastung mein Signal beliebig fein rekonstruieren. Wenn ich bei 44.1 kHz Abtastrate nur alle 22 Mikrosekunden einen Abtastwert nehme, kann ich trotzdem auf eine Nanosekunde genau zwei Signale zueinander versetzt abbilden und die kommen auch mit einer Nanosekunde Versatz wieder aus dem digitalen System heraus. Ich habe mein Audiomesssystem bei einem Wandlerabgleich einmal missbraucht, weil ich auf der Suche nach einem Phasenfehler zwischen zwei Kanälen war. Dieser Phasenfehler lang bei 0.07 Grad bei 20 kHz. Das haben wir dann zurückgerechnet und landeten bei 10 Nanosekunden. Diese 10 Nanosekunden haben wir mit dem Audiomesssystem bei 48 kHz Abtastrate gemessen. Mit anderen Worten, die zeitliche Auflösung ist völlig außen vor, wenn ich nur die Amplitude genau abbilden kann. Das Einzige, was nämlich quantisiert wird, ist die Amplitude. Wenn ich meine
hohen Frequenzen ganz fein aufgelöst bekomme, dann kann ich auch meine Kurve durchlegen und
erhalte auch ganz präzise die zeitliche Relation dieser Kurve. Wenn ich eine schlechte Auflösung habe,
also beispielsweise ein 16 Bit Signal, dann bringt der Wechsel auf eine höhere Abtastrate tatsächlich etwas, da bei 16 Bit eine grobe Quantisierung vorliegt. Liegt ein Wert dazwischen, kann ich meinen rekonstruierten Kurvenzug präziser durchlegen. Wenn mir jemand erzählt, dass 192 kHz wie analog klingt, dann glaube ich ihm, aber dann hatte er es mit einem Signal zu tun, das grob quantisiert war. Wenn es mir aber gelingt, eine extrem feine Quantisierung zu realisieren, was mit unserem Wandler intern mit 32 Bit Auflösung möglich ist,
dann bringt eine höhere Abtastrate keine Vorteile. Pro Verdopplung der Abtastfrequenz bekomme ich einen Abtastwert mehr, also genauso viel wie ein Bit mehr. Das heißt, wenn ich von 16 auf 17 Bit erhöhe, hat das den gleichen Vorteil, als wenn ich von 44.1 auf 88.2 kHz gehe. Es ist also wesentlich effizienter, die Bitauflösung hochzutreiben. Wenn ich nur genügend Dynamik zur Verfügung habe, bekomme ich auch eine sehr präzise Ortung. Diese kann ich aber auch mit weniger Bits und ganz, ganz viel Abtastung erreichen.
Günter Pauler: Ich möchte gerne mal ein Thema ansprechen, was mich längere Zeit beschäftigte, nämlich die Tatsache, dass ich aus heiterem Himmel mit ‚seltsamen‘ Geräuschen auf meinem Wandlerset zu kämpfen hatte. Zunächst hatte ich nach Netzstörungen gesucht, bis ich dann dahinter kam, dass die
Phantomspeisung eine Ursache sein könnte. Nach meinem Wissensstand gibt es bestimmte Regeln, wie die Phantomspeisung auszulegen ist, doch scheint es genauso gewiss zu sein, dass sich die wenigsten Mikrofonhersteller daran halten. Ich kam zu der Erkenntnis, dass die Stagetec-Variante eine sehr genaue Auslegung der Norm ist, die mancher Mikrofone aber eben nicht.
Helmut Jahne: Dazu würde ich gerne einiges erzählen. Der vierkanalige Mikrofonvorverstärker, den wir 1997 bauten, hatte technische Parameter, die man mit einem klassischen Vorverstärker gar nicht erreichen kann. Genau diese Parameter wurden durch das Einschalten der Phantomspeisung ‚zur Sau gemacht‘. Die Phantomspeisung erfordert zwei Widerstände, die so viele Nachteile in die Schaltung brachten, dass ich darüber wirklich genervt war. Vorher war dies den Anwendern gar nicht so bewusst, da die erhältlichen Mikrofonvorverstärker in der Mehrzahl auch nicht so toll waren. In einer solchen Situation fängt man natürlich an, darüber nachzudenken, was man tun kann. Die Norm schreibt nicht zwingend diese Widerstände vor, sondern die Norm sagt, dass ein bestimmtes Stromspannungsverhalten gewährleistet sein muss. Bei meinen Versuchen, eine gute technische Lösung mit anderen Mitteln zu finden, die die guten Eigenschaftenmeines Gerätes nicht kaputt machen, fand ich einen Weg, der bei den uns zu Testzwecken zur Verfügung stehenden Mikrofonen auch funktionierte. Ich hatte mir allerdings nicht träumen lassen, dass beinahe jeder Mikrofonhersteller irgendwelche geheimnisvollen Kunstgriffe anwendet, die auch nicht dokumentiert sind. Nicht ohne Grund und Eigennutz bin ich in die Mikrofonnormungssitzung der AES gegangen, in der ich auch heute noch mitmische. Inzwischen bin ich dort auch sehr bekannt als der einzige Mischpulthersteller, der sich für die Phantomspeisung interessiert. Ich habe dort auch vieles lernen müssen – zum Beispiel über Mikrofone, die wahlweise 12 Volt und 48 Volt Speisung haben. Diese Mikrofone schalten nämlich um, und zwar dergestalt, dass sie bei 48 Volt eine kleine Stromaufnahme haben und bei 12 Volt eine höhere. Es gehört nicht viel elektrotechnisches Wissen dazu, festzustellen, dass wenn ich bei kleiner Spannung viel und bei großer Spannung wenig Strom ziehe, ein negativer Innenwiderstand entsteht. Wenn ich einen negativen Innenwiderstand an einen Regler anschließe, entsteht ein Schwingkreis. Man kann dagegen etwas tun, denn wenn die Regelfrequenz der Spannungsumschaltung am Mikrofon eine andere als die meines Spannungsreglers ist, funktioniert alles wunderbar. Für besagte Vierkanalkarte gibt es mittlerweile drei oder vier Revisionen, die sich durch veränderte Regelzeitkonstanten unterscheiden, immer dann, wenn uns wieder eine Störung mit einem bislang nicht in Erscheinung getretenen Mikrofon zur Kenntnis gebracht wurde. Es liegt nicht daran, dass wir nicht in der Lage wären eine Phantomspeisung zu bauen, sondern daran, dass ich versucht habe, das, was die Norm zulässt, auch auszureizen. Diese Norm wurde von Mikrofonherstellern ‚erfunden‘, nach dem Prinzip, dass die Gegenseite genormt wird, aber was das Mikrofon macht, nirgends beschrieben ist. Inzwischen habe ich mit der XMIC+ Karte dem Spuk durch den Einsatz zweier immerhin selektierter Widerstände ein Ende gemacht. Um anderen Herstellern zukünftig solche Erfahrungen zu ersparen, werden höchstwarscheinlich die nächsten IEC- und AES-Normen diese Widerstände zwingend vorschreiben (....)

Jakob Händel: Zu meinen ‚exotischen‘ Produktionen gehörte ein Klaviersolo, dass ich
auf einer SSL 9000er Konsole mit ApogeeWandlern aufnahm. Meine TLM 50 klangen total anders als sonst. Mit meiner TrueMatchHörerfahrung konnte ich auf diese Situation sehr viel besser reagieren, da ich eine sehr konkrete, referenzartige Klangvorstellung habe und genau weiß, wie meine Mikrofone klingen. Damit weiß ich automatisch auch, welche klanglichen Eigenschaften der Vorverstärker/Wandler-Kombination zuzuschreiben sind. Ich brauche Klarheit bei der Aufnahme und möchte nicht Kraut und Rüben auf der Bühne stehen haben, schon allein wegen der Pegel und wegen des Klanges außerhalb der Achse, was für mich sehr
wichtig ist. Jedes Mikrofon klingt auf Achse sehr gut, aber was von der Seite hereinkommt und meine Mischung bestimmt, sieht oft weniger erfreulich aus. Ich mache jetzt im zwölften Jahr Aufnahmen mit
meinem TrueMatch-Wandler und zwar 90 Prozent aller Produktionen. Dadurch weiß ich auch, wie andere Gerätekombinationen funktionieren.
Helmut Jahne: Unser Wandler ist definitiv
auf Neutralität ausgelegt. Die Philosophie im Hause war: So neutral wie möglich. Jeden ‚Effekt‘ soll man bewusst einbringen. Wenn hier Leute am Tisch sitzen, die das auch so sehen, freue ich mich natürlich. Aber es ist sicherlich nicht jedermanns Arbeitsstil. Es gibt ganz bestimmt viele Tonmeister auf diesem Planeten, die einen bestimmten Sound haben wollen und diesen nur mit persönlich ausgesuchtem Equipment erreichen können. So jemanden kann ich nicht glücklich machen. Aber deshalb gibt es ja auch verschiedene Hersteller
und verschiedene Arbeitsweisen, was am Ende die Vielfalt ausmacht.

Grüße Sven
Bild
delorentzi
Aktiver Hörer
Beiträge: 825
Registriert: 15.11.2011, 10:01
Wohnort: Andernach

Beitrag von delorentzi »

Sven / Jakob Händel Zitat hat geschrieben: Jakob Händel: Zu meinen ‚exotischen‘ Produktionen gehörte ein Klaviersolo, dass ich
auf einer SSL 9000er Konsole mit ApogeeWandlern aufnahm. Meine TLM 50 klangen total anders als sonst. Mit meiner TrueMatchHörerfahrung konnte ich auf diese Situation sehr viel besser reagieren, da ich eine sehr konkrete, referenzartige Klangvorstellung habe und genau weiß, wie meine Mikrofone klingen ...
also sounden auf Apogee ... okay, wir hatten uns ja auf Markenklang ("TM") geeinigt ... :wink:

Grüße,
Thomas
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Entschuldigung an alle anderen, ich wollte mich hier eigentlich nicht mehr Off-Topic zu Wort melden, aber nach diesem Roman ...

Zunächst etwas dazu:
Bernd Peter hat geschrieben:Am Ende zählt nur die Leistung und das Können des Toningenieurs.
Das ist das Totschlagsargument schlechthin, aber genauso richtig wie unsinnig. Ab einem gewissen Punkt muss man doch mal unterstellen, dass wir unseren Job beherrschen und dann ist das Material entscheidend. Eine Weltklasse-Geigerin spielt auf einer 200-EURO-China-Schrabbel auch besser als ein Anfänger im ersten Jahr. Trotzdem braucht sie für ein Weltklasse-Ergebnis eine Stradivari o.ä.

@Seven: Es nutzt dem Blinden wenig, wenn er sich auf andere Blinde beruft, will er über Farbe reden. :wink:

Wo warst Du die letzten Jahre, im Ausland? Das sind doch alles alte Kamellen. Nach dieser seltsamen Runde im Studiomagazin (ich habe das Heft damals angestarrt und dreimal auf dem Titel nachgeschaut, ob mir eine Ausgabe von vor 15 Jahren in die Hände gefallen ist) gab es einen Artikel von mir über zwei Ausgaben in der Professional Audio, dann einen bösen Leserbrief von Herrn Dr. Jahne und dann noch einen eigentlich nicht geplanten dritten Teil, wo ich das alles nochmal ganz genau erklärt habe, wie sehr er irrt. Ich habe echt allmählich keine Lust, das alles immer wieder Leuten zu erklären, die einfach nicht verstehen wollen. Am Können kann es nicht liegen, ist alles ganz einfach.
Wie es der Zufall will, habe ich einen promovierten Physiker, Halbleiterentwicklung in der Familie. Wenn ich mit dem mal drüber spreche, was die Übertragungstechniker sich da so zusammen reimen, kommt sofort nur Kopfschütteln. Dem ist sofort klar, welch Schwachsinn hier gedacht wird. Die Signaltheoretiker haben einfach keine Ahnung von Physik. Beschäftige Dich bitte endlich mit Küpfermüller!!! Es muss ja nicht gleich Heisenberg sein.

Grüße
Ralf
Bernd Peter
Aktiver Hörer
Beiträge: 4005
Registriert: 04.05.2010, 19:37

Beitrag von Bernd Peter »

Hallo Ralf,
Ab einem gewissen Punkt muss man doch mal unterstellen, dass wir unseren Job beherrschen und dann ist das Material entscheidend.
Wenn ich die beiden Seiten des Hobbys ansehe, kann ich mir gut vorstellen, daß es Leute mit neuester und teuerster Elektronik gibt, während andere auf Bewährtes zurückgreifen oder es aus Budgetgründen tun müssen.

Ferner kann ich mir gut vorstellen - eben wie in jedem anderen Beruf auch - daß man dazulernt und Erfahrung und Wissen nie stehenbleiben.

Kann mich auch noch gut an einen Artikel erinnern, daß es in L.A. zwei Tonstudioprofis gibt, bei denen viele Labels die Aufnahmen der großen Stars zum letzten Feinschlif abgeben.

Gruß

Bernd Peter
Bild
Ralf Koschnicke
Aktiver Hersteller
Beiträge: 374
Registriert: 22.07.2008, 11:24
Wohnort: Wöllstein
Kontaktdaten:

Beitrag von Ralf Koschnicke »

Hallo zusammen,
da ich nun beim Abschweifen geholfen habe, möchte ich gerne auch versuchen, wieder zum Thema zurück zu finden: Nachdem ich mir neulich mit ein paar Modulen von Funk Tonstudiotechnik einen kleinen feinen Symmetrierverstärker aufgebaut habe, bei dem ich die Pegel auch per Spindeltrimmer feinjustieren kann, kann ich meinen Sneaky nun auch im Studio endlich mal vernünftig bewerten. Auf der Wohnzimmeranlage habe ich ohnehin die ganze Zeit meine Freude mit dem Streamer, aber nun auch hier im Vergleich zu allem anderen Equipment, steigt meine Hochachtung immer mehr. Gerade gestern hatte ich etwas sehr anspruchsvolle Musik zu vergleichen, die ich bisher gar nicht so kritisch eingeschätzt hatte. Per Softwareplayer (J.River) klang das aber so etwas von flacher als über den LINN. Der spielte gleich so unglaublich musikalisch, lebendig und farbenreich auf… Das hat mich nun auch ohne Gerts Modifikation – vielleicht wegen des per kurzem Kabel angeschlossenen Aufholverstärkers – doch sehr beeindruckt…

Ansonsten habe ich kürzlich den neuen kleinen DAC von ASUS gekauft, auch gleich mal mit den OPs gespielt. Das Teil ist für sein Geld wirklich nicht verkehrt. Nun wer meine früheren Ausführungen kennt, weiß um meine Zurückhaltung beim Thema Upsampling. Beim LINN kann man leider nicht umschalten (was vermutlich ja auch nur zu Testzwecken von Interesse wäre), beim ASUS ist das aber abschaltbar. Hier ist es nun mal ein Upsampling, dass sofort solch einen Gewinn liefert, dass ich gar nicht diskutieren muss: eindeutig besser und will ich ohne dann gar nicht mehr haben.

In der Konstruktion gibt es Parallelen zwischen ASUS und LINN und das zeigt uns dann finde ich sehr gut auf, worum es wirklich geht. Ein Upsampling nur um des Upsamplings Willen ist zweifelhaft; ich meine einen asynchronen Upsampler, der das gesamte Material nochmal neu berechnet und den Jitter dann im Upsampler statt im DAC-Chip sich auswirken lässt. Man hat so bei CD-Material zwar vielleicht einen Vorteil, weil der DAC bei 192kHz besser arbeitet. Aber der asynchrone SRC ist das kritische Bauteil.
ASUS geht nun hin, genauso wie LINN – und das ist für solch einen Computerhersteller doch wirklich beachtlich – und verwendet eine ausgewachsene DSP, um einen eigenen, aufwendigen Upsampler zu rechnen und betreibt den DAC dann auch – wie LINN – bei 352,4 bzw. 384kHz. Das scheint mir – wie bereits früher vermutet – der ideale Weg für den Einsatz von Upsampling zu sein. Es muss denke ich als Teil des DAC-Konzeptes eingebunden sein und die DAC-eigenen Filter ersetzen und darf nicht einfach nur, ob im Rechner (Cplay) oder noch schlechter per ASRC-Chip in einem DAC, vorgeschaltet werden. Die Erfahrung mit dem ASUS werte ich als eindeutiges Indiz hierfür. Umso lohnender dann auch das Tuning am Analogausgang des LINN (siehe G-Sneaky), denn über den S/P-Dif Ausgang kann man dann den eigentlichen Clou des LINN nicht wirklich retten.


An der Stelle erlaubt mir dann bitte noch ein paar kleine Anmerkungen zu Beiträgen, inzwischen ein gutes Stück weiter oben: Wir wollen doch bestimmt alle nicht mehr zurück ins Mittelalter und Wissen als Gefahr sehen. Nicht das Wissen ist gefährlich, sondern Nicht-Wissen. Ich kann zwar Winfrieds Euphorie für CDs aus den 80er Jahren nicht wirklich teilen, weil man denen dann doch arg die Wandlertechnik dieser Zeit anmerkt. Aber ich weiß was er meint und ich will ihm hier dann doch sehr zustimmen. Die oft mehr überzeugenden CDs aus dieser Zeit (besonders ADD und AAD) sind schlicht damit zu begründen, dass in der Frühzeit der CD fast alles noch wie in den 30 Jahren davor gemacht wurde. Die Standards in den professionellen Studios waren sehr hoch, Semi-Profis gab es quasi nicht. Wer am Markt war, im Prinzip nur die großen Plattenfirmen, hatte hochwertige Technik am Start. Mit Aufkommen der CD wurde nur das Medium ganz am Ende umgestellt. Es hing dann irgendein aufwendiger PCM-Recorder statt einer analogen Mastermaschine an der Mischpultsumme. Bis dahin war aber zunächst alles noch analog. Später erst griff immer mehr der Irrglaube um sich: Wenn für CD, dann am besten alles durchgängig digital. Diese Rechtfertigung mit der 20kHz-Schwelle ist ja ganz am Ende der Produktionskette vielleicht noch nachvollziehbar. Bereits bei einer Mehrspuraufnahme und/oder im Mischpult und sonstigen Studiogerätschaften ist das jedoch noch nie ein Argument gewesen. Die Verarbeitungspräzision eines jeden Gerätes wird durch die künstliche Beschneidung der Bandbreite herab gesetzt. Warum soll ich freiwillig auf Präzision verzichten, wenn ich die sonst stets anstrebe. Dieser Irrtum hat eindeutig mit Nicht-Wissen zu tun und nicht mit einer Flut an Wissen. Zu viele sog. Spezialisten glaubten mit ein bisschen Signaltheorie und Bits und Bytes das Rad neu erfinden zu müssen. Dabei hätte man vielleicht einfach mal mehr mit den Fachleuten der "alten" Analogzeit sprechen müssen.

Meine Schlüsse sind zwar andere, aber im Prinzip muss ich Winfried Dunkel bei vielem zustimmen. Wenn heute in jedem deutschen Rundfunkstudio mit 48kHz gemischt wird, ist das physikalischer Unfug. Da war ein passiver Mixer inkl. Röhrenaufholverstärker im Jahre 1958 Lichtjahre näher an den musikalischen Anforderungen als die modernen Rechenkisten von heute, und Winfrieds geliebte ARD-Technik der 70er Jahre erst recht. Beim Wechsel von der Analogzeit in die Digitalzeit ist viel Wissen einfach verloren gegangen. Das ist denke ich eher das Hauptproblem. Jeder gute Lautsprecherentwickler weiß genau um den Zusammenhang, den ich oben verzweifelt zu erklären versuche. Die Entwickler bei Neumann wissen das auch. Ein Ivor Tiefenbrunn weiß das und – auch wenn er wohl nicht mehr wirklich im aktuellen Geschäft die Fäden zieht – die ganze Mannschaft bei LINN sicher auch. Präzision kann in der Audiotechnik und Musikreproduktion nicht hoch genug gehängt werden. Die ist bei einem DAC mit 384kHz nochmal höher und das nutzt LINN und eben sogar ASUS mit Erfolg aus. Ich für meinen Teil werde mit dem Wissen in Zukunft ganz anders an technische Spezifikationen von neuen Geräten rangehen und genau schauen, ob ich in der Konzeption der Geräte Anhaltspunkte für entsprechende Konstruktionen finde.
Es ist denke ich kein Zufall, dass LINN bereits bei Plattenspielern eine echte Größe war und nun mit Streamern. Die Köpfe dort wissen, wie wichtig der Faktor Zeit und die Präzision in der Zeitebene in der Musik ist und denken in die richtige Richtung. Das ist dann auch Wissen, das Bestand haben wird … wage ich zu prognostizieren.

Schönen Abend
Ralf
Antworten