High End HiFi Equipment - gut genug für Klavierwiedergabe ?

Was ist denn "naturgetreu"?
Was ist Deine Referenz?

Wenn Du ein DP "naturgetreu" wiedergeben willst, mußt Du eine Referenz angeben. Ist das der Sound via gutem Kopfhörer? Das wird mit einer normalen Hifi-Anlage niemals funktionieren.

Oder ist Deine Referenz ein S&S der 100k-Euro-Klasse? Auch dann frage ich, woher die Aufnahme kommt, die wiedergegeben werden soll? Du mußt ja erstmal eine Aufnahme haben.

Konzertmitschnitt vom Tonmeister im Konzertsaal? Das wird funktionieren. Dafür sind Hifi-Anlagen gebaut. Das kann auch naturgetreu sein.

Einzelabnahme der Saiten für Samples, um in Piano-Software einen S&S zu simulieren? Also typische DP-Technik? Das wird wiederum niemals naturgetreu sein.

Tja :-)
Tja, die Referenz wurde oben beschrieben, ein Vorhang, wo entweder ein Flugel oder High End Lautsprecher dahinter sind, und du kannst nicht unterscheiden, was gerade spielt !
 
Ich sage dazu: Eben das reicht nicht !!!!!!

Doch, es reicht, auch ohne viele Ausrufezeichen.

Hier die Begründung:
Sorry Kalessin, ….. ab 20 kHz hört man sowieso nicht …. somit wegdamit ist eben falsch! Genau das ist, was z.T. die CD’s im klassischen Bereich ungeniessbar macht. Da wird brutal alles im oberen Spektrum durch Filter ab 22.05 kHz beschnitten. Ich würde dir empfehlen, sich ein bisschen mit Fourier-Analyse zu beschäftigen. Ein Gemisch von verschiedenen Frequenzen (inklusive derjenigen in unhörbaren Bereich) ergeben je nach Verhältnis zueinander diverse Schwebungen im tieferen Bereich (=hörbaren). Man hört die hohe Frequenzen nicht direkt, jedoch im Spektrum des hörbaren als Klang Dies kann man Mathematisch sowie experimentell nachweisen.
Gruss Antoine

Ich würde Dir wirklich gerne Recht geben, aber ich bin nun einmal unglücklicherweise Mathematiker und Physiker und muss Dir leider mitteilen, dass Du Dich irrst. Man kann sehr wohl genau das Gegenteil nachweisen, dass es nämlich keinen Unterschied darstellt, ob eine Frequenz gar nicht erst eingespeist wird oder ob sie nicht gehört wird. Das ist eindeutig nachweisbar mit sog. "Fourier-Analysen" und ja, das ist leider so.
 
Vermutlich theoretischer Physiker, bei der Kopplung mit der Mathematik? :-)

Ja, "aus Versehen" Physiker. Und last not least habe ich auch noch 4 Semester Informatik hinterhergeschoben, die ultimativ beste Idee meines Lebens, denn das ist nachher nicht nur mein Beruf, sondern auch Berufung geworden.

Eigentlich wollte ich Psychologie neben Mathematik studieren (das faszinierte mich von der Materie her sehr), aber ich kam mir so schrecklich fehlplaziert im Hörsaal vor, ich hatte weder die richtigen Klamotten an, noch die richtige Haarlänge und sowieso nicht den damals populären "eh Mensch, Du" Slang drauf - also habe ich dann doch (obwohl ich es eigentlich nicht vor hatte), nach 3 Monaten auf Physik umgeändert.

Das ist allerdings alles viele Jahre her.
 
Ja nu, gegen Mathematiker und Physiker ist schwer anzutreten.

Trotzdem aus eigener Erfahrung (16/44.1) kann ich Gegenteil berichten:

Wenn ich stundenlang an einem Mix mit 24 Bit selbst bei nur 48 kHz und das fertiges Master in 24/48 runterrechne auf 16/44.1 dann kann ich immer ein Unterschied hören. Bei 24/94 auf 16/44.1 ist der Unterschied noch deutlicher.

Für mich ist somit 24/94 das ideale Format. Für eine nicht perfekte Aufnahme bei 16 Bit bekommt man später bei Mischen schnell die Quittung.

EDIT
Hätte sich die Musikindustrie nicht quer gestellt, hätten wir schon längst Audio DVD 24/48 (2Kanal) oder 24/96 (Multikanal). Die nicht kopierbare SACD konnten sie sich dann wirklich sparen. Die Quittung habe sie bei der SACD bereits bekommen.
 
Zuletzt bearbeitet:
@Jack Black: Hehe. Ich wollte ja mal Lehrer werden. Nach der Zwischenprüfung in Mathematik, Physik, Informatik wurde dann aber experimentelle Festkörperphysik mit Nebenschwerpunkt Computational Physics draus, und jetzt seit bald 8 Jahren hauptberuflicher Software-Entwickler. Aus der Signal- und Datenverarbeitungs-Schiene bin ich danach aber komplett rausgerutscht, außer dass ich immer wieder mal bei Audio- und Video-Codecs in die Dokus linse, wie sie arbeiten.

Wenn ich stundenlang an einem Mix mit 24 Bit selbst bei nur 48 kHz und das fertiges Master in 24/48 runterrechne auf 16/44.1 dann kann ich immer ein Unterschied hören. Bei 24/94 auf 16/44.1 sind die unterschiede noch deutlicher.

Wir sollten erstmal unterscheiden zwischen Aufnahme-Format und Abspiel-Format. Wenn die Abmischung korrekt ist, gibt es bezüglich der Bit-Tiefe beim Abspielen keine Vorteile für 24 Bit. Diese Aussage bezieht sich aber ausdrücklich nicht auf die vorherige Bearbeitung, nur auf das Endresultat. Es hat letztens im Netz in einem Hobby-Audio-Forum jemand einen Blindtest mit 96/24 und 192/24 gemacht und die Daten auf 16 Bit gedithert. Ergebnis: es konnte keiner hören, die Resultate waren reines statistisches Rauschen (i.e., die Trefferquote lag sogar etwas unter 50%).

Bezüglich der 48->44-Problematik: wie ich weiter oben schon schrieb, Intermodulations-Artefakte sind sehr real. Weshalb zum Beispiel Leute manchmal wirklich einen Unterschied hören bei Spezial-Schallplatten mit bis zu 50 kHz (so etwas gab es meines Wissens tatsächlich)... aber was sie da hören sind Störgeräusche, die der überforderte Abnehmer, Verstärker oder Lautsprecher von sich gibt, wenn die Aufnahme Ultraschall-Anteile enthält. Das hat mit dem echten Gehalt der Aufnahme aber nichts zu tun, und die Abspielqualität ist dadurch rein faktisch schlechter als wenn diese Anteile gar nicht vorhanden wären.

Eine andere Möglichkeit ist, dass die von dir verwendete Software keine korrekte Umrechnung vornimmt. Wenn ich 48->44 umrechne, muss ich zunächst einmal das Signal auf 22.05 kHz limitieren (Nyquist-Limit). Dann muss ich "eigentlich" sauber rekonstruieren (Sampling-Theorem) und neu abtasten. Oftmals nehmen die Programme eine Abkürzung und machen eine einfache Interpolation, welche ganz eigene Störgeräusche erzeugt.

Anderes Beispiel: mein Zoom R24. Der Vorverstärker zeigt, wenn man ihn aufdreht, deutliche Anharmonizitäten. Will sagen, wenn ich ein lautes Prüfsignal mit beispielsweise 10 Kilohertz oder mehr hineinschicke, kommt im ADC des Rekorders ein verzerrtes Signal an, das aufgrund dieser deutlichen Verzerrung die Nyquist-Bedingung nicht erfüllt (selbst wenn ich mit 96kHz abtaste), und deshalb höre ich spannendes Störjaulen in der Aufnahme. Ich muss dafür den Verstärker zwar praktisch an seine Grenzen treiben, aber das macht den Effekt nicht weniger real; trotzdem ist es "nur" eine Störung.

Für mich ist somit 24/94 das ideale Format. Für eine nicht perfekte Aufnahme bei 16 Bit bekommt man später bei Mischen schnell die Quittung.

Zum Aufzeichen würde ich das oder sogar 192/24 empfehlen, sofern die Ausrüstung es kann. Aus einem einfachen Grund: um Aliasing zu vermeiden, muss eine Tiefpass-Filterung passieren, um die Nyquist-Grenze zu unterschreiten. Diese Filterung muss vor der Aufnahme passieren und später bei jedem Herunterrechnen der Abtast-Frequenz. Mathematisch beim Herunterrechnen ist das kein großes Ding, auch wenn genug Software es falsch macht (s.o.). Aber vor der Aufnahme muss tatsächlich ein analoger Filter her, und je weniger "steil" der sein muss, desto besser. Daher: 96kHz oder höher abtasten, mit einem sanften Tiefpass, und später die "endgültige" Bandbreiten-Begrenzung mit einem mathematisch-idealen Tiefpass durchführen.
 
Zuletzt von einem Moderator bearbeitet:
@Jack Black:

Eine andere Möglichkeit ist, dass die von dir verwendete Software keine korrekte Umrechnung vornimmt. Wenn ich 48->44 umrechne, muss ich zunächst einmal das Signal auf 22.05 kHz limitieren (Nyquist-Limit). Dann muss ich "eigentlich" sauber rekonstruieren (Sampling-Theorem) und neu abtasten. Oftmals nehmen die Programme eine Abkürzung und machen eine einfache Interpolation, welche ganz eigene Störgeräusche erzeugt.

Hmm, dann muss ich hinter Bücher, was da bei der Konvertierung zu16/44.1 los ist.

EDIT
Hätte sich die Musikindustrie nicht quer gestellt, hätten wir schon längst Audio DVD 24/48 (2Kanal) oder 24/96 (Multikanal). Die nicht kopierbare SACD konnten sie sich dann wirklich sparen. Die Quittung habe sie bei der SACD bereits bekommen.
 
Hmm, dann muss ich hinter Bücher, was da bei der Konvertierung zu16/44.1 los ist.
Ist nur ein Verdacht. Aliasing-Artefakte aufgrund einer unabsichtlichen Verletzung der Nyquist-Grenze sind leider nicht selten, und leider oftmals sehr deutlich hörbar. Ich glaube, aktuelle Versionen von Audacity machen es richtig; zumindest sah ein kurzer Test in Version 2.0.5 gerade ganz gut aus, von den unvermeidlichen Randeffekten abgesehen (die ersten und letzten 200 Sample-Werte oder so sind problematisch). Wäre also vielleicht mal spannend, die 48er Datei dort zu laden und im "Highest Quality"-Modus herunter zu rechnen, ob du dann immer noch deutliche akustische Unterschiede wahrnimmst. Ggf. auch Frequenz-Spektrum vorher und nachher vergleichen. Alternativ Adobe Audition sollte es z.B. auch "richtig" machen, kann ich mir zumindest nicht anders vorstellen.

Hätte sich die Musikindustrie nicht quer gestellt, hätten wir schon längst Audio DVD 24/48 (2Kanal) oder 24/96 (Multikanal). Die nicht kopierbare SACD konnten sie sich dann wirklich sparen. Die Quittung habe sie bei der SACD bereits bekommen.
Die Musikindustrie hat erst sehr spät gelernt, dass sie mit weniger Gängelung mehr verkauft. Wenn jetzt die Buchindustrie das auch lernen würde, und ich dann noch bei meinem Buchhändler vor Ort meine E-Books kaufen könnte, bräuchte ich in 90% der Fälle kein Papier mehr. Aber nö, Kopierschutz bis zum Gehtnichtmehr, zum K*tzen.

Und wenn jetzt die Musikindustrie noch lernen würde, dass "lauter" nicht "besser" ist... das ist echt schlimm, wenn schon Klassik- und Jazz-Aufnahmen kaputtkomprimiert werden. Dass man Rock und Pop schon seit 20 Jahren nicht mehr anhören kann, ist man ja gewohnt. Vielleicht gehört unsereins ja auch zu einer aussterbenden Gattung, und ich muss mir nur angewöhnen, Kompressoren toll zu finden... seufz.
 
Zuletzt von einem Moderator bearbeitet:
Danke für den Input!

Aber nö, Kopierschutz bis zum Gehtnichtmehr, zum K*tzen.

Ja mit dem Kopierschutz sind sie mehrmals auf die Nase gefallen. Ich denke an DAT, Minidisk (beide Formate gestorben) und sogar von mir selbstgemachte Aufnahmen konnte ich nur seeehr mühsam auf heute üblichen Format konvertieren.

Nur hier was "Fourier-Analyse und Synthesizer". http://www.educ.ethz.ch/unt/um/phy/sw/musik/p21.pdf
Darum habe ich dies in als mathematische Klangbeschreibung gebracht. Ähnliche Versuche haben wir im Physikunterricht am Gymnasium mit Tongenerator und Oscilloscope gemacht, dann gerechnet nächste Versuch und wieder gerechnet und und. Ist schon lang her (ca. 40J) und ist leider einiges nicht mehr präsent.


so jetzt wünsche ich gute Nacht
 
Zuletzt bearbeitet:
Es gibt von "Monty" (einem der Erfinder von Ogg Vorbis) eine Kurz-Einführung in digitale Audio-Verarbeitung, keine Ahnung ob das hier passt. Ist zwar englisch, aber sehr informativ und unterhaltsam: hier.

Er fuchtelt da ganz viel mit Oszilloskopen und analoger Ausrüstung herum, das kann ich mir immer wieder ansehen. :-D Er hatte in der Vergangenheit mal einen Artikel geschrieben zu 192/24, dabei in einem Nebensatz erzählt, dass digitale Signale nicht "treppenförmig" seien, und ist dann lustigerweise genau dazu mit Mails bombardiert worden. Also hat er sich gesagt, "wenn's Bedarf gibt"... ;-)
 

Irrer Faden. Totaler Bahnhof. Aber macht weiter - ich finds faszinierend, was ich alles NICHT weiß.
Hihi, geht mir auch so. :-)
Kauker (an DAW-sitzender Musikproduzent, Komponist) hat es mal sehr gut erklärt (mit einem ganz einfachen und verständlichen Rechenbeispiel), warum man 48kHz/24bit oder höher überhaupt benutzt, und zwar so, dass auch wir Volldeppen das kapieren. Leider habe ich einiges vergessen und finde das Video nicht mehr. Hängen geblieben ist in etwa, dass man keinen Unterschied hört (auch keine Tontechniker), aber dass man zum Aufnehmen und Mixen 24b/48k oder höher nehmen soll, damit Effekte, Filter usw, die auch in Ketten arbeiten, überhaupt arbeiten können und am Ende dann auch echte 16/44000 herauskommen.
 
Hihi, geht mir auch so. :-)
Kauker (an DAW-sitzender Musikproduzent, Komponist) hat es mal sehr gut erklärt (mit einem ganz einfachen und verständlichen Rechenbeispiel), warum man 48kHz/24bit oder höher überhaupt benutzt, und zwar so, dass auch wir Volldeppen das kapieren. Leider habe ich einiges vergessen und finde das Video nicht mehr. Hängen geblieben ist in etwa, dass man keinen Unterschied hört (auch keine Tontechniker), aber dass man zum Aufnehmen und Mixen 24b/48k oder höher nehmen soll, damit Effekte, Filter usw, die auch in Ketten arbeiten, überhaupt arbeiten können und am Ende dann auch echte 16/44000 herauskommen.
Der Fotograf nimmt auch nicht die 36-Megapixel-Riesenaufnahme, weil später das Endresultat auf dem Papier diese Auflösung unbedingt braucht: sondern weil er so beispielsweise dran herumschnippeln kann, ohne zuviel zu verlieren. Das geht in eine ähnliche Richtung, finde ich. :-)
 
Genau, dieses Beispiel aus der Fotografie wollte ich auch bringen. Fotografen bearbeiten Bilder in der Regel in RAW Format (dies ist das Original Format, die eine Digital Kamera intern benutzt) erst am Schluss wandeln das ganze z.B. in den Verlustbehafteten JPG Format. Die meisten Profikameras erlauben als Output beide Formate (RAW und heruntergerechnetes gerechnetes JPG). Jede JPG Bearbeitung bringt in sich immer Verluste und das pro Bearbeitung-Zyklus. Das gleiche gilt, wenn man z.B. ein MP3 Format für weitere Bearbeitung nehmen würde.... aber so was macht kaum jemand. Oder wie ich geschrieben habe 16/44.1 zum Mixen ....

Gruss Antoine
 

Zurück
Top Bottom