Studien zum Klavierklang

@Fou Lou: Ich vermute, bei diesem Pleng in tieferen Lagen handelt es sich nicht um schnelle und hohe Amplitudenmaxima des Grundtons. Es sind eher die der niederen Obertöne vor allem daran beteiligt, die einfach schneller da sind. Probeweise habe ich mal den Kliber-Anteil bei den zweiten Teiltönen verdreifacht, bei den dritten verdoppelt. Am Anfang ist es zwar immer noch nicht das typische Piano-Pleng (wenn ich es je erreiche, ist es wohl ein Zufallsfund), aber es hat was von einem Tierlaut, etwa dem Spatz und eine Prise vom Plätschern eines Baches. Vergleiche die ursprüngliche, am Freitag gepostete

mit der folgenden:

Ich bin überzeugt, dass ihr jetzt einen deutlichen Unterschied hört.
 

Anhänge

  • anfaengerstueck_1.mp3
    668,6 KB · Aufrufe: 632
Hier mal wieder ein kleiner Meilenstein, gut, dem einen oder anderen ist es vielleicht auch nur ein Zentimeterkiesel. Der Attack in den höheren Lagen ist noch mal komprimierter, die Decay-Phase steiler, also der vom Maximum abfallende Teil zwischen der Einschwing- und der sogenannten quasistationären Phase. Bei einigen Tönen höre ich sogar, mit etwas gutem Willen, den Hammer heraus, aber hör selbst wer mag:



Außerdem marschiere ich noch mal die Klaviatur hinauf, die zweite Datei im Anhang dokumentiert das.
 

Anhänge

  • anfaengerstueck_1.mp3
    668,3 KB · Aufrufe: 608
  • slow_piano-all-keys-cmaj.mp3
    564,4 KB · Aufrufe: 641
Seit dem 2. April habe ich selbstverständlich weiter am Klang gearbeitet. Ich habe ihn vom "10-Euro-Spielzeugklavier" veredelt zum Ohrenschmaus eines Steinway&Sons-Konzerters, eines Exemplars preislich in der Lage eines Oberklasse-SUV ... Übrigens kommt gerade in den Nachrichten, dass Donald Trump Nachhilfe in politischer Bildung an meinem damaligen Gymnasium nimmt, um, wie er sagt, sich langsam auf seinen Arbeitsplatz einzunorden. Und du, harderst du noch mit der Wirklichkeit oder träumst du schon?

Aber mal im Ernst. Selbstverständlich kann ich von mir nicht erwarten, dass ich einfach mal so mir nichts dir nichts vier Jahrhunderte Instrumentenbaukunst in einigen dutzend Mannstunden virtuell-digital aufarbeite und in fünftausend Byte menschen- und maschinenlesbaren Text gießen kann, aus dem ein (im Vielfachen des Zeitaufwands) selbstgeschriebenes Programm auf meinem Zweikernrechner in gut anderthalb Minuten Klang und Musik zaubert. Musik natürlich nur in Verbindung mit Noten – ebenfalls Text einer eigens entwickelten Syntax, also kein MIDI – in dem Fall mit einer besagten eigenen Komposition, die ich euch aber noch geheimniskrämerisch vorenthalte, denn sie ist erstens noch nicht fertig und wird zweitens erst noch händisch von mir geübt. Dauert noch Jahre Klavierunterricht.

Es ist sicherlich diskutabel, ob meine ingenieurhafte Herangehensweise an die Musik – die eigentlich mit dem eigenen Körper, ob mit einem Instrument erweitert oder nicht, jedenfalls live gespielt gehört vor Publikum, aus der Tiefe des Herzens – langfristig irgendwas bringt. Allein, mir macht es Spaß auf diese Art von meinen bisherigen Fertigkeiten Gebrauch zu machen, dabei mich in ein völlig neues Gebiet einzuarbeiten. Und wenn jemand meine Bemühungen interessiert verfolgt, hat sich der Thread für mich gelohnt.

Wenn der Ton irgendwann mal gut dem eines Klaviers entspricht, gibts auch wieder was fürs Auge, Klangkurven, etc.

Hier mal wieder ein Zwischenstand. Der Unterschied zu den Klängen vom vorigen Post sollten leicht zu hören sein. Während die Klänge noch sehr kurzatmig und schnaufend wirkten, sind sie jetzt leichtfüßig und schweben teilweise sogar. Auch das Peng am Anfang sollte jetzt sich deutlich von der folgenden sogenannten quasi-stationären Phase abheben. Wer mag, hör mal rein und vergleiche, aber bitte mit guter Hifi-Hardware. (Wer nur Laptopfunzeln, Ohrstöpsel o.ä. hat, kann sich gerne auch mit einer Meinung beteiligen, aber bitte seid so fair und sagt das dazu.)

Übrigens ist es so, dass der Kawai-Konzerter meines Lehrers, auf dem ich übe und von dessen Klang ich mich selbstverständlich besonders inspirieren lasse, anders klingt, fülliger, aber auch ungewohnter im Vergleich zu meinen Klaviererlebnissen aus dem Publikum. Ich kann mich noch erinnern, als ich das erste mal davor saß und Heines Lied der Lorelei geradebrechte. Den Klang eines Flügels, davorsitzend, musste ich auch erst mal zu schätzen lernen. Kennt ihr diese Erfahrung? Ist es die Sitzposition oder nicht doch mehr die Klaviermarke?

Mein weiteres Vorhaben: Dem Klang fehlt noch das Anschwellen der niederen Obertöne kurz nach dem Anklang, glaube ich. Es ist noch einiges zu tun, bis ich zufrieden damit bin.



 

Anhänge

  • anfaengerstueck_1.mp3
    668,6 KB · Aufrufe: 488
Hallo Tastateur,

hast Du es schon mal mit PureData oder CSound probiert? PureData ist Realtime fähig, CSound wohl eher nicht. Beim Suchen nach "piano sound theory" bin ich auch auf diese Diplomarbeit (Analysis and Parametric Synthesis of the Piano Sound)
gestoßen.
https://aaltodoc.aalto.fi/bitstream/handle/123456789/977/urn007876.pdf?sequence=1

Ich habe sie nicht gelesen, der Titel klingt aber vielversprechend und mindestens das Literaturverzeichnis ist in der Regel ein guter Startpunkt für weitere Details.

Bislang erinnert mich der Sound noch zu sehr an einen sehr einfachen FM Synth (2 Operatoren), obwohl Dein Ansatz wohl eher Additive Synthese ist.

Ob man mit Additiver Synthese alleine glücklich wird, glaube ich kaum. Dazu gibt es beim Klavierklang zu viele nichtharmonische Elemente. Ich bin auch der Meinung, dass Du die Struktur des Klaviers schon nachbauen musst, d.h. der Bass hat eine oder 2 Saiten, die höheren Lagen dann 3 und ganz oben fehlen die Dämpfer.

Bin gespannt, wir es weitergeht.

Andre
 
CSound ist mein theoretisches Vorbild. Theoretisch deshalb, weil ich es nur grob kenne. Habe offengestanden nie damit gearbeitet, schon weil mich dieses XML-Freitext-Mischdingens von einer Definitionssprache abstößt.
Warum dann ist es mein Vorbild? Wie du schon sagst, es ist ein textbasiertes Nicht-Echtzeit-System (korrigiere: Echtzeit kann es doch! Mein Programm wird es nie können, soll es auch nicht, andere Prioritäten).
Und nicht zuletzt: Wenn man etwas gut lernen will, wie ich Musik und Sounddesign, muss man selbst Fehler machen und eben daraus lernen. Ich habe die Wahl und mich entschieden: Statt CSound zu lernen, gegen alle inneren Widerstände; statt mich mit dieser Definitionssprache herumzuschlagen, Fehler zu machen, die ich natürlich darauf schieben würde, dass mein Kopf eben anders gestrickt ist als die der CSound-Entwickler – erfinde ich das Rad lieber neu. Macht mir mehr Spaß und erscheint mir außerdem lehrreicher, tiefgreifender. Und weil mir jegliches kommerzielles Interesse abgeht, mein Auskommen finde ich schon anderweitig, bin ich da auch frei und freudig dabei.

Ob man mit Additiver Synthese alleine glücklich wird, glaube ich kaum. Dazu gibt es beim Klavierklang zu viele nichtharmonische Elemente.
Ich denke doch, das lässt sich schon mit Additiver Synthese wuppen. Schließlich ist dieses Syntheseverfahren direkt von der Natur abgeguckt, im Prinzip nichts anderes als reverse Fouriertransformation, die bekantlich der Arbeitsweise des Ohrs entspricht. Das hat schon Helmholtz festgestellt vor über 150 Jahren, seine Lehre von den Tonempfindungen gehören für mich zur Pflichtlektüre, wie auch die Musimathics-Bände von Gareth Loy. Bevor ich die nicht intus habe, stehe ich vor englischsprachigen spezielleren Diplomarbeiten wahrscheinlich da wie ein Ochs vorm Tor, aber ich schau bei Gelegenheit rein, danke für den Link.

Jedes Geräusch, das wir wahrnehmen können, ist über Additive Synthese nachbildbar.
Wenn man auch noch neben der Sinusform eines Teiltons weitere primitive Formen erlaubt, wie mein Programm das tut (es unterstützt auch Sägezahn-, Dreieck-, Rechteckschwingung, außerdem frequenzbandgebundenes Rauschen), sind dem Sounddesign faktisch keine Grenzen gesetzt. Das bräuchte es eigentlich gar nicht, aber gäbe es nur Sinus, müsste man manchmal viel mehr Teiltöne definieren, um den gleichen Effekt wie mit den anderen vier Formen zu erzielen.
Außerdem habe ich meinem Programm auch Frequenz- und Amplitudenmodulation beigebracht, sowie Waveshaping.

Für das Klavier mache ich aber keinen Gebrauch davon, aus dem schlichten Grund, weil die Literatur, anhand welcher ich die Nachbildung des Klaviertons begonnen habe, nur Daten für die additive Synthese hergibt und ich nicht den Überblick verlieren möchte, wenn ich jetzt versuche, die Recherchelücken durch möglichst effektives Experimentieren zu füllen.
Was die additive Synthese vor allem auszeichnet ist, dass jeder addierte Teilton sein eigenes Schwingungsverhalten haben kann. Kein anderes Syntheseverfahren vermag das, schon deshalb halte ich die additive Synthese für superior. Zudem lassen sich die anderen Syntheseverfahren ja dann teiltonweise noch anwenden, "on top" sozusagen.

Ich bin auch der Meinung, dass Du die Struktur des Klaviers schon nachbauen musst, d.h. der Bass hat eine oder 2 Saiten, die höheren Lagen dann 3 und ganz oben fehlen die Dämpfer.
Zu diesem sogenannten Physical Modelling habe ich mich ja schon weiter oben geäußert. Dieses Verfahren ist eine vollkommen andere Herangehensweise, die für mich zum einen aus unfachlichen Gründen nicht attraktiv ist, denn wenn es um physischen Nachbau geht, könnte ich ja gleich eine Ausbildung zum Klavierbauer beginnen und würde mit größerer Befriedigung lernen, Klang mit meinen Händen zu erschaffen. Die Berechnung von Klängen kann man nicht mit Händen erledigen, nur mit dem Kopf und einem Computer. Physical Modelling erscheint mir da wie mit Kanonen auf Spatzen geschossen, vom Aufwand her. Weißt du, wie ein Architekt den Computer benutzt? Bestimmt nicht, um die chemisch-stofflichen Eigenschaften von Beton in seinen unzähligen Arten zu simulieren.
Zum anderen müsste ich, um auf diese Herangehensweise zu wechseln, meine bisherige Entwicklung über Bord werfen und ganz von vorn beginnen. Dazu bin ich noch nicht frustriert genug, d.h. eigentlich bin ich noch überhaupt nicht frustriert, sondern glücklich über das bereits Geschaffte (v.a. angesichts der Tatsache, dass ich erst ein Jahr der Musik verfallen bin) und zuversichtlich, den Klavierton am Ende doch noch hinzukriegen.

EDIT: Sprachliche Fehler korrigiert. So langsam lässt sich wirklich Klavier dazu sagen. Da es sich um ein rein textdefiniertes Instrument handelt, bin ich versucht meine Experimente abzuschließen und mich um andere Instrumente zu kümmern. Klangdemonstration also demnächst unter dem Titel "Studies on the Piano Sound II" auf der Projekthomepage, die ich hier natürlich verlinke, stay tuned.[/I]
 
Zuletzt bearbeitet:
Jedes Geräusch, das wir wahrnehmen können, ist über Additive Synthese nachbildbar.

Dennoch sind additive Synthesizer eine Randerscheinung. Außer Kawai K5000 und Synclavier fällt mir keiner ein.

Für die Workstation-Variante des K5000 hat man noch PCM-Speicher spendiert, damit es auch mit den Vogelgezwitscher für General-MIDI klappt.

Achja: Vogelgezwitscher wäre tatsächlich eine Herausforderung ... :-)

Was die additive Synthese vor allem auszeichnet ist, dass jeder addierte Teilton sein eigenes Schwingungsverhalten haben kann. Kein anderes Syntheseverfahren vermag das, schon deshalb halte ich die additive Synthese für superior.

Das ist halt Fluch und Segen zugleich. Man sagt auch: Parametergrab. :-) Nicht umsonst hat Chowning einen anderen Weg eingeschlagen.

Grüße
Häretiker

BTW:
Statt CSound oder PureData hätte ich da eher SuperCollider im Sinn. New School wäre dann ChucK.
 
Nun ja, "Parametergrab" ... heutzutage zumindest, wo dem Erfindungsgeist in puncto Bedienungskonzepten keine technischen Grenzen gesetzt sind (von meinem persönlichen Zwiespalt gegenüber grafischen Oberflächen abgesehen), deutet dieser Pejorativ vielmehr auf fehlende Detailversessenheit hin. Wer Freiheit will, sollte sich eben auch entscheiden können, und Gelassenheit, Mut zur Imperfektion hat eh noch keinem geschadet. Das heißt, wer maximale Freiheit beim Bau virtueller Instrumente, bei der Konstruktion digitaler Töne braucht, muss ja eine gewisse Bereitschaft zur geduldigen Feinjustage mitbringen, aber auch ein Bauchgefühl haben für den Zeitpunkt, ab dem es nicht mehr besser werden kann, bestenfalls anders, sonst schlechter.

Warum die additive Synthese so wenig Zuspruch findet, durfte aber einen anderen Grund haben: Der Rechenaufwand. Echtzeitfähigkeit, absolutes Muss bei Vorführung vor Publikum, ja, überhaupt Voraussetzung für ein mit dem traditionellem Musizieren vergleichbares Spielgefühl, wäre, wenn damit überhaupt machbar, schlichtweg zu teuer. Das war es jedenfalls, und wenn es heute immer noch der Fall ist, wird sich das morgen mit den Quantencomputertechnik ändern.

Weiter oben im Thread habe ich auf @Fou Lou's Wunsch Heines Lied der Loreley verlinkt, "Ich weiß nicht, was soll es bedeuten".

– vgl. mit der Vertonung mit meinem virtuellen Klavier in der aktuellen Version:

. Klingt noch wie ein Keyboard, die Richtung aber, die stimmt, oder?
 

Anhänge

  • loreley.mp3
    803,6 KB · Aufrufe: 259
Also ich weiß ja nicht ob Du taub bist, aber mit nem Klavierklang haben diese ganzen Töne so viel zu tun wie wie Trump mit Frauenrechten.

Für dieses schroffe Urteil brauchst Du jetzt aber nicht wirklich eine Bestätigung hier im Forum? Man hört einfach, wie absurd weit weg das vom Original ist.


Mal eine Strategiefrage:

Du hast mal geschrieben, wenn Du nahe genug am Original bist, dann erfindest Du nachfolgend eigene Töne mit Deinem Ansatz. Nur warum willst Du diesen Weg gehen?

_Eigene_ Töne (also keine Nachbildungen eines Zielklangverhaltens) konnte man auf Synthesizern beliebiger Bauart (subtraktiv, PM, additiv) schon seit den 60ern (oder sogar eher) generieren. Woran man jahrzehntelang scheiterte (oder es prinzipbedingt gar nicht erst probierte) war, das exakte Nachbilden von _vorgegebenen Klängen_.

Das lag daran, dass man mittels Versuch und Fehler kaum jemals die gewünschten Zielklänge mit ihrem Obertonverhalten hinbekam - zumal man früher ja immer erst analoge elektrische Schwingkreise, Regler etc. aufbauen musste um damit dann klanglich zu experimentieren.

Erst genug digitale Rechenpower mit Fouriertransformation für zeitlich beschränkte Signale (DTFT) und zugehöriger Umkehrfunktion (IDTFT) ermöglicht prinzipiell additiven Synthesizern, diese Klänge über eine Aufaddierung von Wavelets nachempfinden.
Nur ist das lediglich eine Signaltransformation des Ausgangssamples vom Impuls in den Phasenraum und zurück. Mit frei konfigurierbaren Synthesizern hat das ja aber gar nix mehr zu tun. Das Sample des Ausgangsinstrumentes steckt exakt in den den errechneten Parameter-Reihen für die aufzuaddierenden Sinusamplituden drin.

Ohne eine Fouriertrafo wirst Du aber nie einen vernünftigen Klavierklang additiv hinbekommen, der sich eben nicht nur aus einer Hand voll von unveränderlichen Obertönen zusammensetzt.
Du machst Dir jetzt (wenn ich das richtig verstehe), lediglich die Mühe, das Ergebnis einer Signalanalyse eines Originalklangs mit Lineal aus einem Buch abzumessen und als Parameter bei Dir einzutragen. Das ist exakt, was dir eine DFT eines Tons gibt, nur bei der DFT halt viel genauer und mit viel mehr differenzierten Obertönen entsprechend des Zielklanges statt mit einer Hand voll linealvermessener Parameter.
Dein Klangmodell ist obendrein dann aber ziemlich statisch. Beim Klavierton ändert sich das Obertonspektrum während des Tonverlaufs - deshalb braucht man eben mehr als eine Hand voll statischer DFT-Parameter über die Tonlänge hinweg, sondern man braucht auch eine Zeitdiskretisierung über Wavelet-Filter.

Das führt jetzt aber zu weit, Du musst nicht in Details gehen, aber es wäre schön wenn Du noch mal auf der Strategieebene erklärst, ob ich da was falsch verstehe.

Ich denke, dass einige neueren Digis diese DTFT verwenden, um Looping zu vermeiden. Man macht eine DTFT des Samples, direkt nach der Attack-Phase, und dann kann man ohne Looping am Timbre rumspielen (Änderung der additiven Parameter) oder halt die Ausklingverhalten oder zeitlich unbeschränkter Rücktrafo, die ein kontinuierliches Verhalten statt Looping-Grenzen ergibt. Man nennt das dann frech "Modelling" und suggeriert "physikalisches Modelling" (ohne Mitmaßungen von Interessierten je explizit zu verneinen), was aber nix damit zu tun hat.

Erst mit echtem physikalischem Modelling löst Du Dich vom Original-Sample, es ist auch nicht mehr versteckt als transformiertes Sample mit D(T)FT-Parametern in der Engine drin, sondern das Sample entsteht wirklich durch das Lösen der Wellengleichung mit Anschlag/Resonanz/etc. für fest eingespannte Saiten.

Lange rede kurzer Sinn...warum das Ziel Klavierklang? Baue eigene Sachen, ist sicher viel einfacher. Sonst machst Du Dir nur sehr viel Mühe, eine altbekannte Sample-Transformation neu zu erfinden.
 
Zuletzt bearbeitet:
Also ich weiß ja nicht ob Du taub bist, aber mit nem Klavierklang haben diese ganzen Töne so viel zu tun wie wie Trump mit Frauenrechten.

Für dieses schroffe Urteil brauchst Du jetzt aber nicht wirklich eine Bestätigung hier im Forum? Man hört einfach, wie absurd weit weg das vom Original ist.
Zunächst hat dein Beitrag einen ziemlich verkorksten Beginn; vielen Dank für den Rest, den habe ich mit Erleichterung über dein Niveau und deinen Kenntnisstand gelesen.

Natürlich ist der Klang "absurd weit weg vom Original", schon deshalb weil es das "Original" nicht gibt. Jedes Klavier auf der Welt hat seinen eigenen Klang, ist ein Unikat, oder täusche ich mich, dass man ein Klavier nicht zu 100% am Fließband produzieren kann? Zumindest kein hochwertiges. Handarbeit macht eben dadurch ihren Reiz aus. Insofern ist meine leise Befürchtung. ich könnte – selbst wenn der Kenner dereinst nicht mehr meine Nachbildung als solche erkennen sollte – durch diese Tätigkeit Klavierbauer arbeitslos machen, rational gesehen tatsächlich absurd.

Worauf du anscheinend hinauswillst ist, dass der Klang sich noch soweit von deiner Vorstellung eines Klaviers unterscheidet, dass er die Bezeichnung "Klavierklang" nicht im Ansatz verdient. Um deine herben einleitenden Worte für mich mal in eine sachlich-nüchterne Tonart zu transponieren. Im übrigen ist es wenig sinnvoll, zu behaupten, "man hört einfach [...]". Was du äußerst ist deine Meinung. Von wie vielen sie geteilt wird, ist mir vollkommen schnuppe, da du sie äußerst und du dir im Idealfall Mühe gibst, mir die Mängel am Klang aufzuzeigen. Nicht dass ich das erwarten könnte. Dass ich hier vielleicht den einen oder anderen konstruktive Kommentar in diese Richtung bekomme, war der Grund, warum ich diesen Thread eröffnet habe und pflege.

Und ich habe auch schon eine Ahnung, woran das liegt, dass du kein Klavier erkennst.
Der Attack stimmt nun schon mal grob. Meine ersten Stände wurden ja kritisiert in der Beziehung, aber das gilt nun nicht mehr wie ich hoffe, wenn man mir beiplichtet, wär es zumindest ein Fortschritt.
Der Diskant muss klarer werden, annähernd kristallklar – aber auch nicht zu sehr, soll ja auch nicht sphärisch klingen, stets bodenständig, ein Klavier ist schließlich kein Theremin. Nach wie vor hat er etwas Melodica-haftes und ist insgesamt recht dünn. Auch im Diskant beschreibt der Klang des Klaviers einen kurvenartigen Verlauf, den ich nach meinem Dafürhalten zwar durchaus im Ansatz realisieren konnte, anscheinend noch zu wenig ausgebildet, um (nicht nur) dir aufzufallen.

Meine "Strategie" ist, mich dem Klavierklang anzunähern, primär um zu lernen, wie sich welche Änderungen an der Textdefinition des Instruments auf mein eigenes Hörempfinden und das meiner bereitwilligen kritischen Testhörerschaft auswirkt. Etwas zu programmieren, das aus Text etwas zaubert, was vollkommen anders wahrgenommen wird, nämlich als Klang, ist das eine. Die konkreten Eingabedaten (Text, wie gesagt) anzufertigen, durch den genau der Klang, das Instrument entsteht, das mir vorschwebt, das andere.

Und zum "Ziel" meiner experimentellen Klangforschung habe ich eben den Klavierklang erkoren. Er ist vielschichtig, entwickelt eine hohe Dynamik, die sich von Oberton zu Oberton unterscheidet, ohne dass ich die Unterschiede begreife, wie das Klavier so klingt, wie es klingt, ist für mich immer noch ein Mysterium, das ich zu ergründen suche, und überhaupt mag ich den Klang von allen Instrumenten des üblichen klassischen Inventars am liebsten, weshalb ich ja auch "echten" Klavierunterricht nehme.

Es ist ja auch nicht das Ziel eines Marathonläufers, von A nach B zu kommen. Theoretisch könnte er sich auch auf ein Laufband stellen. Ein Ziel zu haben ist wichtig für alles Streben, das sprichwörtliche Schnitzel vor der Nase, auch dann, wenn das Ziel nicht zugleich ein Mittel ist, um wiederum ein dahinter liegendes Fernziel zu erreichen, sondern etwas von einem Selbstzweck hat. Ein Ziel befeuert die Ambition, stabilisiert die Motivation. Viele haben Modelleisenbahnen im Keller, absurd wärs, würden sie erwarten, damit von A nach B zu kommen.

Physical Modelling wäre zu vergleichen mit einem Marathonläufer, der statt Lauftraining eine Ausbildung zum Automechaniker macht, um sich schließlich ein Auto zu bauen, mit dem er diese 42 Kilometer doch viel effektiver zurücklegen kann. Ist das nicht absurd? Setzt nun akusmatische, d.h. "quellenlose" Musik zu machen lernen voraus, dass man lernt man virtuelle Quellen nachzubauen wie ihre physischen Gegenstücke? Das kann ich noch nicht recht glauben, tut mir leid.

Was ich wirklich demnächst machen muss, statt hier ständig kleine MP3-Dateien hochzuladen, Kleinvieh macht ja auch Mist (nimmt Platz weg für Mitschnitte von "echten" Klavieren/-spielern, für die das Feature bestimmt gedacht ist), sind visuelle Klangkurven aller Teiltöne, ganz wie schon eingangs, aber eben ein aktueller Stand. Auch wenn es noch weit weg ist vom Klavierklang, wird so vielleicht deutlicher, dass die angesprochene Dynamik, die nur(?) noch deutlicher ausgeprägt werden muss, schon durchaus angelegt ist. Dass man mir statische Syntheseverfahren (Modulation, Waveshaping) unterstellt, ärgert mich doch etwas, nix da.
 
Natürlich ist der Klang "absurd weit weg vom Original", schon deshalb weil es das "Original" nicht gibt. Jedes Klavier auf der Welt hat seinen eigenen Klang, ist ein Unikat, oder täusche ich mich, dass man ein Klavier nicht zu 100% am Fließband produzieren kann?

Kein Klavier ist wie das andere, richtig. Nur formulierte ich meinen Start doch absichtlich sehr streng und es ist eine ernsthafte Frage: Hörst Du die Diskrepanz nicht? Willst Du sie nicht hören?

Unser Gehör ist sehr stark durch unsere Erwartungshaltung beeinflussbar. Wenn man einen Ton nur oft genug hört und sich dabei nur stark genug an einen Klavierklang erinnert werden will, dann funktioniert das auch irgendwann. Man wird irgendwann betriebsblind.

Ich kenne genug Klavierklänge, sowohl echt, aus Aufnahmen und aus zahlreichen Software-Emulationen. Deine derzeitigen Versuche sind da nirgendwo klanglich einzuordnen. Es gibt allenfalls gewisse Anmutungen eines ähnlichen Meta-Verhaltens eines Tonverlaufs.

Das ist als ob Du eine rote Karte hoch zeigst und fragst in die Runde: "Ist das blau?"
Alle sagen, auf keinen Fall! Dann zeigst Du eine grüne Karte und fragst: "Ist das jetzt blauer?"
Einer sagt freundlich: "Es geht mehr in die Richtung".
Und Du interpretierst: "Yo, ist blau mit leichten Abweichungen."
Dann komme ich und meckere blöd rum.
Und dann sagst Du: "Es gibt so viele Schattierungen von blau, Deine Kritik ist sinnlos" - und zeigst dabei immer noch stolz die grüne Karte hoch.

Worauf du anscheinend hinauswillst ist, dass der Klang sich noch soweit von deiner Vorstellung eines Klaviers unterscheidet, dass er die Bezeichnung "Klavierklang" nicht im Ansatz verdient. Um deine herben einleitenden Worte für mich mal in eine sachlich-nüchterne Tonart zu transponieren. Im übrigen ist es wenig sinnvoll, zu behaupten, "man hört einfach [...]". Was du äußerst ist deine Meinung. Von wie vielen sie geteilt wird, ist mir vollkommen schnuppe, da du sie äußerst und du dir im Idealfall Mühe gibst, mir die Mängel am Klang aufzuzeigen. Nicht dass ich das erwarten könnte. Dass ich hier vielleicht den einen oder anderen konstruktive Kommentar in diese Richtung bekomme, war der Grund, warum ich diesen Thread eröffnet habe und pflege.

Mit dem fett hervorgehobenen Teil könntest Du den Thread jetzt aber auch abschließen. Du willst also doch nur Klatscher haben, keine Kritiker...der Teil mit den konstruktiven Kommentaren erscheint dabei nur pflichtgemäß angehangen.

Meine "Strategie" ist, mich dem Klavierklang anzunähern, primär um zu lernen, wie sich welche Änderungen an der Textdefinition des Instruments auf mein eigenes Hörempfinden und das meiner bereitwilligen kritischen Testhörerschaft auswirkt. Etwas zu programmieren, das aus Text etwas zaubert, was vollkommen anders wahrgenommen wird, nämlich als Klang, ist das eine. Die konkreten Eingabedaten (Text, wie gesagt) anzufertigen, durch den genau der Klang, das Instrument entsteht, das mir vorschwebt, das andere.

Und zum "Ziel" meiner experimentellen Klangforschung habe ich eben den Klavierklang erkoren. Er ist vielschichtig, entwickelt eine hohe Dynamik, die sich von Oberton zu Oberton unterscheidet, ohne dass ich die Unterschiede begreife, wie das Klavier so klingt, wie es klingt, ist für mich immer noch ein Mysterium, das ich zu ergründen suche, und überhaupt mag ich den Klang von allen Instrumenten des üblichen klassischen Inventars am liebsten, weshalb ich ja auch "echten" Klavierunterricht nehme.

Es ist ja auch nicht das Ziel eines Marathonläufers, von A nach B zu kommen. Theoretisch könnte er sich auch auf ein Laufband stellen. Ein Ziel zu haben ist wichtig für alles Streben, das sprichwörtliche Schnitzel vor der Nase, auch dann, wenn das Ziel nicht zugleich ein Mittel ist, um wiederum ein dahinter liegendes Fernziel zu erreichen, sondern etwas von einem Selbstzweck hat. Ein Ziel befeuert die Ambition, stabilisiert die Motivation. Viele haben Modelleisenbahnen im Keller, absurd wärs, würden sie erwarten, damit von A nach B zu kommen.

Physical Modelling wäre zu vergleichen mit einem Marathonläufer, der statt Lauftraining eine Ausbildung zum Automechaniker macht, um sich schließlich ein Auto zu bauen, mit dem er diese 42 Kilometer doch viel effektiver zurücklegen kann. Ist das nicht absurd? Setzt nun akusmatische, d.h. "quellenlose" Musik zu machen lernen voraus, dass man lernt man virtuelle Quellen nachzubauen wie ihre physischen Gegenstücke? Das kann ich noch nicht recht glauben, tut mir leid.

Ich kenne einige Programmierer wie Dich und bezeichne die gern als IT-Philosophen :)
Das ist nix negatives, ich verstehe sie nur nicht und ticke einfach nicht so wie sie.

Dein Marathonbild zieht nicht. Der Läufer hat ein einfaches Ziel: In B einlaufen. Es ist egal, ob er dazu läuft, stolpert, kriecht oder vorher einen Überlichtantrieb erfindet.
Der Sensor liefert nur: Ist da. Ist nicht da. Oder wie lang. Eine sehr einfache Metrik.
Dein Sensor ist: Klingt wie Klaviere (irgendwie). Das ist ein komplexes Ziel, eine sehr komplexe Metrik. Und das willst Du jetzt erreichen, indem Du mit dem Zusammenaddieren von Sinus-Schwingungen herumexperimentiest. Das hat halt nie geklappt für additive Synthese.

Additive Synthexe klingt charmant. Aber Atome sind auch einfach aufgebaut, aber deshalb kann man daraus noch längst kein Haus bauen.

Ich habe versucht klar zu sagen, warum ich additive Synthese für wenig zielführend halte, wenn man zu viele Schwingungsanteile wegabstrahiert (wenige Parameter), wenn man die Parameter nicht durch eine Signaltrafo erhält (D(T)FT) etc. Du wirst durch das aufaddieren von wenigen dutzend Sinuswellen nie in Richtung Klavier kommen.
 
Den Sound kannste vergessen. Klingt nicht entfernt nach Klavier. Aber das "Anfängerstück" ist hübsch. Ist das von dir?
 

Hörst Du die Diskrepanz nicht? Willst Du sie nicht hören?
Und ob ich diese Diskrepanz höre. Ich bewerte sie eben anders als du. Ich meine: Klaviertypischer Attack ist da, aber im weiteren Verlauf ist nachvollziehbar, dass konstruktive Kritikern der Vergleich zum Klavier noch ziemlich abgeht. Du sagst: Ist kein Klavier, basta. Ob du dir überhaupt die Mühe gemacht hast, genau hinzuhören und versuchen herauszufinden, warum das kein Klavierklang ist, das ist deine Sache, das wär vermessen von mir einzufordern, ich bezahl dich schließlich nicht für ein Gutachten. Aber es ist halt schwierig miteinander zu diskutieren, wenn der eine am grundsätzlichen Ansatz was auszusetzen hat, während der andere von ihm überzeugt ist – egal ob das zeigt, dass er noch viel lernen muss, oder dass er sich berechtigt gegen einen seinerseits engstirnigen Kritiker wehrt – und stattdessen schon an den Details herumdoktern will. Insofern geb ich dir recht, dass unsere beider Diskussion insgesamt fruchtlos ist.

Das ist als ob Du eine rote Karte hoch zeigst und fragst in die Runde: "Ist das blau?"
Alle sagen, auf keinen Fall! Dann zeigst Du eine grüne Karte und fragst: "Ist das jetzt blauer?"
Einer sagt freundlich: "Es geht mehr in die Richtung".
Und Du interpretierst: "Yo, ist blau mit leichten Abweichungen."
Dann komme ich und meckere blöd rum.
Und dann sagst Du: "Es gibt so viele Schattierungen von blau, Deine Kritik ist sinnlos" - und zeigst dabei immer noch stolz die grüne Karte hoch.
Der Vergleich gefällt mir. Vor allem, da er unfreiwillig meinen Punkt stützt. Grün ist blauer als Rot. Warum? Du hast das Internet und die Bibliothek deines Vertrauens zur Verfügung, eigenständig zu recherchieren, Farblehre soll jetzt und hier wirklich nicht Thema sein, gell, nur so viel dazu: Farbe ist ein Kontinuum von Wellenlängen und jetzt frag dich mal insgeheim, warum man von "Klangfarben" spricht. "Ist ein Klavier" versus "ist kein Klavier" ist müßig auszudiskutieren, reine Zeitverschwendung, darauf lass ich mich gar nicht ein, daher meine Ablehnung deiner Kritik.

Also, es kann ja sein, dass die additive Synthese zu nichts führt, dass ich im Nebel herumstochere, einem Phantasma nachhänge. Die Lust, mich mittels additiver Synthese dem Klavierklang zu nähern, weil ich das für machbar halte, Geduld und Ehrgeiz vorausgesetzt, wird dann früher oder später erlahmen, in Frust umschlagen. Wer deiner Meinung ist, kann sich jetzt mit einiger Genugtuung zurücklehnen, die womöglich naive Insistenz oder Ignoranz eines Quereinsteigers und Amateurs der Klangforschung belächeln. Der ist meiner Erfahrung nach ein durchaus kleveres Kerlchen und wird dann irgendwann einsehen und hoffentlich auch nachvollziehen können, warum das ein Irrweg war. "Mensch, der Andre73 hatte recht, weil [...]", wird er dann sagen – und hat wieder was gelernt. Oder ich verlinke abermals eine Klangstudie, die dich ins Unrecht setzt, nach der Kalenderweisheit: Wo ein Wille ist (und ein bisschen Glück), ist auch ein Weg.
 
@Sechstasten: Danke für deine Meinung. Nicht entfernt nach Klavier? Hm, du bist da nicht allein, wie du siehst. Nicht auszudenken, wenn ich mich irgendwann der Mehrheit beugen muss ... ;)

Die Komposition ist von mir. Freut mich, dass du sie gut findest.
 
Ich glaube, daß du mittlerweile so im Detail verstrickt bist, daß dir unser Blick für den Ersteindruck fehlt. Laß es mal mindestens ne Woche ruhen und hör dann rein.
 
Zuletzt von einem Moderator bearbeitet:
Klingt eher nach kaputter Trompete ...
 
Hallo Tastateur,

generell denke ich, dass additive Synthese schon in der Lage ist, den Klang nachzubilden. Aber ohne genaue Analyse des Ausgangsklanges - nur durch Probieren - wird es evtl. ziemlich lange dauern, die richtigen Parameter zu finden. Hast Du denn schon mal ein Klaviersample genommen und analysiert?

Ich hatte mir mal vor ein paar Tagen Dein Listing angesehen, bin aber nicht komplett schlau daraus geworden. Du scheinst ja die Obertöne mit Hüllkurven zu belegen. Mir ist aber nicht klar, ob die Obertöne echte ganzzahlige Vielfache in Deinem Modell sind, oder ob Du die saitenspezifische Verstimmung der Obertöne mit modelliert, indem Du irgendwo noch eine LookUp Table hast. Die Frequenzen in der Hüllkurvengrafik, die Du hochgeladen hattest, waren glaube ich keine echten Vielfachen, oder?

Weiterhin: Die Mathematik sagt, dass man Betrag und Phase für die Resynthese berücksichtigen muss. Wie ist die Phase bei Dir modelliert? Ist sie für alle Obertöne null oder konstant oder ...?

Lebendigkeit lässt sich in der Regel relativ leicht erreichen, indem man zwei ähnliche Stimmen nimmt und leicht gegeneinander verstimmt, leicht versetzt startet oder mit leicht unterschiedlichen Parametern ausstattet. Wenn man diese dann noch auf verschiedene Stereokanäle legt, klingt es oft schon mal besser.

Wie lange dauert eigentlich die Berechnung eines Klavierklanges?

Andre
 
Ich glaube, daß du mittlerweile so im Detail verstrickt bist, daß dir unser Blick für den Ersteindruck fehlt. Laß es mal mindestens ne Woche ruhen und hör dann rein.
Sicherlich wird mir mehr Distanz nicht schaden. So tue ich gut daran, mich ein Weilchen keine Schwingungsperiode lang mit dem virtuellen Instrument zu beschäftigen. Vielmehr möglichst viel echte Klaviermusik so aufmerksam wie möglich zu hören. Und wenn ich richtig mutig bin, belästige ich das Sortiment eines Klavierfachgeschäfts mit meinen Anfängerfingern, vor allem um die Klangvarianzen zwischen den Fabrikaten mit den eigenen Ohren zu erleben. Ach, und außerdem sorge ich für Weltfrieden und dafür, dass Oma warme Socken kriegt. ;)
Auditorische Erfahrung fehlt mir wirklich. Bisher kenn ich ja nur mein billiges Clavinova, das ich bald nach der Garantiezeit gegen etwas auszutauschen plane, das meinen bis dahin erworbenen pianistischen Fertigkeiten würdig ist, und den Konzertflügel meines Lehrers.
Und ganz gewiss werde ich endlich mal echte Klavierklänge von CDs konkret fourier-analysieren, nicht mehr nur mit Literatur und unbedarftem Anfängergeist bewaffnet herumstümpern. Wenn auch letzteres in den Augen eines Zen-Sympathisanten durchaus gut ist, aber in so konkreten Dingen wohl nicht wirklich zielführend.

Und es ist ja auch nicht so, dass es eine harte Grenze zwischen den Konzepten gäbe. Dass die Basssaiten ganz anders beschaffen sind, ja sogar ganz anders gespannt, sollte ich zumindest dahingehend berücksichtigen, dass der tiefsten Saitendreiergruppe des Diskant ein eigenes explizites Profil zukommen sollte (Profil ist sowas wie ein 3D-Diagramm, die Achsen sind die Amplitude, die Teiltonordnungszahl und die Zeit).

Übrigens, @Sechstasten, @Klavierbauermeister:
Darf ich sicherheitshalber fragen, auf welches MP3 in welchem Post euer Urteil bezogen ist? Doch das zuletzt hochgeladene, das Lied der Loreley, vom Donnerstag dem 18.5.? Wie würdet ihr den Unterschied des ersteren zum zweiteren bewerten? :konfus:

@andreg:
Freut mich, dass du dich mit dem Listing beschäftigt hast. Die in den verlinkten Klavierstudien I wiederum verlinkte Instrumentenspezifikation ist ja schon etwas älter, bei Interesse schaue dir mal die z.Z. aktuelle Version an, die ich auch für die besagte Aufnahme des Loreley-Lieds letztens verwendet habe.

Die wesentliche Änderung ist, dass ich die Definition der Saiteninharmonizität ausgelagert habe in die Ganzzahlenliste "SPREAD", die einmalig definiert, aber gleichsam für alle angegebenen "PROFILE" angewendet wird. über die Bezeichnung bin ich nicht sehr glücklich, aber sie ist allgemein und kurz genug, jetzt ist sie fix. Ich habe wenig Ahnung genug, dass ich diese Daten wenigstens nicht "HANNAH" oder "JOSHUA" nenne, weil mir "DIFFERENCES_TO_NATURAL_HARMONICS" wieder zu lang wäre. Hat jedes angegebene Profil seine eigenen Abweichungen wie in der Version, die du dir angeschaut hast, ist die Berechnung der Saiteninharmonizität für die nicht angegebenen, also interpolierten Profile für 84 Tasten fehlerhaft weil divergierend. Bei Einzeltönen kann man das nicht hören. Jedoch Akkorde mit zwei oder drei beteiligten Tönen, die aus interpolitierten Profilen erzeugt wurden, litten unter grausigen Schwebungen, weshalb sich das Klavier so anhörte wie ein Akkordeon mit Rissen oder so.

Die Teiltonfrequenzen ergeben sich bekanntlich aus den Vielfachen der Grundfrequenz. Also f = f0 * 2^(x/1200). x wird akkumuliert, also ist nicht nur die jeweilige angegebene Differenz, sondern diese muss jeweils addiert werden mit den 1200 Cent der natürlichen harmonischen Obertonreihe sowie der Summe der analog berechneten Werte aller unterhalb liegenden Teiltöne.

Angaben wie { "@edb65p01": 7, "@fhdupdn": 2 } repräsentieren gewichtete Mittel der referenzierten Stützpolygone, also deren Koordinatenketten, die im oberen Teil der Datei hinter ihren Identifiern angegeben sind. Die Gesamtlängen stehen immer ganz am Anfang vor dem Doppelpunkt und legt fest, dass das Segment maximal bzw. bei Attack exakt so viele Sekunden lang ist, bei Sustain werden die Länge und die Koordinaten so angepasst, dass Attack und Sustain zusammen die geforderte Tondauer ergeben. Sie sind zu lesen als "(@edb65p01*7 + @fhupdn*2) : (7 + 2)". Die Stützpolygone heißen so, weil sie eckig sind, aber die Kurven, die aus diesen angegebenen Polygonen mit der sogenannten Bézier-Bernstein-Approximation berechnet werden, sind natürlich nicht eckig. Zumindest nicht innerhalb eines Attack-, Sustain-, bzw. Release-Segments. Die Segmente werden aber, unter Inkaufnahme von Ecken, teils ist das auch gewollt, zu Hüllkurven zusammengesetzt. Diese Hüllkurven werden einfach mit den Sinusschwingungen und der Maximalamplitude multipliziert, die Produkte wiederum summiert, und fertig ist der Klang.

Mangels Angaben aus der Literatur (Blackham 1965, Hinweis auf die deutsche Übersetzung siehe Link) konnte ich nur die Teiltonverhältnisse der ersten vier G-Tasten berücksichtigen, und Blackham hatte nur die Partialtöne 1-5, 10, 15, 20 und 25 des tiefsten C-Tons vermessen.
Der Rest ist interpoliert, und zwar ebenfalls per gewichteter Mittelung. Was schon eine Herausforderung war für mich, der Mathematik am Gymnasium nicht geliebt hat.
Die Herausforderung bestand nicht in der Berechnung von Mittelwerten, das ist ja trivial. Aber wie mittelt man Bézierkurven bzw. Stützpolygone mit unterschiedlicher Zahl von Koordinaten? Wo berechnet man n zusätzliche Zwischenkoordinaten, wie ermittelt man, welche n Knoten man minimalinvasiv, d.h. mit minimaler Änderung des Kurvenverlaufs entfernen kann, damit das Mitteln von schließlich gleich vielen Koordinaten auf der einen wie auf der anderen Seite nur noch Kür ist? Hier musste ich noch mal eingehend mein Tafelwerk kapieren, das ich noch aus der Schulzeit aufgehoben hatte, vor allem Geometrie/Dreiecksberechnungen.

Die y-Angaben der Stützpolygon-Koordinaten (die x-Angaben sind relativ zur Gesamtlänge), sowie die Teilton-Amplitudenverhältnisse der Profile, sind logarithmisch zu interpretieren. Meist nehme ich als Maximum 100dB an. Tontechniker und Akustiker rechnen lieber ausgehend von 0dB als Maximum, also überwiegend mit negativen Werten, aber das mag ich nicht, ich neige schon sonst genug zu negativem Denken. Diese 100dB repräsentieren die tatsächlich eingestellte Abspiellautstärke der Audiohardware (Computerlautsprecher, HIFI-Verstärker, was auch immer), sollten also selbstverständlich nicht als 100dB rauskommen, da euch euer Gehör lieb und teuer ist.

Zur Berechnungsdauer dieser Klänge: Wenn ich mein Anfängerstück nur auf einem CPU-Kern berechnen lasse, dauert die Sache auf meinem IBM-Thinkpad R400 (etwa 9 Jahre alt): 178 Sekunden durch 89 unterschiedliche Noten (Tonhöhe, -dauer, -intensität), durchschnittlich also zwei Sekunden. Die Tonhöhe bestimmt dabei die Anzahl der Teiltöne, die zusammen mit der Tondauer am wesentlichsten die Berechnungszeit beeinflusst. Und zwei Sekunden sind recht fix angesichts von Millionen von Abtastungen insgesamt, 48.000 pro Sekunde und Teilton.

Mit diesen Erklärungen werde ich den einen oder anderen bestimmt enttäuscht haben. Erwarte ich denn wirklich, das aus diesen Milchmädchenrechnungen und allerhand Interpolation und Spekulation am Ende ein Klavier rauspurzelt?! Nein, das erwarte ich nicht. Aber die Richtung sollte wenigstens stimmen. Dass das nicht der Fall ist, holt mich nicht gerade sanft auf den Boden der Tatsachen zurück ... und es ist kein Wunder, schließlich ist mein Bewertungsmaßstab etwas anders als eurer, das habe ich bisher nicht so klar gesehen wie jetzt.
Ihr habt Klaviere dutzender Fabrikate und der unterschiedlichsten Zustände und Qualitäten in den Ohren, ich dagegen vergleiche da eher ein Klavier mit einem Schlagzeug, einer Geige oder ... ja, einer Trompete. Leider ist @Klavierbauermeister nicht näher begründend darauf eingegangen. Mein Horizont ist weiter, dafür grob, eurer enger, dafür genauer. Daher ist die Diskussion schwierig, wie bei zwei Menschen in der Wüste, drei Meilen voneinander entfernt und per Satellitentelefon verbunden, und der eine fragt den anderen, ob er sich in die richtige Richtung bewege. Das kann der andere selbst mit Fernrohr auch nicht erkennen, und vielleicht guckt er nur gelangweilt und lax dahin, und denkt insgeheim, wegen der flirrenden Hitze am Horizont könne er das doch eh nicht beurteilen.

Einer klavierspielenden Bekannten hatte ich kürzlich ein Stück mit hohem Bassnotenanteil zu hören gegeben (das ich leider aus urheberrechtlichen Gründen nicht veröffentlichen darf, aber wer mir ein einfaches Public-Domain-Stück vorschlagen mag, gerne her mit den Noten, Link reicht). Sie war erstaunt über die Echtheit der Bassklänge. Über das Klangverhalten im Bass konnte ich mehr aus besagter Literatur ziehen. Und auch Diskant habe ich mich in Ermangelung richtiger Analysen daran geklammert, in abnehmendem Maße bis hin zum ungefähren Stimmgabel mit nur sieben Teiltönen. Naiv-spekulativ eben, um mal zu gucken was rauskommt. Aber ich hoffe ihr könnt nachvollziehen, dass ich nach diesem Lob zum Bassbereich überzeugt bin vom grundsätzlichen Ansatz, da bringt mich auch @Andre73 so schnell nicht von ab ;).

Weiterhin: Die Mathematik sagt, dass man Betrag und Phase für die Resynthese berücksichtigen muss. Wie ist die Phase bei Dir modelliert? Ist sie für alle Obertöne null oder konstant oder ...?
Ich sehe keinen Anlass, die Phase zu modellieren. Ich vertraue da auf olle Helmholtz, der in seiner Lehre der Tonempfindungen schrieb, dass Phasenverschiebungen vom Ohr wegabstrahiert werden. Wenn Helmholtz inzwischen wiederlegt wurde, weiß ich davon nichts.
 
Ihr habt Klaviere dutzender Fabrikate und der unterschiedlichsten Zustände und Qualitäten in den Ohren, ich dagegen vergleiche da eher ein Klavier mit einem Schlagzeug, einer Geige oder ... ja, einer Trompete.

Mir fehlt das Vokabular, um meinen Klangeindruck seriös darzulegen.

Unseriös:

Deine Töne beginnen mit einer Art "Muak", so ein Hineinquaken in den Ton wie bei einem Blasinstrument, so dass jede Tonfolge klingt wie Muakiiir, Muakiiir (to be continued), immer gleich, nur in unterschiedlichen Schallfrequenzen...

Ein Klavier klingt im Bass "plong", dann Richtung Diskant "plöng", "pleng" und irgendwann "pling".

Ich fürchte zwar, dass Dir das nicht weiterhilft, aber die Klänge haben bislang wirklich keinen Klaviercharakter. Hast Du eine konkrete Vorstellung, was typisch ist für einen Klavierklang?
 
Also für mich klingt es (die Loreley-Beispiele) immer noch nach Kindertröte oder billiger Spielzeugorgel.
So richtige Fortschritte in Richtung echtem Klavierklang kann ich nicht ansatzweise hören.
Bin kein Programmierer oder sonstwas in der Richtung, aber vielleicht bist Du ja auf dem momentanen Pfad komplett auf einem Irrweg?
Möglicherweise wäre es sinnvoller, einen Schnitt zu machen und ganz neu beginnen?
 

Zurück
Top Bottom