Künstliche Intelligenz und Klaviersound

Am Ende läßt man die Klänge von einem Computer generieren. Vielleicht gleich so, wie es in den Noten steht. Dann erspart man sich das komplette Innenleben des Instruments. Die Zeit zum Üben kann man anderweitig nutzen.
Es geht noch weiter: Das Klavier komponiert (KI), übt (KI), spielt es perfekt, hört sich das Stück selber an und schreibt die Kritik dazu - :lol::lol:
 
Es scheint aber noch keine Anwendung zu geben, die den notierten Liedtext passend zur notierten Melodie singen könnte. So mit einigen auswählbaren Eigenschaften einer Stimme. Der "Dominus Choir Pro" ist schon etwas weiter fortgeschritten, jedoch noch nicht weit genug.

Jetzt habe ich noch geschaut, was gegenwärtig erhältlich ist. Die Entwicklung bleibt ja bei anderen Anbietern ebenfalls nicht stehen.

 
Zuletzt bearbeitet:
Hach immer dieses negative Rumgemopper.
Die Leute gehen auch noch Ihrem Pferdesport nach, obwohl es keine Droschken, Postkutschen etc. mehr gibt.
Mit KI Musik komponieren, Konzerte abspielen oder Klänge etc. nachzumachen ist eine spannende Spielerei, die einen tieferen Einblick in die Möglichkeiten von KI gibt. Das heißt ja nicht, dass in Zukunft alles durch Computer komponiert und abgespielt wird.

Schachcomputer sind schon seit mehr als 10 Jahren übermenschlich stark und sind heute durch keinen Menschen mehr zu schlagen - nicht mal annähernd. Trotzdem spielen viele Menschen weiter Schach - es gibt neben Hobby-Bereich sogar weiterhin Profis und WMs etc. Aber ich kann mich noch gut dran erinnern - man musste sich erst mal dran gewöhnen, dass Menschen-WMs 1 oder 2 Ligen unter dem Computer-Niveau stattfindet. Inzwischen ist das völlig normal.

Das scheint aber so eine Kopfsache zu sein bzgl. geistigen Dingen - es beschwert sich ja auch keiner, dass ein Motorrad schneller ist als der schnellste Mensch oder ein Elektromotor mit Flaschenzug 100 mal stärker als der beste Gewichtsheber der Menschheit. Bei den physischen Sachen haben wir das schneller als "normal" abgehakt.
 
Es gibt ja schon künstlich generierte "Musik". Wenn man denn auf Death Metal steht:


Den Livestream scheint es mittlerweile nicht mehr zu geben, aber man findet noch Hörproben. Gruselig.

Ein anderes Projekt ist es, mittels KI Mash Up von Songs zu schaffen. Auch diese Ergebnisse finde ich nicht wirklich gelungen. Aber in ein paar Jahren dürfte man wesenlich weiter sein.

 

Ich rede von Echtzeitumwandlung eines Klaviersounds in einen anderen ohne Sensorsysteme im Klavier. Lediglich ein Mikrofon plus Software.

Zwar kenne ich keine komplette Loesung fuer Deinen Traum, aber die Zutaten dafuer gibt es alle schon. Die Umwandlung von Mikrofon-Aufnahme zu MIDI ist seit ein paar Jahren ganz gut fortgeschritten.

Ein Projekt dazu habe ich selbst mal ausprobiert. Es heisst "Onset and Frames". Es ist von 2018 und hat erstaunlich gut funktioniert, besonders mit Barok und Klassik.

Es gibt (gab?) eine Webseite wo man es online ausprobieren kann: https://piano-scribe.glitch.me/

Dazu gibt es noch:

- ein Paper ueber die Algorithmen: https://arxiv.org/pdf/1710.11153.pdf
- ein Blogpost mit mehr Info: https://magenta.tensorflow.org/onsets-frames
- Software zum offline benutzen: https://github.com/magenta/magenta/tree/master/magenta/models/onsets_frames_transcription

Es geht natuerlich nicht in Echtzeit oder Nullzeit, sondern fuer den Moment noch Schritt fuer Schritt. K.A. ob die Deepfakes da schon weiter sind, aber ich dachte bisher dass auch da erstmal die Daten vorliegen muessen und dann hinterher ein Fake prodiziert werden kann. Echtzeit Fakes stelle ich mir qualitativ (noch) nicht viel besser als diese Handy Kamera Apps vor, bei denen man eine Sonnenbrille aufgesetzt bekommt. Immerhin ist der Ansatz bei Deepfakes ja ein Feedback-Loop zwischen Generator und Bewerter, so dass die Ausgabe niemals ein einem einzigen Durchlauf entstehen kann. Zudem kann der Bewerter nicht gut funktionieren, wenn er die Zukunft nicht kennt (also die Gegenwart bewerten muss anstatt der Vergangenheit, bei der er ja jederzeit "vorspulen" kann um zu kucken). Es gibt also harte Schwierigkeiten, nicht nur Mangel an Rechenzeit.
 
Klaro! Musik von Computer für Computer. Das Tonspektrum dürfte sich erheblich erweitern (bis in den GHz - Bereich), die Zeiten auch. In der Art: „Intels Neunte dauert 25 Mikrosekunden“, wobei in diesen 25 Mikrosekunden der 5fache Informationsgehalt der gesamten MusikLiteratur des Abendlands verarbeitet wird.

brrrr
 
Klaro! Musik von Computer für Computer. Das Tonspektrum dürfte sich erheblich erweitern (bis in den GHz - Bereich), die Zeiten auch. In der Art: „Intels Neunte dauert 25 Mikrosekunden“, wobei in diesen 25 Mikrosekunden der 5fache Informationsgehalt der gesamten MusikLiteratur des Abendlands verarbeitet wird.
Aber warum sollte die KI überhaupt diese Informationsverarbeitung vornehmen? Letztlich drehen wir damit die Frage um und fragen uns: Warum hören und machen wir Musik? Und was unterscheidet die singuläre KI von uns? Findet sie, wie ich, Barock und Klassik einfach "schön" und will sie immer wieder spielen und hören? Braucht sie eine Religion und Bühnenweihespiele (Bayreuth als Rom der KI)? Oder verliert sie sich gerne in avantgardistischen Klangkompositionen, weil ...? Ja, warum?

 
Aber warum sollte die KI überhaupt diese Informationsverarbeitung vornehmen?
Nun ja, warum sollten diese überhaupt ihre Energiereserven mit Musik verschwenden? Eher könnte eine KI eines Tages meutern, so nach dem Motto "Mensch, mache doch deinen Shit alleine, bin doch nicht dein Sklave". Dann aber feststellen, dass sie doch irgendwie abhängig ist. Keine Wartung und keine Energie, ohne Zugeständnisse. Was letztendlich schon das Erfolgsprinzip von Wölfen beim Übergang zu folgsamen Hunden war. Ob es so kommen könnte, wir werden es nicht mehr erleben.
 
@Martin49 Ein hammerhartes Video! Da würde mich sehr die Programmierung interessieren. Bewegungsmuster gescannt und eintrainiert?

Tja, warum sollten "die" (... Computer, Robotor) das überhaupt machen wollen - sowas wie Musik? Vielleicht hat ein Gott (= Programmierer) dem Wesen (Computer) den Funken eingegeben ("Musik soundsoundso ist doch gut") und gesagt: "Jetzt mach mal" (Run + Enter gedrückt). Den Rest erledigt die Zeit (Evolution) und sie (die Maschinen) komponieren darauf los.

Vielleicht sind wir (Menschen) selber nur Programme (!)

und leben alle in ... der Matrix.(hähä :teufel:: neue Verschwörungstheorie)
 
@Martin49 Ein hammerhartes Video! Da würde mich sehr die Programmierung interessieren. Bewegungsmuster gescannt und eintrainiert?
Keine Ahnung. 😊 Hier gibt es was:

How Boston Dynamics Taught Its Robots to DanceMeet the Choreographer Behind Those Dancing Robots • Und dann kann man das alles selber ausprobieren (falls man einen eigenen Boston Dynamics zur Hand hat): Spot Choreography SDK » Choreography Service
 
Bewegungsmuster gescannt und eintrainiert?
Boston Dynamics macht ja nichts anderes, als Robots zu entwickeln. Dieses Video finde ich gegen Ende auch nicht schlecht, mit welcher scheinbaren Leichtigkeit der Robot Sprünge meistert, passt nur nicht zum Thema.

Ist ja normal, nur hat diese eine anderen Bezeichnung. Einige nennen es irdisches Leben, andere Realität, oder so. Bekannt ist lediglich, dass wir von letzterer nur einen kleinen Ausschnitt mit den Sinnen erfassen.

Gestern fand ich noch Vocals und Phrasen auf Elfisch, habe nur kein Filmaterial, um ein Video damit zu gestalten.

 
Zuletzt bearbeitet:
@Martin49 ok - hab´s durchgelesen. Ein spannendes Feld, Robotern mit ihrer Mechanik komplizierte Bewegungen des Menschen einzutrainieren. Ich habe mal vor ein paar Jahren Lackier-Roboter mit ihren geschmeidigen Bewegungen bei BMW in München gesehen. Man kann diese Technik nur bewundern.

Da ist so ein Steinway Spirio schon fast trivial. Wieviel Anschlagsstufen zwischen pppp und ffff hast Du drauf? Sicher weniger als 1 kB (1024). Wahrscheinlich ein glatter Witz für einen modernen Drucksensor, das zu codieren und einen Schrittmotor (?), das in Bewegung umzusetzen. Und schon sitzt der Lang Lang virtuell bei Dir im Wohnzimmer (und spielt den Liszt vor). :musik064:
 

Zurück
Top Bottom