Betonung von Synkopen und begriffliche Abgrenzung zu anderen Bindungen

A
Alex_S.
Dabei seit
17. Feb. 2021
Beiträge
150
Reaktionen
135
Immer genau auf dem Beat zu spielen ist Zeichen eines schlechten Musikers.
Du willst es nicht verstehen was andere sagen, kannst oder willst es selbst nicht erklären aber gerierst dich als Kenner. Schwierige Situation. Den Beat als Anker zu benutzen und genau auf den Beat zu spielen sind unterschiedliche Sachen. Es geht darum den Hörer dazu zu „zwingen“ die 2 und 4 zu schnipsen, also auf diese Zählzeiten zu fixieren.
 
D
DerOlf
Dabei seit
20. Feb. 2021
Beiträge
648
Reaktionen
303
Immer genau auf dem Beat zu spielen ist Zeichen eines schlechten Musikers.
Ich habe auch schon eine Menge Musiker kennen gelernt, die ich für "nicht so gut" hielt, weil sie mit "on top" echte Probleme hatten. Egal wie langsam man das mit denen gemacht hat, die Impulse waren immer forward oder laid back und höchstens aus Versehen mal genau drauf.

Es gibt allerdings sehr viel Musik, die von dieser "Schlunzigkeit" eigentlich eher profitiert, da es dadurch "natürlich" und "menschlich" klingt.

@tasteur
Computer können auch schlunzig (das Funktionspaar "Quantize" und "Humanize" ... Quantize zwingt die Noten ins programmierte Raster ... Humanize bringt wieder etwas "menschliche Ungenauigkeit" hinein).

Wie genau es ein PC eigentlich gerne hätte, könnt ihr selbst ausprobieren ... einfach mal in ein Notationsprogramm über ein MIDI-Keyboard eine kurze line einspielen, und sehen, was der Computer aus den Vierteln, Achteln und Sechzehnteln macht, von denen ihr glaubtet, ihr hättet sie "exakt" gespielt ... der Computer wird für die Notation noch sehr viel kleinere Notenwerte brauchen, und das Stück ist sehr wahrscheinlich anhand dieses Notenbildes kaum wieder zu erkennen.

Menschen sind meist weit von "perfekt" (im Sinne des PC-Zeitgebers) entfernt ... und das ist auch sehr gut so, denn das unterscheidet menschliche Musiker von Sequenzern ... Erstere sind halt keine Maschinen., und anders als diese in der Lage, "Zeit" auch mal subjektiv wahrzunehmen und darzustellen.
Dafür haben Computer weit weniger Probleme mit "4 über 5" oder "3 über 7", denn ein Computer muss das nicht in ein Raster aus Zweierpotenzen (2, 4, 8, 16 etc.) einordnen, sondern kann einen Notenwert auch mal durch 20 oder 21 teilen und so ein Raster generieren, mit dem beides kein Problem darstellt. Das ist dann mathematisch exaktes "4 über 5" (bzw. "3 über 7").
Menschlich klingts dadurch trotzdem nicht aber es kann helfen, wenn man sich so garnicht vorstellen kann, wie sowas klingt.

Am ende sollte es nach Musik klingen ... und wenn mir (oder anderen) ein bisschen Mathematik dabei helfen kann, dann sollte man das nicht als unmusikalisch abtun, sondern es einfach nutzen ... dass es damit für "Musik" nicht getan ist, ist ohnehin klar.
Das Prnizip "Imitation" funktioniert nur, solange jemand da ist, der es vormacht (ich gebe meinen Schülern gerne Materialien, mit denen sie auch sinnvoll arbeiten können, wenn ich nicht da bin, um es vorzumachen).

Es geht erstmal nur um ein Verständnis der rhythmischen Konzepte und es wäre dumm, dafür nicht etwas zu nutzen, was jeder Schüler je nach Alter aus der Schule bereits kennt (auch wenn das ab ca. Klasse 5 bedeutet "ihhh ... das ist ja Mathe").
Den Schüler da abholen, wo er selbst gerade steht, ist mMn weit leistungsfähiger, als ihn in den Wald zu stellen, und ihm zu sagen "das musst du fühlen (weil ich es nicht erklären kann oder will)".
 
Zuletzt bearbeitet:
A
Alex_S.
Dabei seit
17. Feb. 2021
Beiträge
150
Reaktionen
135
Ich habe auch schon eine Menge Musiker kennen gelernt, die ich für "nicht so gut" hielt, weil sie mit "on top" echte Probleme hatten. Egal wie langsam man das mit denen gemacht hat, die Impulse waren immer forward oder laid back und höchstens aus Versehen mal genau drauf.
In jedem guten Witz steckt auch ein Stück Wahrheit:
Bassist zum Schlagzeuger: „was ist eigentlich eine Synkope?“
Schlagzeuger: „Deine Eins“
 
T
tasteur
Dabei seit
13. Sep. 2017
Beiträge
412
Reaktionen
171
Hahaha, Ihr seid schon echt lustig... es müssen alle Zählzeiten, allen voran die 1 (!), "präzise eingehalten" werden - allerdings bedeutet das nicht, dass diese notwendigerweise auch genau verklanglicht werden. Jeder Musiker muss den Beat sehr präzise in sich durchlaufend fühlen
Ich will es das nächste mal als Ausrede probieren in der nächsten Stunde: "Das war kein Rhythmusfehler, den Beat hab ich genau gefühlt. Die Motorik ist schuld!" Was durchaus stimmt, denn sobald ich ein Stück verinnerlicht habe, macht es irgendwann klick und die Rhythmusfehler, die sich mindestens einer von uns, der KL und/oder ich, wechselweise zuhauf einbildet, sind passé.
Computer können auch schlunzig (das Funktionspaar "Quantize" und "Humanize" ... Quantize zwingt die Noten ins programmierte Raster ... Humanize bringt wieder etwas "menschliche Ungenauigkeit" hinein).
Schlunzig kann ich auch, gute Musik kommt da bestimmt trotzdem nicht raus. Klar kann man alle Ordnung zufallsgenerator-basiert "natürlicher" machen. Jitter wirkt aber langweilig und ab einem gewissen Grad falsch. Wann es kippt, ist von Hörer zu Hörer sicher verschieden.

So wie ich die anderen professionellen Musiker verstehe, ist genau diese zufällige Beliebigkeit nicht gemeint. Sondern die gefühlsbedingten Abweichungen vom notierten Rhythmus sollten schon insgesamt genau kontrolliert und bewusst eingesetzt sein, sich entsprechend der musikalischen Aussage kontinuierlich auf- und abbauen.

Ob es eine Software auf dem Markt gibt, die das bei vertretbarem Aufwand anbietet, keine Ahnung. Um ein solches Feature zielführend zu nutzen, braucht der Programmierer nicht nur selber musikalisches Gefühl, sondern muss auch in der Lage sein, sein Gefühl zu reflektieren. Was fast unmöglich ist. Versuch mal, einen Schritt zu machen und dabei jeden einzelnen Muskel bewusst zu steuern. Geht nicht ohne dass man sich selber blockiert.
 
Zuletzt bearbeitet:
D
DerOlf
Dabei seit
20. Feb. 2021
Beiträge
648
Reaktionen
303
Ob es eine Software auf dem Markt gibt, die das bei vertretbarem Aufwand anbietet, keine Ahnung
Simple Antwort: Nein.

Es gibt aber seit langem die Möglichkeit, eine Tempospur so zu automatisieren, dass sie nicht bei exakt 120 BPM läuft, sondern um diesen Wert herum schwankt. Das ist ein Mordsaufwand, kommt aber einem Menschen schon recht nahe (denn die haben eben kein eingebautes Metronom). Und eine editierte (also rein computergenerierte) Line klingt danach noch immer maschinell (nur eben nicht gleichmäßig ... stell dir vor, eine Waschmaschine eiert leicht).

Durch "hunamize" wird es nicht gleich menschlich, aber das maschinelle ist nicht mehr ganz so auffällig.
Wie genau das ereicht wird (technisch-mathematisch), weiß ich aber auch nicht so richtig.
Zufallsgeneratoren generieren nebenbei alles, aber keinen Zufall :lol:
"Wahrscheinlichkeit und Wissenschaft" - George Spencer-Brown.

Allerdings ist humanitze auch nicht dazu gedacht, eine Maschine klingen zu lassen, als wäre es ein Mensch.
Das Quantisieren ist ursprünglich dazu gedacht, z.B. bei einem über MIDI angesteuerten Notationsprogramm die Ungenauigkeiten eines Menschen auszubügeln ... also dafür zu sorgen, dass dort wo eine Achtel gespielt wurde, dann auch im Notentext eine Achtel steht (und zwar exakt auf der passenden Zählzeit ... statt nur in der nähe und mit absolut unsinnig kleinen Notenwerten notiert).
So macht natürlich kein Mensch Musik ... und wenn man sich ein so "geradegerücktes" Stück über MIDI-instrumente wiedergeben lässt, dann klingt das eben auch sehr künstlich.
Und um das wieder etwas auszubügeln, wurde neben "quantize" eben auch noch "humanize" entwickelt (und das ist schon eine ganze Weile her).

Es ging dabei darum, etwas Computergeneriertes, dass mathematisch exakt sein muss (Noten), und daher nicht anders klingen kann, als maschinell, wenn es nicht von einem Menschen interpretiert wird, wieder etwas zu beleben.
Meiner Meinung nach hat das einigermaßen geklappt ... Ich erwarte aber auch von einer Maschine nicht, dass sie klingt, wie ein Mensch. Ich benutze Maschinen, um maschinelle Elemente in der Musik zu haben, wenn die für mich da reingehören.
Ich merke aber, dass eine humanisierte MIDI-Spur sich weit besser in von Menschen eingespielte Spuren eingliedern lässt ... es klingt insgesamt für meine Ohren harmonischer. Bei rein maschineller Musik spare ich mir das meist.
 
Zuletzt bearbeitet:
D
DerOlf
Dabei seit
20. Feb. 2021
Beiträge
648
Reaktionen
303
Was fast unmöglich ist. Versuch mal, einen Schritt zu machen und dabei jeden einzelnen Muskel bewusst zu steuern. Geht nicht ohne dass man sich selber blockiert.
Wenn du Musik am PC editierst, darfst du ruhig mal stolpern. und wenn du verkrampfst, hast du deswegen nicht gleich verloren.
Aber du musst halt einige Zeit investieren, bis das "annehmbar" klingt.
Das beste daran ist aber wohl, dass es dir hilft, Musik in all ihren "technischen" Facetten zu reflektieren.
Nur das Musikalische (Ausdruck, Feeing u.v.m.), das geht halt nur beim Musizieren.
 
Zuletzt bearbeitet:
hasenbein
hasenbein
Dabei seit
13. Mai 2010
Beiträge
9.120
Reaktionen
8.480
Das Ding ist, dass die Abweichungen vom "Maschinellen", die ein Mensch produziert, eben NICHT "zufällig" sind.

Sondern WIE genau die Abweichungen ausfallen, ist Teil des persönlichen Stils, der künstlerischen Aussage, und trägt dazu bei, dass wir eine Performance als beispielsweise besonders groovig, ausdrucksvoll, schlüssig oder emotional ansprechend erleben.

Natürlich gibt es AUCH zufällige Abweichungen - diese sind dann aber lediglich Zeichen, dass der Spieler es nicht ausreichend drauf hat.
 
Dromeus
Dromeus
Dabei seit
23. März 2021
Beiträge
262
Reaktionen
204
Natürlich gibt es AUCH zufällige Abweichungen - diese sind dann aber lediglich Zeichen, dass der Spieler es nicht ausreichend drauf hat.
Jetzt komm aber, natürlich gibt es ständig UNGEWOLLTE zufällige Abweichungen, das macht eben auch den Unterschied zwischen Mensch und Maschine aus. Auch bei Spielern die es wirklich drauf haben, so wie du :012:.
 
A
Alex_S.
Dabei seit
17. Feb. 2021
Beiträge
150
Reaktionen
135
Ob es eine Software auf dem Markt gibt, die das bei vertretbarem Aufwand anbietet, keine Ahnung. Um ein solches Feature zielführend zu nutzen, braucht der Programmierer nicht nur selber musikalisches Gefühl, sondern muss auch in der Lage sein, sein Gefühl zu reflektieren. Was fast unmöglich ist.
So etwas ähnliches gibt es. Z.B. mit Recycle oder den Nachfolgern von Propellerheads oder Ableton kann man ein Rhythmuspattern oder ein ganzes Stück samplen und das Mikrotiming des gesampleten Stückes dann mit anderen Instrumenten/Tönen benutzen, ganz oder teilweise.
 
Triangulum
Triangulum
Dabei seit
29. Dez. 2020
Beiträge
519
Reaktionen
438
Jetzt komm aber, natürlich gibt es ständig UNGEWOLLTE zufällige Abweichungen, das macht eben auch den Unterschied zwischen Mensch und Maschine aus. Auch bei Spielern die es wirklich drauf haben, so wie du :012:.
Diese Abweichungen erlauben es u.U. einen Pianisten zweimal mit demselben Programm zu hören. Es lässt sich dann - selbst, wenn man auf demselben Platz sitzt - eine Tagesform (oder wie man es auch immer nennen will) erkennen. Ich glaube, man kann noch so gut sein - eine pianistische Reproduktion des Erlernten ist in der Wiederholung nie zu 100% identisch.
Unvorhersehbarer Zufall lässt sich übrigens wunderbar über MonteCarlo-Routinen am Rechner programmieren (habe ich vor Jahrzehnten intensiv in einem anderen Zusammenhang einsetzen müssen).
 
T
tasteur
Dabei seit
13. Sep. 2017
Beiträge
412
Reaktionen
171
Nur das Musikalische (Ausdruck, Feeing u.v.m.), das geht halt nur beim Musizieren.
Zumindest fehlt mir die nötige musikalische Praxis, um den Wahrheitsgehalt dieser Aussage beurteilen zu können. Allein, ich habe von Computern genug Ahnung, wie offenbar du, zu behaupten, dass Ausrechnen eben doch möglich ist, fragt sich halt mit welchem Detailgrad und investablen Aufwand.

Allerdings führt diese Diskussion um Ausrechenbarkeit des Rhythmus mit seinen natürlichen arhythmischen Anteilen vom vom Thema weg. Können wir uns darauf einigen: Es gibt einen Rhythmus, den die Noten wiedergeben. Es gibt teils für den jeweiligen Stil charakteristische wiederkehrende, mehr oder weniger regelmäßige Abweichungen von diesem Rhythmus, die ein Musiker geschickt einsetzt, um die Aussage des Stücks zu transportieren, natürlich auch mit mikrodynamischer und agogischer Klanggestaltung. Und dann gibt es noch Fehler, aus deren Häufigkeit und Stärke man auf die Stufe des handwerklichen Könnens oder besser gesagt Nichtkönnens des Musikers schließen kann.

Wenn man etwas ausrechnen kann, ist es das, was man aus den Noten lesen kann. Und wenn in den Noten steht Swing, dann swing ich. Wenn ich ein Achtelpaar habe, dann sag ich der Maschine, mach ne Quintole aus zwei Noten im Längenverhältnis von 3:2, und wenn ich noch ein Achtelpaar hab, dann sag ich für dieses 31:19, also eine 50tole sozusagen, und so weiter. Das Programm muss daran noch genug rechnen, dass mein Anteil daran, irgendwelche passenden Werte festzulegen, eher gering ist.
 
Zuletzt bearbeitet:

Häretiker
Häretiker
Dabei seit
11. Nov. 2014
Beiträge
4.043
Reaktionen
4.456
Das Problem ist, dass Dinge, die der Computer kann und Dinge, die der Mensch wahr nimmt, nicht sonderlich gut in den Parametern überein stimmen.

Wie sage ich einem Synth, er solle ein Pad wärmer machen?
Wie sage ich der DAW, dass an dieser Stelle die Klarinette 'molto cantabile' spielen soll?
Wie sage ich der DAW, dass ich die Leittöne gerne etwas schärfer intoniert haben möchte?
Wie sage ich, dass diese Stelle dramatischer klingen soll?
Klar, kann man alles in mühsamer Kleinarbeit (vielleicht) einstellen. Aber das ist dann Aufwand.

Der Computeraffine meint, das kann man alles einstellen.
Der Musiker meint, das muss man spüren.
Da prallen Welten aufeinander.

Grüße
Häretiker
 
hasenbein
hasenbein
Dabei seit
13. Mai 2010
Beiträge
9.120
Reaktionen
8.480
Ich bin ein computeraffiner Musiker.

Und sage, diese beiden Bereiche muss man trennen. So toll und interessant die Möglichkeiten des Computers auch sind - bestimmte Dinge kann und sollte man nicht computerisieren oder auch nur "mechanisieren".

Vor den 70er-80er Jahren hatten die Musiker nicht mal genaue elektronische Metronome, sondern höchstens diese eierigen mechanischen, die sich nur zum Abnehmen eines Tempos eigneten - "trotzdem" lernten sie im Tempo zu spielen und wahnsinnig zu grooven (oder vielleicht... deswegen??)
 
D
DerOlf
Dabei seit
20. Feb. 2021
Beiträge
648
Reaktionen
303
Der Computeraffine meint, das kann man alles einstellen.
Der Musiker meint, das muss man spüren.
Der Musiker reagiert auf die Anweisungen "dramatischer", "weicher" oder auf "molto cantabile".
Der Computer braucht für all das physikalische Parameter, denn der kann mit den Begriffen nichts anfangen, die der Mensch aufgrund kultureller Involviertheit, technischem können und Erfahrung "richtig" interpretieren kann.

Der PC versteht nur Zahlen ... und natürlich bedeutet es einen großen Aufwand, komplexe und kulturell geprägte Begriffe zu quantisieren (in Zahlen zu übersetzen) ... aber auch hier können dem Programmierer seine Erfahrung (als Musiker und am PC bzw. mit der eingesetzten Software) dabei helfen, die Parameter so zu modifizieren, dass der Synth eben "weicher" klingt (ich würde es zunächst mal mit einer Modifikation der Hüllkurve(n) versuchen ... gleiches gilt für die "schärferen Leittöne").

Die in den letzten 30 Jahren extrem weiterentwickelte Analyse-Technologie (z.B bei der Formantenanalyse) sowie die immer besser einstellbaren Hüllkurvengeneratoren und Filter helfen dabei.
Ich habe neulich erst mit unserem Gitaristen einige overdubs gemacht ... dabei ging die E-Gitarre direkt in die Soundkarte (klingt normalerweise grottig), aber durch Verstärker-, Effekt- und Laurtsprecheremulationen, hat er daraus dann einen Sound gebastelt, der dem im Proberaum um nichts nachsteht (da spielt er einen 100w Marshall aus den 70ern mit ausgelatschter 4x12"-Box und drei verschiedenen Verzerrern (2x Röhre, 1x Transistor). Sowohl clean, als auch die drei Zerren klingen bei den overdubs sehr nah am Original (den exakt selben Klang will man bei overdubs eh nicht haben).

Eigentlich bin ich auch ein Freund von "nach dem Schlussakkord ist die Musik tot", aber im Zuge der Musikproduktion habe ich Computer aufgrund ihrer Möglichkeiten sehr schätzen gelernt.
Ich würde aber dennoch dazu neigen, eine Line, die "noch nicht ganz so kling, wie es soll" einfach ein weiteres Mal einzuspielen ... das ist nämlich um einiges einfacher, als den gleichen Efekt über Parametermanipulation herzustellen ... selbst wenn da jemand sitzt, der da so richtig viel Ahnung von hat und sehr schnell ist ... in der zeit, bis der fertig ist, kann ich die Line 10 mal neu einspielen ... und da ist dann meist auch was passendes dabei (manchmal sogar was NOCH besseres).
Was das angeht, bin ich sehr pragmatisch ... ich setze mich nicht stundenlang an einen PC um etwas zu erreichen, was ich mit Instrument in der Hand auch in wenigen Minuten hinbekommen kann.

Also schließe ich mich @hasenbein mal an - man sollte das trennen, und den Computer primär für Dinge nutzen, die der eben besser kann, als ein Mensch (z.B. bei jeder Wiederholung gleich klingen oder eine komplexe Rhythmik in mörderischem Tempo auch mal 3 Stunden lang durchhalten ... OHNE dabei zu ermüden).
Das tollste ist aber wohl, dass Computer bzw. Maschinen auch Klägne produzieren können, die in der Natur so nicht vorkommen. Zum Beispiel "subharmonische" Klangfarben, bei denen die Oberton-Struktur "auf den Kopf gestellt" wird (gleiche Intervalle wie bei den natürlichen Partialtönen, nur eben abwärts ... also die Reihe c'''', c''', f'', c``, as', f' u.s.w.). Sowas gibt die Physik unserer Welt einfach nicht her.
Ich betrachte Maschinen als "zusätzliche" Instrumente ... und wie jedes Instrument, so hat auch dieses eben seine Möglichkeiten und UNmöglichkeiten ... die gehören dazu und machen es aus.
 
Zuletzt bearbeitet:
T
tasteur
Dabei seit
13. Sep. 2017
Beiträge
412
Reaktionen
171
Das ist im wesentlichen, worauf ich die ganze Zeit hinaus wollte: Ausrechnen lässt sich am Computer alles, unter der Bedingung, dass die Eingabedaten bereits numerisch oder zumindest logisch eindeutig numerisierbar sind. Und um nicht Numerisches zu numerisieren, braucht es halt den musikalisch gebildeten Menschen.

Aber wer musikalisch gebildet ist, tut sich wesentlich leichter, sein entsprechend trainiertes Kleinhirn anzuwenden und dem System einen fix und fertigen MIDI-Stream einzuspielen, worin alle rhythmischen Feinheiten und besondere Schmankerl bereits drin sind, als wie eine Tippse am Terminal Werte einzugeben, das Soll zu beschreiben, deklarativ zu programmieren.

Letztere Herangehensweise verlangt eine gewisse nerdige Ader, welche auszubilden allerdings den Tribut fordert, dass man nicht zugleich musikalisch adäquat gebildet sein kann. Symbolisches und Emotionales Lernen blockieren sich gegenseitig. Mein Versuch, zweigleisig zu fahren, ist verbunden mit der in Kauf genommenen Notwendigkeit, gewisse Abstriche bei beidem zu machen.

Es heißt also nicht, dass der Computer rhythmische Freiheiten nicht nutzen kann, sondern dass die Menschen, die es ihm beibringen könnten, Musik nicht in der nötigen Tiefe beherrschen, und umgekehrt Musiker nicht die nötigen Programmierkenntnisse haben, sich auch nicht damit beschäftigen wollen.
 
T
tasteur
Dabei seit
13. Sep. 2017
Beiträge
412
Reaktionen
171
Zurück zu den Synkopen. Habe zwei synthetische Einspielungen angehängt zum Vergleich für Interessierte.

Den Anhang entertainer-f2188e.mp3 betrachten
Den Anhang entertainer-f470f0.mp3 betrachten

Beide Fassungen sind aus derselben Übersetzung entstanden, die ich beispielhaft aus den Noten von Scott Joplins Entertainer (erste Seite) angefertigt habe – nur eben mit unterschiedlicher Umsetzung.

Die eine Fassung mit fälschlicherweise nachgeschleppter Metrik, die andere mit vorgezogener Metrik der Synkopen, die Ragtime-typisch die zweite und dritte Zählzeit in der rechten Hand verbinden. Oder war es umgekehrt? Bilde mir ein, die richtige rauszuhören, aber wer weiß, vielleicht nur weil ich mir die letztendlich berechneten Betonungswerte habe nebenbei als Zahlen ausgeben lassen und auch weiß, welche Fassung sich hinter dem jeweiligen Dateinamen verbirgt. ;-)

Sollte Ragtime üblicherweise mit Swing und sonstigen Feinheiten versehen werden, so hab ich Banause das unterschlagen. Es ging mir vor allem um die Synkopen und ich habe kein Problem damit, dass die Einspielung wahrscheinlich als »tot« empfunden wird. Ist halt eine Studie aus der digitalen Retorte und auch deshalb unvollständig und sicher auch fehlerbehaftet. Vollständig und richtig gibt es das auf Youtube aus tausend Händepaaren.


P.S. Kein Klavier, stimmt. Aber kein Klavier ist dafür selbstgebaut.
 
D
DerOlf
Dabei seit
20. Feb. 2021
Beiträge
648
Reaktionen
303
Bilde mir ein, die richtige rauszuhören, aber wer weiß, vielleicht nur weil ich mir die letztendlich berechneten Betonungswerte habe nebenbei als Zahlen ausgeben lassen und auch weiß, welche Fassung sich hinter dem jeweiligen Dateinamen verbirgt.
Das hilft natürlich ungemein :lol:
Mir fehlt beim Hören deiner Beispiele der Bezug, wahrscheinlich weil alles laidback oder forward gesetzt ist, diese beiden Dinger aber eben nur im Bezug zu "on top" wirklich auffallen. Eine ganze Spur einfach um wenige ms nach hinten zu verschieben ist eben noch nicht laidback sondern nur verschoben.
Sollte Ragtime üblicherweise mit Swing und sonstigen Feinheiten versehen werden, so hab ich Banause das unterschlagen.
Von "üblicherweise" weiß ich nichts.
Dass es bei fast jedem Stück irgendwie möglich ist, das zu verswingen, sollte klar sein.
Ist aber manchmal auch nicht sinnvoller, als jedem Klang grundsätzlich zwei Reiztöne zu geben ... nur 5-Klänge ist auf Dauer auch langweilig.

Den Puls beim Ragtime gibt mMn die linke Hand. Denke dabei an "Charleston", und du hast schon eine solide Basis für nicht ganz wenige Ragtimes. "Swing" hat da erstmal nicht viel drin zu suchen, auch wenn Ragtime natürlich eher "swingen" als "rocken" sollte.
Stell dir unter dem Entertainer einfach mal einen "Swing" von einem Drumcomputer vor ... klingt das für deine Ohren richtig? Möglich ist das sogar mit Stücken von Bach, aber das heißt eben nicht, dass es auch passt.
 
Zuletzt bearbeitet:
T
tasteur
Dabei seit
13. Sep. 2017
Beiträge
412
Reaktionen
171
Jo. Hätte ich im Voraus verraten, dass der erste Player die korrigierte Fassung ist und der zweite die falsche, wäre das versuchte Beeinflussung des Gerichts ...
Mir fehlt beim Hören deiner Beispiele der Bezug, wahrscheinlich weil alles laidback oder forward gesetzt ist, diese beiden Dinger aber eben nur im Bezug zu "on top" wirklich auffallen.
... aber wenn offenbar beides falsch ist, was die metrische Vorziehwirkung der Synkope betrifft, oder wenn ich den Rhythmus irgendwie anders verhau, sind die Beispiele ja so oder so für die Füße. Dir fehlt welcher Bezug, der Bezug worauf?

Ich habe jedenfalls geraden Rhythmus in beidem. Auch ein tauber Nerd könnte mithilfe eines Audioprogramms bestätigen, dass ab dem ersten Ton durchgängig neue Anschläge auf einem glatten Vielfachen von 6785 Abtastpunkten kommen. Also ist noch nicht mal irgendeine Agogik im Spiel, wirklich nur mechanischer Grundpuls, von dem hier behauptet wurde, ein Computer könne nur das. Insoweit hab ich diesem Vorurteil entsprochen, es soll ja um Synkopen gehen und die funktionieren auch straight.

Da fällt mir bestimmt irgendwann selber auf, warum du schwimmst. Kannste mir ja gern per PN nen Tipp geben, wenn du magst, denn hier wäre es nun wirklich off-topic.
 
 

Top Bottom