Live-Beaterkennung in Musik
Wie funktioniert eigentlich musikalische Beaterkennung? Ich habe einen Algorithmus entwickelt, um aus Live-Audio-Input ein "Metronom-artiges" Taktsignal (MIDI-Clock) zu erzeugen, das auch bei Tempowechseln noch mitkommt. Damit kann man z.B. Licht und Visuals zur Musik synchronisieren.
Der Algorithmus ist nicht auf ein bestimmtes Genre spezialisiert und arbeitet ohne Künstliche Dummheit.
Außerdem tauchen wir ein wenig in das Rabbithole "Python und Echtzeitverarbeitung" ab.
Der Algorithmus funktioniert unabhängig vom Genre der Musik und hat nur wenige "magische" Einstellparameter. Es ist ein traditioneller Algorithmus basierend auf guter alter Signalverarbeitung und Wahrscheinlichkeitsrechnung. Man kann zwischen Qualität und Rechenleistung abwägen und bei Bedarf live eingreifen, wenn er den Takt verloren hat.
Wir besprechen die Signalverarbeitung und das Bayes'sche Wahrscheinlichkeitsmodell hinter dem Algorithmus, und betrachten Verbesserungsmöglichkeiten sowohl am Algorithmus als auch an der Implementierung.
Außerdem erzähle ich, was ich über Python und Echtzeit gelernt habe, damit ihr es nicht müsst.
This work is licensed under CC BY-NC 4.0. To view a copy of this license, visit https://creativecommons.org/licenses/by-nc/4.0/