Title:
Automatische Erzeugung von musikalischen Scratch-Effekten
Kind Code:
B4


Abstract:

Verfahren zur elektrischen Klangerzeugung, bei dem als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audiosignal (Sample) dient, welches anhand von Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen (beat) in Abhängigkeit einer musikalischen Tempoinformation in seiner Wiedergabeposition und/oder der Wiedergabe-Richtung und/oder der Wiedergabe-Geschwindigkeit moduliert wird.




Inventors:
Becker, Friedemann (Osterholz-Scharmbeck, 27711, DE)
Application Number:
DE10153673A
Publication Date:
04/07/2005
Filing Date:
09/05/2001
Assignee:
NATIVE INSTRUMENTS Software Synthesis GmbH (Berlin, 10997, DE)
International Classes:



Foreign References:
6011212
5763804
5627335
WO1997015043A1
WO1997001168A1
20010017829
20010017832
Other References:
US 2001/00 17 829 A1
US 2001/00 17 832 A1
Attorney, Agent or Firm:
Kewitz, A., Dipl.-Inform.Univ., Pat.-Anw. (Frankfurt)
Claims:
1. Verfahren zur elektrischen Klangerzeugung, bei dem als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audiosignal (Sample) dient, welches anhand von Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen (beat) in Abhängigkeit einer musikalischen Tempoinformation in seiner Wiedergabeposition und/oder der Wiedergabe-Richtung und/oder der Wiedergabe-Geschwindigkeit moduliert wird.

2. Verfahren zur elektrischen Klangerzeugung nach Anspruch 1, dadurch gekennzeichnet, dass auch die Wiedergabe-Lautstärke und/oder Klangcharakteristik rhythmusbezogen (beat) in Abhängigkeit der musikalischen Tempoinformation moduliert wird.

3. Verfahren zur elektrischen Klangerzeugung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als musikalische Tempoinformation das ermittelte Tempo des verwendeten Audiomaterials (Sample) dient.

4. Verfahren zur elektrischen Klangerzeugung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als musikalische Tempoinformation ein externes Referenz-Tempo dient.

5. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Steuerinformationen eine Art, eine Dauer und eine Geschwindigkeit der Modulation des Audiosignals umfassen.

6. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Steuerinformationen Bewegungsabläufe einer Schallplatte auf einem Plattenteller eines Schallplattenspielers repräsentieren und die automatische Modulation des Audiosignals derart erfolgt, dass ein musikalischer sogenannter Scratch-Effekt resultiert.

7. Verfahren zur elektrischen Klangerzeugung nach Anspruch 6, dadurch gekennzeichnet, dass zur Generierung von Steuerinformationen Bewegungsabläufe einer Schallplatte bei einem manuellen Scratch als zeitdiskrete Werte aufgezeichnet werden.

8. Verfahren zur elektrischen Klangerzeugung nach Anspruch 6, dadurch gekennzeichnet, dass zur Generierung von Steuerinformationen virtuelle Bewegungsabläufe einer Schallplatte für einen Scratch-Effekt in Form von zeitdiskreten Werten in einer vorgebbaren Auflösung konstruiert werden.

9. Verfahren zur elektrischen Klangerzeugung nach Anspruch 8, dadurch gekennzeichnet, dass die Generierung durch eine graphische Editierung erfolgt.

10. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche 5 bis 9, dadurch gekennzeichnet, dass die Steuerinformationen bezüglich der Art, Dauer und Geschwindigkeit der Modulation des Audiosignals die Art, Dauer und Geschwindigkeit eines Bewegungsablaufs einer Schallplatte für einen Scratch-Effekt repräsentieren.

11. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche 5 bis 10, dadurch gekennzeichnet, dass auch eine Beschleunigungsdauer (a) eines Bewegungsablaufs einer Schallplatte für einen Scratch-Effekt als zeitdiskreter Steuerwert ermittelt und zur Modulation des Audiosignals vorgegeben wird, wobei der Beschleunigungswert selbst modulierbar ist.

12. Verfahren zur elektrischen Klangerzeugung nach Anspruch 10 und/oder 11, dadurch gekennzeichnet, dass als Steuerwert für die Beschleunigung eine konstante Beschleunigung angenommen wird.

13. Verfahren zur elektrischen Klangerzeugung nach Anspruch 10 bis 12, dadurch gekennzeichnet, dass zur Erzeugung eines Steuerwertes für die Beschleunigung für einen Bewegungsablauf eines Scratch-Effekts ein Abbremsen und Beschleunigen der Schallplatte mit derselben Beschleunigung angenommen wird.

14. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass anhand von weiteren Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen (beat) in Abhängigkeit der musikalischen Tempoinformation ein abschnittweises Hervorheben bestimmter Passagen des Audiosignals (Sample) oder des Bewegungsablaufs erfolgt.

15. Verfahren zur elektrischen Klangerzeugung nach dem vorangehenden Anspruch, dadurch gekennzeichnet, dass ein entsprechendes rhythmisches Hervorheben durch Manipulation der Lautstärke oder der Klangcharakteristik erfolgt.

16. Verfahren zur elektrischen Klangerzeugung nach Anspruch 14 und/oder 15, dadurch gekennzeichnet, dass die weiteren Steuerinformationen ein Verhältnis von Aktivierungs- zu Unterdrückungsphasen der Hervorhebungen und/oder einen Versatz relativ zu einer Taktinformation und/oder eine Anzahl von Wiederholungen der Hervorhebungen umfassen.

17. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung einer musikalischen Tempoinformation eine Erkennung von Tempo und Phase einer in digitalem Format vorliegenden Musikinformation oder des Audiosignals nach den folgenden Verfahrensschritten erfolgt:
– näherungsweise Ermittlung des Tempos (A) der Musikinformation durch eine statistische Auswertung (STAT) der zeitlichen Abstände (Ti) rhythmusrelevanter Beat-Informationen in den digitalen Audiodaten (Ei),
– näherungsweise Ermittlung der Phase (P) des Musikstückes anhand der Lage der Takte in den digitalen Audiodaten im Zeitraster eines mit einer dem ermittelten Tempo proportionalen Frequenz schwingenden Referenz-Oszillators (MCLK),
– sukzessive Korrektur von ermitteltem Tempo (A) und Phase (P) der Musikinormation anhand einer möglichen Phasenverschiebung des Referenz-Oszillators (MCLK) relativ zu den digitalen Audiodaten durch Auswertung der resultierenden systematischen Phasenverschiebung und Regulierung der Frequenz des Referenz-Oszillators proportional der ermittelten Phasenverschiebung.

18. Verfahren zur elektrischen Klangerzeugung nach Anspruch 17, dadurch gekennzeichnet, dass rhythmusrelevante Beat-Informationen (Ti) durch Bandpassfilterung (F1, F2) der zugrunde liegenden digitalen Audiodaten in verschiedenen Frequenzbereichen gewonnen werden.

19. Verfahren zur elektrischen Klangerzeugung nach Anspruch 17 oder 18, dadurch gekennzeichnet, dass Rhythmusintervalle der Audiodaten im Bedarfsfall durch Multiplikation ihrer Frequenz mit 2er-Potenzen in eine vordefinierte Frequenz-Oktave transformiert (OKT) werden, wo diese Zeitintervalle (T1io...T3io) zur Tempoermittlung liefern.

20. Verfahren zur elektrischen Klangerzeugung nach Anspruch 19, dadurch gekennzeichnet, dass der Frequenz-Transformation (OKT) eine Gruppierung von Rhythmusintervallen (Ti), insbesondere in Paare (T2i) oder Dreiergruppen (T3i), durch Addition ihrer Zeitwerte vorausgeht.

21. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 17 bis 20, dadurch gekennzeichnet, dass die gewonnene Menge an Daten von Zeitintervallen (BPM1, BPM2) der rhythmusrelevanten Beat-Informationen auf Häufungspunkte (N) untersucht wird und die näherungsweise Tempoermittlung anhand der Informationen eines Häufungsmaximums erfolgt.

22. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 17 bis 21, dadurch gekennzeichnet, dass zur näherungsweisen Ermittlung der Phase (P) des Musikstückes die Phase des Referenz-Oszillators (MCLK) derart gewählt wird, dass sich die größtmögliche Übereinstimmung zwischen den rhythmusrelevanten Beat-Informationen in den digitalen Audiodaten und den Nulldurchgängen des Referenz-Oszillators (MCLK) einstellt.

23. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 17 bis 22, dadurch gekennzeichnet, dass eine sukzessive Korrektur (2, 3, 4, 5) von ermitteltem Tempo und Phase des Musikstückes in regelmäßigen Abständen in so kurzen Zeitintervallen erfolgt, dass resultierende Korrekturbewegungen und/oder Korrekturverschiebungen unterhalb der Hörbarkeitsgrenze bleiben.

24. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 17 bis 23, dadurch gekennzeichnet, dass alle sukzessiven Korrekturen von ermitteltem Tempo und Phase des Musikstückes über die Zeit akkumuliert (4) werden und darauf aufbauend weitere Korrekturen mit stetig steigender Präzision erfolgen.

25. Verfahren zur elektrischen Klangerzeugung nach Anspruch 24, dadurch gekennzeichnet, dass sukzessive Korrekturen solange erfolgen, bis ein vorgegebener tolerierbarer Fehlergrenzwert unterschritten wird.

26. Verfahren zur elektrischen Klangerzeugung nach Anspruch 25, dadurch gekennzeichnet, dass der Fehlergrenzwert kleiner als 0,1% ist.

27. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 17 bis 26, dadurch gekennzeichnet, dass für den Fall, dass die Korrekturen über einen vorgebbaren Zeitraum hinweg immer jeweils negativ oder positiv sind (6), eine erneute (RESET) näherungsweise Ermittlung von Tempo (A) und Phase (P) mit anschließender sukzessiver Korrektur (2, 3, 4, 5) erfolgt.

28. Interaktiver Musik-Abspieler, der
– ein Mittel zur graphischen Darstellung von mit einer Tempo- und Phasenerkennungsfunktion, insbesondere einer solchen nach einem der Ansprüche 17 bis 27, bestimmten Taktgrenzen eines in der Wiedergabe befindlichen Musikstückes in Echtzeit,
– ein erstes Steuerelement (R1) zum Wechsel zwischen einem ersten Modus (a), in dem das Musikstück mit einem konstanten Tempo abgespielt wird, und einem zweiten Modus (b), in dem die Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit beeinflussbar ist,
– ein zweites Steuerelement zur Vorgabe von Steuerinformationen, insbesondere von nach einem der Ansprüche 6 bis 14 bestimmten Steuerinformationen, zur Manipulation von Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit und
– ein drittes Steuerelement zum Auslösen der mit dem zweiten Steuerelement vorgegebenen automatischen Manipulation der Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit umfasst.

29. Interaktiver Musik-Abspieler nach Anspruch 28, mit
– einem Mittel zur graphischen Darstellung der aktuellen Abspielposition, mit dem eine Amplitudenhüllkurve der Klangwellenform des wiedergegebenen Musikstückes über einen vorgebbaren Zeitraum vor und nach der aktuellen Abspielposition darstellbar ist, wobei sich die Darstellung in Echtzeit mit dem Tempo der Wiedergabe des Musikstückes verschiebt, und mit
– einem Mittel zur Glättung (LP, SL) eines stufigen Verlaufs zeitlich begrenzter, mit dem zweiten Steuerelement (R2) vorgegebener Abspiel-Positionsdaten zu einem sich gleichmäßig mit einer der Audio-Abtastrate entsprechenden zeitlichen Auflösung ändernden Signal.

30. Interaktiver Musik-Abspieler nach Anspruch 29, wobei zur Glättung eines stufigen Verlaufs zeitlich begrenzter Abspiel-Positionsdaten ein Mittel zur Rampenglättung (SL) vorgesehen ist, durch das mit jeder vorgegebenen Abspiel-Positionsnachricht eine Rampe mit konstanter Steigung auslösbar ist, die in einem vorgebbaren Zeitintervall das geglättete Signal von seinem bisherigen Wert auf den Wert der Abspiel-Positionsnachricht fährt.

31. Interaktiver Musik-Abspieler nach Anspruch 30, wobei ein lineares digitales Tiefpaß-Filter (LP) oder ein Resonanzfilter zweiter Ordnung zur Glättung eines stufigen Verlaufs zeitlich begrenzter vorgegebener Abspiel-Positionsdaten dient.

32. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 28 bis 31, wobei im Fall eines Wechsels zwischen den Betriebsmodi (a, b) die im vorhergehenden Modus erreichte Position als Ausgangsposition im neuen Modus dient.

33. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 28 bis 32, wobei im Fall eines Wechsels zwischen den Betriebsmodi (a, b) die im vorhergehenden Modus erreichte aktuelle Abspielgeschwindigkeit (DIFF) durch eine Glättungsfunktion oder eine Rampenglättung (SL) oder ein lineares digitales Tiefpaß-Filter (LP), auf die dem neuen Modus entsprechende Abspielgeschwindigkeit führbar ist.

34. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 28 bis 33, wobei ein Audiosignal ein Scratch-Audio-Filter durchläuft, indem das Audiosignal einer Pre-Emphase-Filterung (PEF) unterzogen und in einem Pufferspeicher (B) abgelegt wird, aus dem es in Abhängigkeit von der jeweiligen Abspielgeschwindigkeit mit variablem Tempo auslesbar (R) ist, um anschließend einer De-Emphase-Filterung (DEF) unterzogen und wiedergegeben zu werden.

35. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 28 bis 34, wobei jeder wiedergegebene Audiodatenstrom durch Signalverarbeitungsmittel in Echtzeit oder durch Filtereinrichtungen und/oder Audioeffekte manipulierbar ist.

36. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 28 bis 35, wobei Echtzeiteingriffe über den zeitlichen Ablauf als digitale Steuerinformationen (MIX_DATA, insbesondere solche eines manuellen Scratch-Eingriffs mit einem separaten Steuerelement (R2) und/oder zusätzliche Signalverarbeitungen), speicherbar sind.

37. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 35 oder 36, wobei gespeicherte digitale Steuerinformationen ein Format aufweisen, das Informationen zur Identifikation der verarbeiteten Musikstücke und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpositionen und Zustandsinformationen der Stellglieder des Musik-Abspielers umfasst.

38. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 28 bis 37, der durch ein geeignet programmiertes, mit Audioschnittstellen ausgestattetes Computersystem realisiert ist.

39. Computerprogrammprodukt, das direkt in den internen Speicher eines digitalen Computers geladen werden kann und Softwareabschnitte umfasst, mit denen die Verfahrensschritte gemäß einem der Ansprüche 1 bis 27 ausgeführt werden, wenn das Programmprodukt auf einem Computer ausgeführt wird.

40. Datenträger (D), insbesondere Compact Disc, der
– einen ersten Datenbereich (D1) mit digitalen Audiodaten (AUDIO_DATA) eines oder mehrerer Musikstücke (TR1...TRn) und
– einen zweiten Datenbereich (D2) mit einer Steuerdatei (MIX_DATA) mit digitalen Steuerinformationen zur Ansteuerung eines Musik-Abspielers umfasst, insbesondere eines solchen nach einem der Ansprüche 28 bis 38, wobei
– die Steuerdaten (MIX_DATA) des zweiten Datenbe reichs (D2) auf Audiodaten (AUDIO_DATA) des ersten Datenbereichs (D1) Bezug nehmen.

41. Datenträger (D) nach Anspruch 40, wobei die digitalen Steuerinformationen (MIX_DATA) des zweiten Datenbereichs (D2) interaktive Aufzeichnungen von manuellen Scratch-Eingriffen und/oder Startpunkte und Art automatischer Scratch-Eingriffe in Musikstücke als ein neues Gesamtwerk der digitalen Audioinformationen (AUDIO_DATA) von Musikstücken des ersten Datenbereichs (D1) repräsentieren.

42. Datenträger (D) nach Anspruch 40 oder 41, wobei gespeicherte digitale Steuerinformationen (MIX_DATA) des zweiten Datenbereichs (D2) ein Format aufweisen, das Informationen zur Identifikation der verarbeiteten Musikstücke (TR1...TRn) des ersten Datenbereichs (D1) und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpositionen und Zustandsinformationen der Stellglieder des Musik-Abspielers umfasst.

43. Computerprogrammprodukt (PRG_DATA), das auf einem Datenträger (D) nach einem der Ansprüche 40 bis 42 angeordnet ist und direkt in den internen Speicher eines digitalen Computers geladen werden kann und Softwareabschnitte umfasst, mit denen dieser digitale Computer die Funktion eines Musik-Abspielers übernimmt, insbesondere eines solchen nach einem der Ansprüche 28 bis 37, mit dem entsprechend den Steuerdaten (MIX_DATA) des zweiten Datenbereichs (D2) des Datenträgers (D), die auf Audiodaten (AUDIO_DATA) des ersten Datenbereichs (D1) des Datenträgers (D) verweisen, ein durch die Steuerdaten (MIX_DATA) repräsentiertes Gesamtwerk abspielbar ist, wenn das Programmprodukt (PRG_DATA) auf einem Computer ausgeführt wird.

Description:

Die Erfindung betrifft ein Verfahren zur elektrischen Klangerzeugung und einen interaktiven Musikabspieler, bei dem als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audiosignal dient.

Der Beruf des Disk Jockeys (kurz: DJ) erfährt in der heutigen, durch moderne elektronische Musik geprägten Tanz-Kultur eine enorme technische Aufwertung. Zum Handwerk dieses Berufes gehört das Arrangieren der Musiktitel zu einem Gesamtwerk (dem Set, dem Mix) mit einem eigenen Spannungsbogen.

Im Vinyl-DJ-Bereich hat sich die Technik des Scratchens weitreichend etabliert. Es handelt sich dabei um eine Technik, bei der durch kombinierte Bewegung des Schallplatte mit der Hand und eines der Lautstärkeregler am Mischpult (sogenannter Fader) das Tonmaterial auf der Schallplatte zur rhythmischen Klangerzeugung genutzt wird. Große Meister des Scratchens tun dies auf zwei oder sogar drei Plattenspielern gleichzeitig, was die Fingerfertigkeit eines guten Schlagzeugers oder Pianospielers verlangt.

Zunehmend stoßen auch Hardware-Hersteller mit Effekt-Mischpulten in den Echtzeit-Effekt-Bereich vor. Es gibt auch schon DJ-Mischpulte, die Sample-Einheiten besitzen, mit welchen Teile des Audiosignals als Loop oder als One-Shot-Sample weiterverwendet werden können. Es gibt auch CD-Player, die mittels eines großen Jog-Wheels das Scratchen auf einer CD ermöglichen.

Es ist jedoch kein Gerät oder Verfahren bekannt, mit dem sowohl die Abspielposition eines digitalen Audiosignals, als auch der Lautstärkeverlauf oder andere Klangparameter dieses Signals automatisch so gesteuert werden können, dass dabei ein rhythmischer, taktgenauer "Scratch-Effekt" aus dem gerade zu hörenden Audio-Material erzeugt wird. Dies wäre jedoch wünschenswert, weil damit zum einen gelungene Scratch-Effekte reproduzierbar und zusätzlich auf anderes Audiomaterial übertragbar würden. Zum anderen könnte ein DJ so entlastet werden und seine Konzentration vermehrt anderen künstlerischen Dingen wie etwa der Zusammenstellung der Musikstücke widmen.

Aus der Druckschrift US 2001/0017829 A1 ist ein Verfahren bekannt, bei dem von einem ersten Musikstück der Beat ermittelt wird und von einem zweiten Musikstück, wobei das zweite Musikstück von seiner Geschwindigkeit so angepasst wird, dass die Anzahl der Gebiete pro Zeiteinheit beider Stücke übereinstimmen. Die Erkennung des Beates wird durch einen einfachen Algorithmus realisiert.

Aus den Patenten US 5 763 804 A und US 5 627 335 A und US 6 011 212 A ist eine Joystick bekannt, mit dem man die Geschwindigkeit und die Höhe des Pitches sowie die Beschleunigung manuell steuern kann.

Aus der WO 97/01168 A1 ist ein Verfahren bekannt, bei dem durch die Variation der Geschwindigkeit eines Plattenspielers die Geschwindigkeit der Ausgaben eines digitalen Wiedergabegerätes gesteuert werden kann. Hierbei werden optische Sensoren eingesetzt, die die Geschwindigkeit des Plattentellers messen und ebenfalls die Rotationsrichtung. Die so gewonnenen Informationen werden dann an das digitale Wiedergabegerät übermittelt.

Aus der WO 97/15043 A1 ist ein Gerät bekannt, das anhand von Rhythmussignalen und Pitchsignalen entsprechende Rhythmusblocks bzw. Musik-Tracks auswählt und diese mit dem entsprechenden Pitch zusammenfügt.

Aus der US 2001/0017832 A1 ist ein Verfahren zur Bestimmung des Tempos und des Keys bekannt. Weiterhin sind Mittel vorhanden, die eine variable Weite des Keys berechnen, um das Tempo zu variieren.

Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren sowie einen Musikabspieler zu schaffen, die eine automatische Erzeugung von musikalischen Scratch-Effekten ermöglichen.

Diese Aufgabe wird erfindungsgemäß jeweils durch die unabhängigen Patentansprüche gelöst.

Weitere vorteilhafte Ausgestaltungen sind in den abhängigen Patentansprüchen angegeben.

Vorteile und Details der Erfindung ergeben sich anhand der folgenden Beschreibung vorteilhafter Ausführungsbeispiele und in Verbindung mit den Figuren. Es zeigt in Prinzipdarstellung:

1 ein Zeit-Raum-Diagramm aller sich miteinander im Takt befindlichen Abspiel-Varianten eines mit Normalgeschwindigkeit wiedergegebenen Tracks als parallele Geraden der Steigung 1,

2 ein Detail-Ausschnitt des Zeit-Raum-Diagramms nach 1 zur Beschreibung der geometrischen Zusammenhänge eines Full-Stop-Scratch-Effekts,

3 einen Ausschnitt eines Zeit-Raum-Diagramms zur Beschreibung der geometrischen Zusammenhänge eines Back-and-For-Scratch-Effekts,

4 verschiedene mögliche Lautstärke-Hüllkurven zur Realisierung eines Gater-Effektes auf einen Back-and-For Scratch-Effekt,

5 ein Blockschaltbild eines interaktiven Musik-Abspielers gemäß der Erfindung mit Eingriffsmöglichkeit in eine aktuelle Abspielposition,

6 ein Blockschaltbild einer zusätzlichen Signalverarbeitungskette zur Realisierung eines Scratch-Audio-Filters gemäß der Erfindung,

7 ein Blockschaltbild zur Veranschaulichung der Gewinnung rhythmusrelevanter Informationen und deren Auswertung zur näherungsweisen Ermittlung von Tempo und Phase eines Musikdatenstroms,

8 ein weiteres Blockschaltbild zur sukzessiven Korrektur von ermitteltem Tempo und Phase und

9 einen Datenträger, der Audiodaten und Steuerdateien zur Reproduktion von aus den Audiodaten gemäß der Erfindung erstellten Scratch-Effekten oder Gesamtwerken vereint.

Zum Abspielen von vorproduzierter Musik werden herkömmlicherweise verschiedenartige Geräte für verschiedene Speichermedien wie Schallplatte, Kompakt Disk oder Kassette verwendet. Diese Formate wurden nicht dafür entwickelt, in den Abspielprozess einzugreifen, um die Musik damit auf kreative Art zu bearbeiten. Diese Möglichkeit ist aber wünschenswert, und wird heutzutage trotz der gegebenen Einschränkungen von den genannten DJ's praktiziert. Dabei werden bevorzugt Vinyl-Schallplatten verwendet, weil man dort am leichtesten mit der Hand die Abspielgeschwindigkeit und -position beeinflussen kann.

Heute werden aber überwiegend digitale Formate wie Audio CD und MP3 zum Speichern von Musik verwendet. Bei MP3 handelt es sich um ein Kompressionsverfahren für digitale Audiodaten nach dem MPEG-Standard (MPEG 1 Layer 3). Das Verfahren ist asymmetrisch, d.h. die Codierung ist sehr viel aufwendiger als die Decodierung. Ferner handelt es sich um ein verlustbehaftetes Verfahren. Die vorliegende Erfindung ermöglicht nun den genannten kreativen Umgang mit Musik auf beliebigen digitalen Formaten durch einen geeigneten interaktiven Musik-Abspieler, der von den durch die vorangehend dargestellten erfindungsgemäßen Maßnahmen geschaffenen neuen Möglichkeiten Gebrauch macht.

Dabei besteht das prinzipielle Bedürfnis, möglichst viel hilfreiche Information in der grafischen Darstellung haben, um gezielt eingreifen zu können. Außerdem möchte man ergonomisch in den Abspielvorgang eingreifen können, auf vergleichbare Art mit dem von DJ's häufig praktizierten "Scratching" auf Vinylplattenspielern, wobei der Plattenteller während der Wiedergabe angehalten und vorwärts sowie rückwärts bewegt wird.

Um gezielt Eingreifen zu können, ist es wichtig, eine grafische Repräsentation der Musik zu haben, in der man die aktuelle Abspielposition erkennt und auch einen gewissen Zeitraum in der Zukunft und in der Vergangenheit erkennt. Dazu stellt man üblicherweise die Amplitudenhüllkurve der Klangwellenform über einen Zeitraum von mehreren Sekunden vor und nach der Abspielposition dar. Die Darstellung verschiebt sich in Echtzeit in der Geschwindigkeit, in der die Musik spielt.

Prinzipiell möchte man möglichst viel hilfreiche Information in der grafischen Darstellung haben, um gezielt eingreifen zu können. Außerdem möchte man möglichst ergonomisch in den Abspielvorgang eingreifen können, auf vergleichbare Art zum sogenannten "Scratching" auf Vinylplattenspielern. Der Begriff "Scratching" bezeichnet dabei das Anhalten und vorwärts oder rückwärts Bewegen des Plattentellers während der Wiedergabe.

Bei dem durch die Erfindung geschaffenen interaktiven Musik-Abspieler können nun musikalisch relevante Zeitpunkte, insbesondere die Taktschläge, mit der an späterer Stelle (7 und 8) erläuterten Takterkennungsfunktion aus dem Audiosignal extrahiert und als Markierungen in der grafischen Darstellung angezeigt werden, z.B. auf einem Display oder auf einem Bildschirm eines digitalen Computers, auf dem der Musik-Abspieler durch eine geeignete Programmierung realisiert ist.

Weiter ist ein Steuerelement R1 vorgesehen, z.B. ein Knopf, insbesondere der Mausknopf, mit dem man zwischen zwei Betriebsarten umschaltet:

  • a) Musik läuft frei, mit konstantem Tempo,
  • b) Abspielposition und -geschwindigkeit wird vom Anwender direkt oder automatisch beeinflusst.

Der Modus a) entspricht einer Vinylplatte, die man nicht anfasst und deren Geschwindigkeit gleich der des Plattentellers ist. Der Modus b) hingegen entspricht einer Vinylplatte, die man mit der Hand anhält und hin- und herschiebt.

In einer vorteilhaften Ausführungsform eines interaktiven Musik-Abspielers wird die Abspielgeschwindigkeit in Modus a) weiter beeinflusst durch die automatische Steuerung zur Synchronisierung des Takts der abgespielten Musik zu einem anderen Takt (vgl. 7 und 8). Der andere Takt kann synthetisch erzeugt oder von einer anderen gleichzeitig spielenden Musik gegeben sein.

Außerdem ist ein weiteres Hardware-Steuerelement R2 vorgesehen, mit dem man im Modus b) quasi die Plattenposition bestimmt. Dies kann ein kontinuierlicher Regler, oder auch die Computermaus sein.

Die Darstellung nach 5 zeigt ein Blockschaltbild einer solchen Anordnung mit den im folgenden erläuterten Signalverarbeitungsmitteln, mit denen ein interaktiver Musik-Abspieler gemäß der Erfindung mit Eingriffsmöglichkeit in eine aktuelle Abspielposition geschaffen wird.

Die mit diesem weiteren Steuerelement R2 vorgegebenen Positionsdaten haben üblicherweise eine begrenzte zeitliche Auflösung, d.h. es wird nur in regelmäßigen oder unregelmäßigen Abständen eine Nachricht geschickt, die die aktuelle Position übermittelt. Die Abspielposition des gespeicherten Audiosignals soll sich aber gleichmäßig ändern, mit einer zeitlichen Auflösung, die der Audio-Abtastrate entspricht. Deshalb verwendet die Erfindung an dieser Stelle eine Glättungsfunktion, die aus dem mit dem Steuerelement R2 vorgegebenen stufigen Signal ein hochaufgelöstes, gleichmäßig sich änderndes Signal erzeugt.

Eine Methode hierzu besteht darin, mit jeder vorgegebenen Positionsnachricht eine Rampe mit konstanter Steigung auszulösen, die in einer vorgegebenen Zeit das geglättete Signal von seinem alten Wert auf den Wert der Positionsnachricht fährt. Eine weitere Möglichkeit ist, die stufige Wellenform in einen linearen digitalen Tiefpaß-Filter LP zu schicken, dessen Ausgang das gewünschte geglättete Signal darstellt. Dafür eignet sich besonders ein 2-Pol Resonanzfilter. Eine Kombination (Reihenschaltung) der beiden Glättungen ist auch möglich und vorteilhaft und ermöglicht folgende vorteilhafte Signalverarbeitungskette:
vorgegebenes Stufensignal → Rampenglättung → Tiefpassfilter → exakte Abspielposition
oder
vorgegebenes Stufensignal → Tiefpassfilter → Rampenglättung → exakte Abspielposition

Das Blockschaltbild nach 5 veranschaulicht die an einem vorteilhaften Ausführungsbeispiel in Form einer Prinzipskizze. Das Steuerelement R1 (hier ein Taster) dient zum Wechsel der Betriebsmodi a) und b), indem dieser einen Schalter SW1 triggert. Das Steuerelement R2, der auch als ein kontinuierlicher Schieberegler ausgebildet sein kann, liefert die Positionsinformation mit zeitlich begrenzter Auflösung. Diese dient einem Tiefpaß-Filter LP zur Glättung als Eingangssignal. Das geglättete Positionssignal wird nun differenziert (DIFF) und liefert die Abspielgeschwindigkeit. Der Schalter SW1 wird mit diesem Signal an einem ersten Eingang IN1 angesteuert (Modus b). Der andere Eingang IN2 wird mit einem Tempowert A, der wie in 7 und 8 beschrieben ermittelt werden kann, beaufschlagt (Modus a). Über das Steuerelement R1 erfolgt der Wechsel zwischen den Eingangssignalen.

Außerdem können über ein drittes Steuerelement (nicht gezeigt) die im vorangehenden beschriebenen Steuerinformationen zur automatischen Manipulation von Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit vorgegeben werden. Ein weiteres Steuerelement dient dann zum Auslösen der mit dem dritten Steuerelement vorgegebenen automatischen Manipulation der Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit.

Wenn man vom einen in den anderen Modus wechselt (entspricht dem Festhalten und Loslassen des Plattentellers), darf die Position nicht springen. Aus diesem Grund übernimmt der vorgeschlagene interaktive Musik-Abspieler die im vorhergehenden Modus erreichte Position als Ausgangsposition im neuen Modus. Ebenso soll die Abspielgeschwindigkeit (1. Ableitung der Position) sich nicht Sprunghaft ändern. Deswegen übernimmt man auch die aktuelle Geschwindigkeit und führt sie durch eine Glättungsfunktion, wie oben beschrieben, zu der Geschwindigkeit, die dem neuen Modus entspricht. Nach 5 erfolgt dies durch einen Slew Limiter SL, der eine Rampe mit konstanter Steigung auslöst, die in einer vorgegebenen Zeit das Signal von seinem alten Wert auf den neuen Wert fährt. Dieses positions- bzw. geschwindigkeitsabhängige Signal steuert dann die eigentliche Abspieleinheit PLAY zur Wiedergabe des Audiotracks an, indem es die Abspielgeschwindigkeit beeinflusst.

Die komplizierten Bewegungsabläufe, bei denen die Schallplatte und der Crossfader in ganz präziser, dem Tempo angepasster Weise zusammenwirken müssen, sind nun dank der in 5 gezeigten Anordnung mit den entsprechenden Steuerelementen und eines an späterer Stelle näher beschriebenen Meta-File Formats automatisierbar. Durch eine Reihe von Voreinstellungen kann die Länge und Art des Scratches ausgewählt werden. Der tatsächliche Ablauf des Scratches wird durch das erfindungsgemäße Verfahren tempogenau gesteuert. Dabei werden die Bewegungsabläufe entweder zuvor bei einem echten Scratch aufgezeichnet oder sie werden in einem graphischen Editor "auf dem Reissbrett" entworfen.

Das automatisierte Scratch Modul bedient sich nun des vorangehend anhand von 5 beschriebenen sogenannten Scratch-Algorithmus.

Das voranstehend dargestellte Verfahren bedarf lediglich eines Parameters, nämlich der Position der Hand mit welcher die virtuelle Schallplatte bewegt wird (vgl. entsprechendes Steuerelement), und errechnet daraus mittels zweier Glättungsverfahren die aktuelle Abspielposition im Audio-Sample. Die Verwendung dieser Glättungsverfahren ist nicht von theoretischer Notwendigkeit sondern von technischer. Ohne seiner Verwendung wäre es für die unverfremdete Wiedergabe notwendig, die Berechnung der aktuellen Abspielposition in der Audio-Rate (44kHz) durchzuführen, was ein entscheidenden Mehrbedarf an Rechenleistung erfordern würde. Dank des Algorithmus kann die Abspielposition in sehr viel niedrigerer Rate berechnet werden (z.B. 344 Hz).

Im folgenden wird anhand der zwei einfachsten Scratch-Automationen erläutert, wie das erfindungsgemäße Verfahren zur automatischen Erzeugung von Scratch-Effekten funktioniert. Das gleich Verfahren kann aber auch auf viel komplexere Scratch-Abfolgen angewendet werden.

FULL STOP

Bei diesem Scratch handelt es sich um einen Effekt, bei dem die Schallplatte (entweder durch die Hand oder durch Bedienung der Stop-Taste des Plattenspielers) zum Stillstand gebracht wird. Nach einer gewissen Zeit wird die Schallplatte wieder losgelassen, bzw. der Motor wieder eingeschaltet. Nachdem die Schallplatte wieder auf ihre ursprüngliche Umdrehungsgeschwindigkeit gekommen ist, muss sie sich wieder im Takt zu dem "weitergedachten" Takt vor dem Scratch bzw. wieder im Takt zu einem zweiten, während des Full-Stops unangetasteten, Referenz-Takt befinden.

Zur Berechnung der Abbrems-, Stillstand- und Beschleunigungsphasen wurden folgende vereinfachende Annahmen gemacht. (Es sind jedoch auch komplexere Verläufe des Scratches ohne Aufwand zu berechnen):

  • – Sowohl Abbremsen als auch Beschleunigen erfolgen linear, d.h. mit konstanter Beschleunigung.
  • – Abbremsen und Beschleunigen erfolgen mit derselben Beschleunigung jedoch mit umgekehrtem Vorzeichen.

Die Darstellung gemäß 1 zeigt ein Zeit-Raum-Diagramm aller zueinander synchronen bzw. sich miteinander im Takt befindlichen Abspiel-Varianten eines mit Normalgeschwindigkeit wiedergegebenen Tracks. Die Dauer einer Viertelnote eines gegenwärtigen Tracks ist dabei mit beat bezeichnet.

Stellt man alle sich miteinander im Takt (beat) befindlichen Abspiel-Varianten eines mit Normalgeschwindigkeit wiedergegebenen Tracks als parallele Geraden der Steigung 1 in einem Zeit-Raum-Diagramm dar (X-Achse: Zeit t in [ms], Y-Achse Sample-Position SAMPLE in [ms]), so kann ein FULL STOP Scratch als Verbindungskurve (gestrichelte Linie) zwischen zwei der parallel gelegenen Abspiel-Geraden dargestellt werden. Der lineare Geschwindigkeitsübergang zwischen den Bewegungsphasen und der Stillstandsphase des Scratches stellt sich im Zeit-Raum-Diagramm als Parabel-Segment dar (lineare Geschwindigkeitsänderung = quadratische Positionsveränderung).

Einige geometrische Überlegungen anhand der in 1 gezeigten Darstellung ermöglichen nun die Dauer der verschiedenen Phasen (Abbremsen, Stillstand, Beschleunigen) so zu berechnen, dass nach Vollendung des Scratches die Abspielposition auf einer zur Ursprungs-Geraden parallelen und um ein ganzes Vielfaches einer Viertelnote (beat) versetzten Geraden zu liegen kommt, was das graphische Äquivalent zur oben aufgestellten Forderung nach taktgetreuer Wiederaufnahme der Bewegung darstellt. Dazu zeigt die 2 einen Ausschnitt von 1, an dem sich die folgenden mathematischen Überlegungen nachvollziehen lassen.

Sei die Dauer des Abbrems- und Beschleunigungsvorgangs ab, v die Geschwindigkeit, x die mit der Zeit t korrelierte Abspielposition und die Dauer einer Viertelnote des gegenwärtigen Tracks beat, dann berechnet sich die Dauer der einzuhaltenden Stillstandsphase c folgendermaßen: c = beat – ab.

Die Gesamtdauer T des Scratches beträgt T = beat + abund besteht also aus 3 Phasen:

Abbremsen von v = 1 auf v = 0: Dauer: ab Stillstand:Dauer: beat – abBeschleunigen von v = 0 auf v = 1: Dauer: ab(für ab <= beat)

Daraus ergibt sich, dass zunächst mit normaler Geschwindigkeit v = 1 verfahren wird, ehe dann ein lineares Abbremsen f(x) = –½ x2 erfolgt, was die Zeit ab dauert. Für die Dauer beat – ab besteht Stillstand v = 0, ehe ein lineares Beschleunigen f(x) = ½ x2 erfolgt, was wiederum die Zeit ab dauert. Danach wird wieder mit Normalgeschwindigkeit = 1 verfahren.

Die Dauer ab für das Abbremsen und das Beschleunigen wurde bewusst variabel gehalten, da man durch die Veränderung dieses Parameter entscheidend in den "Sound" (die Qualität) des Scratches eingreifen kann (siehe Voreinstellungen).

Wird die Stillstandsphase c um Vielfache von beat verlängert, kann man takt-synchrone Full-Stop-Scratches einer beliebigen Länge erzeugen.

BACK AND FOR

Bei diesem Scratch geht es darum, die virtuelle Schallplatte an einer Stelle tempo-synchron vorwärts und rückwärts zu bewegen und nach Beendigung des Scratches wieder im Takt mit dem Ursprungs- bzw. Referenz-Takt zu sein. Man kann sich wieder des gleichen Zeit-Raum-Diagramms aus 1 bedienen und diesen Scratch in seiner einfachsten Form Geschwindigkeit = +/–1; Frequenz = 1/beat,wie in der Darstellung gemäß 3 darstellen, die an 2 angelehnt ist. Natürlich sind auf diese Weise auch viel komplexere Bewegungsabläufe berechenbar.

Die Abbremsung von v = +1 auf v = –1 und umgekehrt bedarf nun der doppelten Dauer = 2·ab. Mit geometrischen Überlegungen kann die Dauer der Rückwärts-Lauf-Phase rü und der darauffolgenden Vorwärtslaufphase vo wie anhand von 3 nachvollziehbar ermittelt werden: rü = vo = 1/2·beat – 2ab.

Die Gesamtdauer T des Scratches beträgt diesmal genau T = beat und besteht aus vier Phasen:

Abbremsen vom v = 1 auf v = –1:Dauer: 2abRückwärtslauf:Dauer: 1/2·beat – 2abBeschleunigen von v = –1 auf v = 1:Dauer: 2abVorwärtslauf:Dauer: 1/2·beat – 2ab

Dieser Scratch kann beliebig oft wiederholt werden und kehrt immer wieder an die Start-Abspielposition zurück, die virtuelle Schallplatte bewegt sich im Ganzen nicht weiter. Das bedeutet also mit jeder Iteration eine Verschiebung um die Phase p = –beat gegenüber dem Referenztakt.

Auch in diesem Scratch bleibt die Dauer des Abbrems- und Beschleunigungsvorgangs ab variabel, da durch die Veränderung von ab die Charakteristik des Scratches stark verändert werden kann.

GATER

Zusätzlich zur eigentlichen Manipulation der originalen Wiedergabegeschwindigkeit erhält ein Scratch seine Vielfältigkeit durch zusätzliches rhythmisches Hervorheben gewisser Passagen des Bewegungsablaufes mittels Lautstärke oder EQ/Filter-(Klangcharakteristik) Manipulationen. So kann beispielsweise bei einem BACK AND FOR Scratch immer nur die Rückwärtsphase hörbar gemacht werden und die Vorwärtsphase ausgeblendet werden.

Auch dieser Vorgang wurde in vorliegendem Verfahren automatisiert, indem die aus dem Audiomaterial extrahierte Tempo-Information (vgl. dazu 7 und 8) dazu genutzt wird, diese Parameter rhythmisch zu steuern.

Hier soll auch wieder nur beispielhaft illustriert werden, wie anhand von drei Parametern

  • – RATE (Frequenz des Gate-Vorgangs),
  • – SHAPE (Verhältnis von "An"- zu "Aus"-Phase) und
  • – OFFSET(Phasen-Verschiebung, relativ zum Referenztakt)
eine große Vielfalt an Effekt-Variationen möglich ist. Diese drei Parameter können anstatt nur auf die Lautstärke des Scratches zu wirken, natürlich auch auf EQs/Filter oder jeden anderen Audio-Effekt, wie Hall, Delay und ähnliches angewendet werden.

Der Gater selbst exisitert bereits in vielen Effekt-Geräten. Jedoch die Kombination mit einem tempo-synchronen Scratch-Algorithmus zur Erzeugung vollautomatischer Scratch-Abläufe, zu denen zwingend auch Lautstärke-Verläufe gehören, wird in diesem Verfahren erstmalig verwendet.

In 4 ist ein einfacher dreifach BACK AND FOR Scratch dargestellt. Darunter verschiedene Lautstärke-Hüllkurven, die sich aus den jeweils daneben stehenden Gate-Parametern ergeben. Dargestellt ist dann auch die resultierende Wiedergabe-Kurve, um zu veranschaulichen, wie unterschiedlich das Endergebnis durch die Anwendung verschiedener Gate-Parameter werden kann. Wird jetzt noch der BACK AND FOR Scratch in seiner Frequenz und dem Beschleunigungsparameter ab variiert (in der Zeichnung nicht mehr dargestellt), ergeben sich extrem viele Kombinations-Möglichkeiten.

Der erste Verlauf unterhalb der Ausgangsform (3-fach BACK AND FOR Scratch) betont nur jeweils die zweite Hälfte der Wiedergabebewegung, während er deren erste Hälfte jeweils eliminiert. Die Gater-Werte für diesen Verlauf sind:

  • – RATE = 1/4
  • – SHAPE = 0
  • – OFFSET = 0

Der Verlauf der Lautstärke-Hüllkurve ist dabei jeweils durchgehend gezeichnet, während die damit selektierten Bereiche der Wiedergabebewegung jeweils gestrichelt dargestellt sind.

Beim darunter liegenden Verlauf werden nur die Rückwärtsbewegungen der Wiedergabebewegung selektiert mit den Gater-Parametern:

  • – RATE = 1/4
  • – SHAPE = –1/2
  • – OFFSET = 0,4

Der darunter liegende Verlauf ist eine weitere Variante bei welcher jeweils der obere und untere Umkehrpunkt der Wiedergabebewegung ausgewählt wird durch:

  • – RATE = 1/8
  • – SHAPE = –1/2
  • – OFFSET = 0,2

In einem weiteren Modus des Scratch-Automatismus ist es vorstellbar, auch die Auswahl des Audio-Samples, mit welchem des Scratch vollzogen wird, zu optimieren und damit benutzer-unabhängig zu machen. In diesem Modus würde der Tastendruck zwar das Verfahren starten, dieses aber erst vollzogen, wenn im Audiomaterial ein geeignetes Beat-Event gefunden wird, welches sich für die Durchführung des gewählten Scratches besonders gut eignet.

"SCRATCH-SYNTHESIZER"

Alles bisher Beschriebene behandelt das Verfahren mit welchem ein beliebiger Ausschnitt aus einem Audiomaterial modifiziert Wiedergegeben werden kann (im Falle von rhythmischem Material auch tempo-synchron). Da nun aber das Ergebnis (der Sound) eines Scratches unmittelbar mit dem ausgewählten Audiomaterial zusammenhängt, ist die sich ergebende Klangvielfalt prinzipiell so groß, wie das verwendete Audio-Material selbst. Da das Verfahren parametrisiert ist, lässt es sich sogar als neues Klang-Synthese-Verfahren bezeichnen.

Beim "Scratching" mit Vinyl-Platten, also dem Abspielen mit sich stark und schnell ändernder Geschwindigkeit, ändert sich die Tonwellenform auf charakteristische Art, aufgrund der Eigenheiten des Aufzeichnungsverfahrens, das standardmäßig für Schallplatten verwendet wird. Beim Erstellen des Press-Masters für die Schallplatte im Aufnahmestudio durchläuft das Tonsignal ein Pre-Emphase-Filter (Vorverzerrungs-Filter) nach RIAA-Norm, der die Höhen anhebt (sogenannte „Schneidekennlinie"). In jeder Anlage, die zum Abspielen von Schallplatten verwendet wird, befindet sich ein entsprechendes De-Emphase-Filter (Rückentzerrungs-Filter), das die Wirkung umkehrt, so dass man näherungsweise das ursprüngliche Signal erhält.

Wenn nun aber die Abspielgeschwindigkeit nicht mehr dieselbe ist, wie bei der Aufnahme, was u.a. beim "Scratching" auftritt, so werden alle Frequenzanteile des Signals auf der Schallplatte entsprechend verschoben und deswegen vom De-Emphase-Filter unterschiedlich bedämpft. Dadurch ergibt sich ein charakteristischer Klang.

Um beim Abspielen mit sich stark und schnell ändernder Geschwindigkeit eine möglichst authentische Wiedergabe ähnlich dem „Scratchen" mit einem Vinyl-Plattenspieler zu erreichen, verwendet eine weitere vorteilhafte Ausführungsform des interaktiven Musik-Abspielers nach der Erfindung für ein Audiosignal ein Scratch-Audio-Filter, wobei das Audiosignal einer Pre-Emphase-Filterung (Vorverzerrung) unterzogen und in einem Pufferspeicher abgelegt wird, aus dem es in Abhängigkeit von der jeweiligen Abspielgeschwindigkeit mit variablem Tempo auslesbar ist, um anschließend einer De-Emphase-Filterung (Rückentzerrung) unterzogen und wiedergegeben zu werden.

In dieser vorteilhaften Ausgestaltung des erfindungsgemäßen interaktiven Musik-Abspielers nach der Erfindung mit einem Aufbau entsprechend 5 ist daher ein Scratch-Audio-Filter zur Simulation des beschriebenen charakteristischen Effekts vorgesehen. Dazu wird, insbesondere für eine digitale Simulation dieses Vorgangs, das Audiosignal innerhalb der Abspieleinheit PLAY aus 5 einer weiteren Signalverarbeitung unterzogen, wie diese in 6 dargestellt ist. Dazu wird das Audiosignal, nachdem die digitalen Audiodaten des wiederzugebenden Musikstücks von einem Medium D bzw. Tonträger (z.B. CD oder MP3) gelesen und (vor allem im Fall des MP3-Formats) dekodiert DEC wurde, einer entsprechenden Pre-Emphase-Filterung PEF unterzogen. Das so vorgefilterte Signal wird dann in einem Pufferspeicher B abgelegt, aus dem es in einer weiteren Verarbeitungseinheit R je nach Modus a) oder b), wie in 5 beschrieben, entsprechend dem Ausgangssignal vom Mittel zur Rampenglättung SL mit variierender Geschwindigkeit ausgelesen wird. Das ausgelesene Signal wird dann mit einem De-Emphase-Filter DEF behandelt und dann wiedergegeben (AUDIO_OUT).

Für das Pre- und De-Emphase Filter PEF und DEF, die den gleichen Frequenzgang wie in der RIAA-Norm festgelegt haben sollten, verwendet man günstigerweise jeweils ein digitales IIR-Filter zweiter Ordnung, d.h. mit zwei günstig gewählten Polstellen und zwei günstig gewählten Nullstellen. Wenn die Polstellen des einen Filters gleich den Nullstellen des anderen Filters sind, heben sich, wie gewünscht, die beiden Filter in ihrer Wirkung genau auf, wenn das Audiosignal mit Originalgeschwindigkeit abgespielt wird. In allen anderen Fällen erzeugen die genannten Filter den charakteristischen Toneffekt beim "Scratching". Selbstverständlich kann das beschriebene Scratch-Audio-Filter auch im Zusammenhang mit beliebigen anderen Arten von Musik-Abspielgeräten mit „Scratching"-Funktion eingesetzt werden.

Als Informationen aus dem Audiomaterial wird das Tempo des Tracks benötigt, um die Größe der Variablen "beat", sowie die "Taktung" des Gates bestimmen zu können. Hierfür wird beispielsweise das im folgenden beschriebene Tempo-Ermittlungs-Verfahren für Audio-Tracks verwendet.

In diesem Zusammenhang stellt sich das technische Problem der Tempo- und Phasenangleichung zweier Musikstücke bzw. Audiotracks in Echtzeit. Dabei wäre es wünschenswert, wenn eine Möglichkeit zur automatischen Tempo- und Phasenangleichung zweier Musikstücke bzw. Audiotracks in Echtzeit zur Verfügung stünde, um den DJ von diesem technischen Aspekt des Mixens zu befreien, bzw. einen Mix automatisch oder halbautomatisch, ohne die Hilfe eines versierten DJ's erstellen zu können.

Bisher wurde dieses Problem nur in Teilaspekten gelöst. So gibt es Software-Player für das Format MP3 (ein Standardformat für komprimierte digitale Audiodaten), die reine Echtzeit-Tempoerkennung und -anpassung realisieren. Die Erkennung der Phase muss jedoch weiterhin durch das Gehör und die Anpassung des DJ manuell erfolgen. Dadurch wird ein beträchtliches Maß an Aufmerksamkeit des DJ in Anspruch genommen, was andernfalls für künstlerische Aspekte wie Musikzusammenstellung etc. zur Verfügung stünde.

Eine Aufgabe der vorliegenden Erfindung besteht somit in der Schaffung einer Möglichkeit zur automatischen Tempo- und Phasenangleichung zweier Musikstücke bzw. Audiotracks in Echtzeit mit möglichst hoher Genauigkeit.

Eine wesentliche zu überwindende technische Hürde stellt dabei die Genauigkeit einer Tempo- und Phasen-Messung dar, welche mit der für diese Messung zur Verfügung stehenden Zeit sinkt. Das Problem stellt sich somit vorrangig für eine Ermittlung des Tempos und der Phase in Echtzeit, wie es u.a. beim Live-Mixen der Fall ist.

Im folgenden soll eine mögliche Realisierung der näherungsweisen Tempo- und Phasenerkennung sowie Tempo- und Phasenanpassung gemäß der Erfindung dargestellt werden.

Erster Schritt der Prozedur ist eine erste, näherungsweise Ermittlung des Tempos des Musikstückes. Dies erfolgt durch eine statistische Auswertung der zeitlichen Abstände der sog. Beat-Ereignisse. Eine Möglichkeit zur Gewinnung rhythmusrelevanter Ereignisse aus dem Audiomaterial erfolgt durch schmale Bandpassfilterung des Audiosignals in verschiedenen Frequenzbereichen. Um das Tempo in Echtzeit zu ermitteln, werden für die folgenden Berechnungen jeweils nur die Beatereignisse der letzten Sekunden verwendet. Dabei entsprechen 8 bis 16 Ereignisse in etwa 4 bis 8 Sekunden.

Aufgrund der quantisierten Struktur von Musik (16tel Noten Raster) können nicht nur Viertelnoten Beat-Intervalle zur Tempoberechnung herangezogen werden. Auch andere Intervalle (16tel, 8tel, ½ und ganze Noten) können durch Oktavierung (z.B. durch Multiplizieren ihrer Frequenz mit 2er Potenzen) in eine vordefinierte Frequenz-Oktave (z.B. 80 – 160 bpm, Englisch für Beats per minute) transformiert werden und somit temporelevante Informationen liefern. Fehlerhafte Oktavierungen (z.B. von Triolen-Intervallen) fallen später wegen ihrer verhältnismäßigen Seltenheit bei der statistischen Auswertung nicht ins Gewicht.

Um auch Triolen, bzw. geschuffelte Rhythmen (einzelne leicht aus dem 16tel Raster versetzte Noten) zu erfassen, werden die im ersten Punkt gewonnenen Zeitintervalle zusätzlich noch in Paaren und Dreiergruppen durch Addition ihrer Zeitwerte gruppiert bevor sie oktaviert werden. Durch dieses Verfahren wird die rhythmische Struktur zwischen den Takten aus den Zeitintervallen herausgerechnet.

Die so gewonnene Menge an Daten wird auf Häufungspunkte untersucht. Es entstehen dabei in der Regel drei Häufungsmaxima bedingt durch die Oktavierungs- und Gruppierungsverfahren, deren Wert in rationalen Verhältnis (2/3, 5/4, 4/5 oder 3/2) zueinander stehen. Sollte aus der Stärke eines der Maxima nicht deutlich genug hervorgehen, das dieses das tatsächliche Tempo des Musikstückes angibt, lässt sich das korrekte Maximum aus dem rationalen Verhältnissen der Maxima untereinander ermitteln.

Zur näherungsweisen Ermittlung der Phase wird ein Referenz-Oszillator verwendet. Dieser schwingt mit dem zuvor ermittelten Tempo. Seine Phase wird vorteilhaft so gewählt, dass sich die beste Übereinstimmung zwischen Beat-Ereignisse des Audiomaterials und Nulldurchgängen des Oszillators ergibt.

Anschließend erfolgt eine sukzessive Verbesserung der Tempo- und Phasenermittlung. Durch die natürliche Unzulänglichkeit der ersten näherungsweisen Tempoermittlung wird sich zunächst nach einigen Sekunden die Phase des Referenz-Oszillators relativ zum Audiotrack verschieben. Diese systematische Phasenverschiebung gibt Auskunft darüber, um welche Menge das Tempo des Referenz-Oszillators verändert werden muss. Eine Korrektur des Tempos und der Phase erfolgt vorteilhaft in regelmäßigen Abständen, um unterhalb der Hörbarkeitsgrenze der Verschiebungen und der Korrekturbewegungen zu bleiben.

Sämtliche Phasenkorrekturen, die ab der näherungsweisen Phasenkorrelation erfolgt sind, werden über die Zeit akkumuliert, so dass die Berechnung des Tempos und der Phase auf einem ständig wachsenden Zeitintervall basiert. Dadurch werden die Tempo- und Phasen-Werte zunehmend präziser und verlieren den eingangs erwähnten Makel der näherungsweisen Echtzeitmessung. Nach kurzer Zeit (ca. 1 min) sinkt der Fehler des mit diesem Verfahren ermittelten Tempo-Wertes unterhalb 0.1%, ein Maß an Genauigkeit, das Vorraussetzung für die Berechnung von Loop-Längen ist.

Die Darstellung gemäß 7 zeigt eine mögliche technische Realisierung der beschriebenen näherungsweisen Tempo- und Phasenerkennung eines Musikdatenstroms in Echtzeit anhand eines Blockschaltbildes. Die gezeigte Struktur kann auch als ,Beat Detector' bezeichnet werden.

Als Input liegen zwei Ströme von Events, insbesondere Audio-Events, bzw. Ereignissen Ei mit Wert 1 vor, welche den Peaks in den Frequenzbändern F1 bei 150 Hz und F2 bei 4000Hz oder 9000 Hz entsprechen. Diese beiden Eventströme werden vorerst getrennt behandelt, indem diese durch jeweilige Bandpassfilter in den jeweiligen Frequenzbändern F1 und F2 gefiltert werden.

Folgt ein Event innerhalb von 50 ms dem vorhergehenden, wird das zweite Event nicht berücksichtigt. Eine Zeit von 50 ms entspricht der Dauer eines 16tels bei 300 bpm, liegt also weit unter der Dauer des kürzesten Intervalls, in dem die Musikstücke üblicherweise angesiedelt sind.

Aus dem Strom der gefilterten Events Ei wird nun in jeweiligen Verarbeitungseinheiten BD1 und BD2 ein Strom aus den einfachen Zeitintervallen Ti zwischen den Events gebildet.

Aus dem Strom der einfachen Zeitintervalle T1i werden in gleichen Verarbeitungseinheiten BPM_C1 und BPM_C2 jeweils zusätzlich zwei weitere Ströme der bandbegrenzten Zeitintervalle gebildet, nämlich mit Zeitintervallen T2i, den Summen von jeweils zwei aufeinanderfolgenden Zeitintervallen, und mit Zeitintervallen T3i, den Summen von jeweils drei aufeinanderfolgenden Zeitintervallen. Die dazu herangezogenen Events dürfen sich auchm überlappen.

Dadurch werden aus dem Strom zu den Zeitpunkten: t1, t2, t3, t4, t5, t6,... zusätzlich folgende zwei Ströme erzeugt:
T2i: (t1 + t2), (t2 + t3), (t3 + t4), (t5 + t6), (t5 + t6), ... und
T3i: (t1 + t2 + t3), (t2 + t3 + t4), (t3 + t4 + t5), (t4 + t5 + t6) , ...

Die drei Ströme T1i, T2i, T3i, werden nun zeit-oktaviert in entsprechenden Verarbeitungseinheiten OKT. Die Zeit-Oktavierung OKT erfolgt derart, dass die einzelnen Zeitintervalle jedes Stroms so oft verdoppelt werden, bis sie in einem vorgegebenen Intervall BPM_REF liegen. Auf diese Weise erhält man drei Datenströme T1io, T2io, T3io, ... Die obere Grenze des Intervalls thi[ms] berechnet sich aus der unteren bpmlow-Grenze nach der Formel: thi[ms] = 60000/bpmlow.

Die untere Grenze des Intervalls liegt bei 0.5·thi.

Jeder der so erhaltenen drei Ströme wird nun für beide Frequenzbänder F1, F2 in jeweiligen weiteren Verarbeitungseinheiten CHK auf seine Konsistenz überprüft. Damit wird ermittelt, ob jeweils eine gewisse Anzahl aufeinanderfolgender, zeit-oktavierter Intervallwerte innerhalb einer vorgegebenen Fehlergrenze liegen. Dazu überprüft man beispielsweise im einzelnen mit folgenden Werten:

Für T1i überprüft man dessen letzte vier Events t11o, t12o, t13o, t14o daraufhin, ob gilt:

  • a) (t11o, t12o)2 + (t11o – t13o)2 + (t11o – t14o)2 < 20

Ist dies der Fall, wird der Wert des Events t11o als gültiges Zeitintervall ausgegeben.

Für T2i überprüft man dessen letzte 4 Events t21o, t22o, t23o, t24o daraufhin, ob gilt:

  • b) (t21o – t22o)2 + (t21o – t23o)2 + (t21o – t24o)2 < 20

Ist dies der Fall, wird der Wert der Events t11o als gültiges Zeitintervall ausgegeben.

Für T3i überprüft man dessen letzte drei Events t31o, t32o, t33o, daraufhin, ob gilt

  • c) (t31o – t32o)2 + (t31o – t33o)2 < 20

Ist dies der Fall, wird der Wert des Events t31o als gültiges Zeitintervall ausgegeben.

Hierbei hat die Konsistenzprüfung a) Vorrang vor b) und b) hat Vorrang vor c). Wird also bei a) ein Wert des Events ausgegeben, werden b) und c) nicht mehr untersucht. Wird bei a) kein Wert des Events ausgegeben, so wird b) untersucht, usw. Wird hingegen weder bei a) noch bei b) noch bei c) ein konsistenter Wert des Events gefunden, so wird die Summe der letzten vier nicht oktavierten Einzelintervalle zu den Zeitpunkten (t1, t2, t3, t4) ausgegeben.

Der so aus den drei Strömen ermittelte Wertestrom konsistenter Zeitintervalle wird wiederum in einer nachgeschalteten Verarbeitungseinheit OKT in das vorgegebene Referenz-Zeitintervall BPM_REF oktaviert. Anschließend wird das oktavierte Zeit-Intervall in einen BPM Tempowert umgerechnet.

Als Resultat liegen jetzt zwei Ströme von Tempowerten BPM1 und BPM2 von bpm-Werten vor – einer für jede der beiden Frequenzbänder F1 und F2. In einem Prototyp werden diese Ströme mit einer festen Frequenz von 5 Hz abgefragt und die jeweils letzten acht Events aus beiden Strömen für die statistische Auswertung herangezogen. Man kann an dieser Stelle jedoch durchaus auch eine variable (eventgesteuerte) Abtastrate verwenden und man kann auch mehr als nur die letzten 8 Events verwenden, beispielsweise 16 oder 32 Events.

Diese letzten 8, 16 oder 32 Events aus jedem Frequenzband F1, F2 werden zusammengeführt und in einer nachgeschalteten Verarbeitungseinheit STAT auf Häufungsmaxima N betrachtet. In der Prototyp-Version wird ein Fehlerintervall von 1,5 bpm verwendet, d.h. solange Events weniger als 1,5 bpm voneinander differieren, werden sie als zusammengehörig betrachtet und addieren sich in der Gewichtung. Die Verarbeitungseinheit STAT ermittelt hierbei, bei welchen BPM Strömen von Tempowerten Häufungen auftreten und wie viele Events den jeweiligen Häufungspunkten zuzuordnen sind. Der am stärksten gewichtete Häufungspunkt kann als die lokale BPM-Messung gelten und liefert den gewünschten Tempowert A.

In einer ersten Weiterbildung dieses Verfahrens erfolgt zusätzlich zu der lokalen BPM-Messung eine globale Messung, indem man die Zahl, der verwendeten Events auf 64, 128 etc. ausweitet. Bei alternierenden Rhythmus-Patterns, in welchen nur jeden 4. Takt das Tempo klar durchkommt, kann häufig eine Eventzahl von mindestens 128 nötig sein. Solch eine Messung ist zuverlässiger, benötigt jedoch auch mehr Zeit.

Eine weitere entscheidende Verbesserung kann durch folgende Maßnahme erzielt werden:
In Betracht gezogen wird nicht nur das erste Häufungsmaximum, sondern auch das zweite. Dieses zweite Maximum entsteht fast immer durch vorhandene Triolen und kann sogar stärker als das erste Maximum sein. Das Tempo der Triolen hat jedoch ein klar definiertes Verhältnis zum Tempo der Viertel Noten, so dass sich aus dem Verhältnis der Tempi der beiden ersten Maxima ermitteln lässt, welches Häufungsmaximum den Vierteln und welches den Triolen zuzuordnen ist.

Nimmt man T1 als das Tempo des ersten Maximums in bpm und T2 als das Tempo des zweiten Maximums an, so gelten folgende Regeln:
Wenn T2 = 2/3·T1, dann ist T2 das Tempo.
Wenn T2 = 4/3·T1, dann ist T2 das Tempo.
Wenn T2 = 2/5·T1, dann ist T2 das Tempo.
Wenn T2 = 4/5·T1, dann ist T2 das Tempo.
Wenn T2 = 3/2·T1, dann ist T1 das Tempo.
Wenn T2 = 3/4·T1, dann ist T1 das Tempo.
Wenn T2 = 5/2·T1, dann ist T1 das Tempo.
Wenn T2 = 5/4·T1, dann ist T1 das. Tempo.

Ein näherungsweiser Wert der Phase P wird anhand einer der beiden gefilterten einfachen Zeitintervalle Ti zwischen den Events ermittelt, vorzugsweise anhand derjenigen Werte, die mit dem niedrigeren Frequenzband F1 gefiltert sind. Diese dienen zur groben Bestimmung der Frequenzbandes des Referenz-Oszillators bzw. der Master-Clock.

Die Darstellung nach 8 zeigt ein mögliches Blockschaltbild zur sukzessiven Korrektur von ermitteltem Tempo A und Phase P, im folgenden als ,CLOCK CONTROL' bezeichnet.

Zunächst wird der Referenz-Oszillator bzw. die Master-Clock MCLK in einem ersten Schritt 1 mit den groben Werten der Phasen P und dem Tempo A aus der Beat-Detection gestartet, was quasi einem Reset des in 2 gezeigten Regelkreises gleichkommt. Anschließend werden in einem weiteren Schritt 2 die Zeitintervalle zwischen Beat-Events des eingehenden Audiosignals und der Master-Clock MCLK ermittelt. Dazu werden die näherungsweisen Phasen P mit einem Referenzsignal CLICK, welches die Frequenz des Referenz-Oszillators MCLK aufweist, in einem Komparator V verglichen.

Bei systematischem Überschreiten (+) einer „kritischen" Abweichung bei mehreren aufeinanderfolgenden Ereignissen mit einem Wert von beispielsweise über 30ms wird in einem weiteren Verarbeitungsschritt 3 die Master-Clock MCLK durch eine kurzzeitige Tempoänderung A(i + 1) = A(i) + q oderA(i + 1) = A(i) – qentgegen der Abweichung (wieder) an das Audio-Signal angepasst, wobei q die verwendete Absenkung oder Anhebung des Tempos darstellt. Andernfalls (–) wird das Tempo konstant gehalten.

Im weiteren Verlauf erfolgt in einem weiteren Schritt 4 eine Summierung aller Korrektur-Ereignisse aus Schritt 3 und der seit dem letzten „Reset" verstrichenen Zeit in eigenen Speichern (nicht gezeigt). Bei ungefähr jedem 5. bis 10. Ereignis einer annähernd akkuraten Synchronisierung (Differenz zwischen den Audiodaten und der Master-Clock MCLK etwa unterhalb 5 ms) wird der Tempo-Wert auf der Basis des bisherigen Tempo-Wertes, der bis dahin akkumulierten Korrektur-Ereignisse und der seit dem verstrichenen Zeit in einem weiteren Schritt 5 wie folgt neu errechnet.

Mit

  • – q als der in Schritt 3 verwendeten Absenkung oder Anhebung des Tempos (beispielsweise um den Wert 0.1),
  • – dt als der Summe der Zeit, für welche das Tempo insgesamt abgesenkt oder angehoben wurde (Anhebung positiv, Absenkung negativ),
  • – T als dem seit dem letzten Reset (Schritt 1) verstrichenen Zeitintervall, und
  • – bpm als dem in Schritt 1 verwendeten Tempowert A errechnet sich das neue, verbesserte Tempo bpm_neu nach folgender einfachen Formel: bpm_neu = bpm·(1 + (q·dt)/T)

Weiter wird geprüft, ob die Korrekturen in Schritt 3 über einen gewissen Zeitraum hinweg immer jeweils negativ oder positiv sind. In solch einem Fall liegt wahrscheinlich eine Tempo-Änderung im Audiomaterial vor, die mit obigem Verfahren nicht korrigiert werden kann. Dieser Status wird erkannt und bei Erreichen des nächsten annähernd perfekten Synchronisations-Ereignisses (Schritt 5) werden der Zeit- und der Korrekturspeicher in einem Schritt 6 gelöscht, um den Ausgangspunkt in Phase und Tempo neu zu setzten. Nach diesem „Reset" beginnt die Prozedur erneut mit einem Aufsetzen auf Schritt 2 das Tempo zu optimieren.

Eine Synchronisierung eines zweiten Musikstückes erfolgt nun durch Anpassung von dessen Tempo und Phase. Die Anpassung des zweiten Musikstückes erfolgt indirekt über den Referenz-Oszillator. Nach der oben beschriebenen näherungsweisen Tempo- und Phasenermittlung des Musikstückes werden diese Werte sukzessive nach obigem Verfahren an den Referenz-Oszillator angepasst, nur wird diesmal die Abspielphase und die Abspielgeschwindigkeit des Tracks selbst verändert. Das originale Tempo des Tracks lässt sich rückwärts leicht aus der notwendigen Veränderung seiner Abspielgeschwindigkeit gegenüber der Original-Abspielgeschwindigkeit errechnen.

Des weiteren ermöglicht die gewonnene Information über das Tempo und die Phase eines Audiotracks die Ansteuerung sogenannter temposynchroner Effekte. Dabei wird das Audiosignal passend zum eigenen Rhythmus manipuliert, was rhythmisch effektvolle Echtzeit-Klangveränderung ermöglicht. Insbesondere kann die Tempo-Information dazu genutzt werden, Loops mit taktgenauen Längen in Echtzeit aus dem Audiomaterial herauszuschneiden.

Wie bereits eingangs erwähnt, werden herkömmlicherweise beim Mischen mehrerer Musikstücke die Audioquellen von Tonträgern auf mehreren Abspielgeräten abgespielt und über ein Mischpult abgemischt. Bei dieser Vorgehensweise beschränkt sich eine Audioaufnahme auf eine Aufzeichnung des Endresultats. Eine Reproduktion des Mischvorganges oder von Scratch-Vorgängen und ein Aufsetzen zu einem späteren Zeitpunkt exakt an einer vorgebbaren Position innerhalb eines Musikstückes ist damit nicht möglich.

Genau dies erreicht nun die vorliegende Erfindung, indem ein Dateiformat für digitale Steuerinformationen vorgeschlagen wird, welches die Möglichkeit bietet, den Vorgang des interaktiven Mischens und eine eventuelle Effektbearbeitung von Audioquellen aufzuzeichnen und akkurat wiederzugeben. Dies ist insbesondere mit einem wie vorangehend beschriebenen Musik-Abspieler möglich.

Die Aufzeichnung von Mischvorgängen oder eines Scratch-Vorgangs gliedert sich in eine Beschreibung der verwendeten Audioquellen und einen zeitlichen Ablauf von Steuerinformationen des Mischvorgangs oder Scratch-Vorgangs und zusätzlicher Effektbearbeitung.

Es werden nur die Information über den eigentlichen Mischvorgang oder Scratch-Vorgang und über die Ursprungsaudioquellen benötigt, um das Resultat wiederzugeben. Die eigentlichen digitalen Audiodaten werden extern zur Verfügung gestellt. Dies vermeidet urheberrechtlich problematische Kopiervorgänge von geschützten Musikstücken. Es können durch das Abspeichern von digitalen Steuerinformationen somit Mischvorgänge von mehreren Audiostücken im Hinblick auf Abspielpositionen, Synchronisationsinformationen, Echtzeiteingriffe mit Audio-Signalverarbeitungsmitteln etc. als ein Mix der Audioquellen und deren Effektbearbeitung z.B. mit Scratch-Effekten als neues Gesamtwerk mit vergleichsweise langer Abspieldauer realisiert werden.

Dies bietet den Vorteil, dass die Beschreibung der Bearbeitung der Audioquellen im Vergleich zu den erzeugten Audiodaten des Mischvorgangs gering sind, der Mischvorgang an beliebigen Stellen editiert und wiederaufgesetzt werden kann. Außerdem können vorhandene Audiostücke in verschiedenen Zusammenfassungen oder als längere zusammenhängende Interpretationen wiedergegeben werden.

Mit bisherigen Tonträgern und Musik-Abspielgeräten war es hingegen nicht möglich, die Interaktion eines Anwenders aufzuzeichnen und wiederzugeben, da den bekannten Abspielgeräten die technischen Voraussetzungen fehlen, diese genau genug zu steuern. Dies wird erst durch die vorliegende Erfindung ermöglicht, indem mehrere digitale Audioquellen wiedergegeben und deren Abspielpositionen bestimmt und gesteuert werden können. Dadurch wird es möglich, den gesamten Vorgang digital zu verarbeiten und entsprechende Steuerdaten in einer Datei zu speichern. Diese digitalen Steuerinformationen werden vorzugsweise in einer Auflösung abgelegt, die der Abtastrate der verarbeiteten digitalen Audiodaten entspricht.

Die Aufzeichnung gliedert sich im wesentlichen in 2 Teile:

  • – eine Liste der verwendeten Audioquellen z.B. digitale Aufgezeichnete Audiodaten in komprimierter und unkomprimierter Form wie z.B. WAV, MPEG, AIFF und digitale Tonträger wie etwa eine Compact Disk und
  • – den zeitlichen Ablauf der Steuerinformation.

Die Liste der Verwendeten Audioquellen enthält u.a.:

  • – Informationen zur Identifizierung der Audioquelle
  • – zusätzlich berechnete Information, die Charakteristiken der Audioquelle beschreibt (z.B. Abspiellänge und Tempoinformationen)
  • – beschreibende Information zur Herkunft und Urheberinformation der Audioquelle (z.B. Künstler, Album, Verlag etc.)
  • – Metainformation, z.B. Zusatzinformation die über den Hintergrund der Audioquelle informiert (z.B. Musikgenre, Information zum Künstler und Verlag)

Die Steuerinformation speichert u.a.:

  • – die zeitliche Abfolge von Steuerdaten
  • – die zeitliche Abfolge von exakten Abspielpositionen in der Audioquelle
  • – Intervalle mit kompletter Zustandsinformation aller Stellglieder, um als Wiederaufsetzpunkte der Wiedergabe zu dienen

Im Folgenden ist ein mögliches Beispiel der Verwaltung der Liste von Audiostücken in einer Ausprägung des XML Formats dargestellt. Dabei steht XML als Abkürzung für Extensible Markup Language. Dies ist eine Bezeichnung für eine Metasprache zur Beschreibung von Seiten im WWW (World Wide Web). Dabei ist es im Gegensatz zu HTML (Hypertext Markup Language) möglich, dass der Autor eines XML-Dokumentes im Dokument selbst bestimmte Erweiterungen von XML im Document-Type-Definition-Teil des Dokumentes definiert und im gleichen Dokument auch nutzt.

Mögliche Voreinstellungen bzw. Steuerdaten zur automatischen Erzeugung von Scratch-Effekten wie im vorangehenden beschrieben, werden im folgenden beschrieben.

Hierbei handelt es sich um eine Reihe von Bedienelementen, mit welchen alle Parameter des Scratches im Vorfeld eingestellt werden können. Hierzu gehört:

  • – Scratch Art (Full-Stop, Back & For, Back-Spin, u.v.m.)
  • – Scratch Dauer (1,2,... beats – auch Druckdauer-Abhängig s.u.)
  • – Scratch Geschwindigkeit (Spitzengeschwindigkeit)
  • – Beschleunigungsdauer a (Dauer einer Geschwindigkeitsänderung von +/–1)
  • – Scratch Frequenz (Wiederholungen pro beat bei rhythmischen Scratches)
  • – Gate Frequenz (Wiederholungen pro beat)
  • – Gate Shape (Verhältnis von "An"- zu "Aus"-Phase)
  • – Gate Offset (Versatz des Gate relativ zum Takt)
  • – Gate Routing (Zuweisung des Gates auf andere Effekt-Parameter)

Dies sind nur einige von vielen denkbaren Parametern, die je nach Art eines realisierten Scratch-Effektes anfallen.

Der eigentliche Scratch wird nach erfolgter Voreinstellung durch einen zentralen Button/Steuerelement ausgelöst und entwickelt sich von diesem Punkt an automatisch. Der Benutzer braucht den Scratch lediglich durch den Moment, in welchem er die Taste drückt (Auswahl des gescratchten Audio-Samples) und durch die Dauer, des Tastendruckes (Auswahl der Scratch-Länge) beeinflussen.

Die Steuerinformationsdaten, referenziert durch die Liste von Audiostücken, werden vorzugsweise im Binärformat gespeichert. Der prinzipielle Aufbau der abgespeicherten Steuerinformationen in einer Datei lässt sich beispielhaft wie folgt beschreiben:

Mit [Kennung des Controllers] ist ein Wert bezeichnet, der ein Steuerglied (z.B. Lautstärke, Geschwindigkeit, Position, Abspielrichtung etc.) des interaktiven Musik-Abspielers identifiziert. Solchen Steuergliedern können mehrere Unterkanäle [controller Kanal], z.B. Nummer des Abspielmoduls, zugeordnet sein. Ein eindeutiger Steuerpunkt M wird durch [Kennung des Controllers], [Controller Kanal] adressiert.

Als Resultat entsteht eine digitale Aufzeichnung des Mischvorgangs oder des Scratch-Vorgangs, der gespeichert, nicht-destruktiv im Bezug auf das Audiomaterial reproduziert, vervielfältigt und übertragen werden kann, z.B. über das Internet.

Eine vorteilhafte Ausführung mit solchen Steuerdateien stellt ein Datenträger D dar, wie dieser anhand von 9 veranschaulicht ist. Dieser weist eine Kombination einer normalen Audio-CD mit digitalen Audiodaten AUDIO_DATA eines ersten Datenbereichs D1 mit einem auf einem weiteren Datenteil D2 der CD untergebrachten Programm PRG_DATA, vorzugsweise ein Mix-Applikation, zum Abspielen solcher ebenfalls vorhandener Mixdateien oder Scratch-Effekt Dateien MIX_DATA auf, die unmittelbar auf die auf der CD abgelegten Audio-Daten AUDIO_DATA zugreifen. Dabei muss das Programm PRG_DATA nicht zwingend Bestandteil eines solchen Datenträgers sein. Auch eine Kombination aus einem ersten Datenbereich D1 mit digitalen Audioinformationen AUDIO_DATA und einem zweiten Datenbereich mit einer oder mehreren Dateien mit den genannten digitalen Steuerdaten MIX_DATA ist vorteilhaft, denn ein solcher Datenträger beinhaltet in Verbindung mit einem Musik-Abspieler der Erfindung alle erforderlichen Informationen zur Reproduktion eines zu einem früheren Zeitpunkt erstellten neuen Gesamtwerkes aus den vorhandenen digitalen Audioquellen.

Besonders vorteilhaft jedoch lässt sich die Erfindung auf einem geeignet programmierten digitalen Computer mit entsprechenden Audio-Schnittstellen realisieren, indem ein Softwareprogramm die im vorangehenden dargestellten Verfahrensschritte auf dem Computersystem durchführt (z.B. die Abspiel- bzw. Mix-Applikation PRG_DATA).

Alle in der vorstehenden Beschreibung erwähnten bzw. in den Figuren dargestellten Merkmale sollen, sofern der bekannte Stand der Technik dies zulässt, für sich allein oder in Kombination als unter die Erfindung fallend angesehen werden.

Weitere Informationen, Weiterbildungsmöglichkeiten und Details ergeben sich in Verbindung mit der Offenbarung der deutschen Patentanmeldung des Anmelders mit dem Aktenzeichen 101 01 473.2-51, deren Inhalt hiermit durch Bezugnahme eingeschlossen wird.

Die vorangehende Beschreibung bevorzugter Ausführungsformen nach der Erfindung ist zum Zwecke der Veranschaulichung angegeben. Diese Ausführungsbeispiele sind nicht erschöpfend. Auch ist die Erfindung nicht auf die genaue angegebene Form beschränkt, sondern es sind zahlreiche Modifikationen und Änderungen im Rahmen der vorstehend angegebenen technischen Lehre möglich. Eine bevorzugte Ausführungsform wurde gewählt und beschrieben, um die prinzipiellen Details der Erfindung und praktische Anwendungen zu verdeutlichen, um den Fachmann in die Lage zu versetzen, die Erfindung zu realisieren. Eine Vielzahl bevorzugter Ausführungsformen sowie weitere Modifikationen kommen bei speziellen Anwendungsgebieten in Betracht.

aerster ModusabDauer des Abbrems- und BeschleunigungsvorgangsA1...Anaktuelle AbspielpositionenA, bpmnäherungsweise ermitteltes Tempo eines MusikstückesAUDIO_DATAdigitale AudiodatenAUDIO_OUTAudio-Ausgabebzweiter ModusBPufferspeicherbeatDauer einer Viertelnote eines gegenwärtigenTracksBD1, BD2Detektoren für rhythmusrelevante InformationenBPM_C1Verarbeitungseinheiten zur TempoerkennungBPM_C2Verarbeitungseinheiten zur Tempoerkennungbpm_neuresultierender neuer Tempowert ABPM_REFReferenz-ZeitintervallBPM1, BPM2unabhängige Ströme von Tempowerten bpmcStillstandsphaseCD-ROMAudiodatenquelle/CD-ROM-LaufwerkCHKKonsistenzprüfungCLICKReferenzsignalDTonträger/DatenträgerD1, D2DatenbereicheDECDecoderDEFDe-Emphase-Filter/RückentzerrungsfilterDIFFDifferenziererdtSumme der Zeit, für welche das Tempo insgesamt abgesenkt oder angehoben wurde (Anhebungpositiv, Absenkung negativ)EiEvents eines AudiodatenstromsF1, F2FrequenzbänderIN1, IN2erster und zweiter EingangLPTiefpaß-FilterMCLKReferenz-Oszillator/Master-ClockMIX_DATAdigitale SteuerdatenNHäufungspunkteOKTZeit-OktavierungseinheitenOFFSETPhasen-Verschiebung, relativ zum ReferenztaktPnäherungsweise ermittelte Phase eines MusikstückesPEFPre-Emphase-Filter/Vorverzerrungs-FilterPLAYAbspieleinheitPRG_DATAComputerprogrammdatenP1...PnPufferspeicherqKorrekturwertRAusleseeinheit mit variablem TempoRATEFrequenz eines Gate-VorgangsRESETNeustart bei TempoänderungRückwärtslaufphaseR1, R2Steuerelemente, insbesondere ReglerSzentrale Instanz/SchedulerSAMPLEAbspielposition des AudiosignalsSHAPEVerhältnis von „An" zu „Aus"-PhaseSLMittel zur Rampenglättung/Slew LimiterSTATStatistische Auswertung der TempowerteSW1SchalterS1...SnAnfänge der DatentZeitt1,..., t6Stromthiobere Grenze des IntervallsTGesamtdauer eines SratchesTR1...TRnAudiodatentracksTiZeitintervalleT1iungruppiert ZeitintervalleT2iPaare von ZeitintervallenT3iDreiergruppen von ZeitintervallenT1io...T3iozeit-oktavierte ZeitintervalleT1...TNTempovGeschwindigkeitVKomparatorvo VorwärtslaufphasexWeg+ Phasenübereinstimmung Phasenverschiebung1...6 Verfahrensschritte