Title:
Bestimmen der Eigenschaft einer gespielten Note auf einem virtuellen Instrument
Kind Code:
T5


Abstract:

Eine Benutzerschnittstelle, die auf einer berührungsempfindlichen Anzeige für ein virtuelles Musikinstrument implementiert ist, weist eine Vielzahl an Akkord-Berührregionen auf, die in einer vorbestimmten Sequenz eingerichtet sind, wobei jede Akkord-Berührregion mit einem Akkord in einem musikalischen Schlüssel korrespondiert und in eine Vielzahl an getrennten Berührzonen geteilt ist, wobei die Vielzahl an Akkord-Berührregionen einen vorbestimmten Satz an Akkorden definiert, wobei jede Berührzone aus der Vielzahl an getrennten Berührzonen in jeder Region mit einer oder mehreren vorausgewählten MIDI-Dateien, die in einem computerlesbaren Medium gespeichert sind, assoziiert ist. Jede Berührzone aus der Vielzahl der Berührzonen ist eingerichtet, eine oder mehrere aus einer Vielzahl an Berührgestenartikulationen zu erkennen, einschließlich zumindest einer Legato-Artikulation, einer Pizzicato-Artikulation oder einer Stakkato-Artikulation. Die eine oder mehrere aus der Vielzahl an Berührgestenartikulationen bestimmt die vorausgewählte MIDI-Datei, die mit jeder Berührregion aus der Vielzahl an getrennten Berührzonen assoziiert ist.




Inventors:
Manjarrez, Eli T., Calif. (Cupertino, US)
Little, Alexander H., c/o Apple Inc. (Calif., Cupertino, US)
Application Number:
DE112013001343T
Publication Date:
11/27/2014
Filing Date:
03/06/2013
Assignee:
Apple Inc. (Calif., Cupertino, US)
International Classes:



Attorney, Agent or Firm:
BARDEHLE PAGENBERG Partnerschaft mbB Patentanwälte, Rechtsanwälte, 81675, München, DE
Claims:
1. Benutzerschnittstelle, implementiert auf einer berührungsempfindlichen Anzeige für ein virtuelles Musikinstrument, aufweisend:
eine Vielzahl an Akkord-Berührregionen, wobei jede Akkord-Berührregion mit einem Akkord in einem musikalischen Schlüssel korrespondiert und in eine Vielzahl an getrennten Berührzonen geteilt ist, wobei die Vielzahl an Akkord-Berührregionen einen vorbestimmten Satz an Akkorden definieren,
wobei jede aus der Vielzahl an getrennten Berührzonen in jeder Region mit einem oder mehreren vorausgewählten Audio-Signalen assoziiert ist, die in einem computerlesbaren Medium gespeichert sind, und
wobei jede aus der Vielzahl an Berührzonen zum Erkennen und Unterscheiden zwischen einer Vielzahl an Berührgestenartikulationen eingerichtet ist, wobei eine erkannte Berührgestenartikulation die vorausgewählten Audio-Signale, die mit jeder aus der Vielzahl an getrennten Berührzonen assoziiert sind, bestimmt.

2. Benutzerschnittstelle nach Anspruch 1, wobei die Vielzahl an Berührgestenartikulationen zumindest eine Legato-Gestenartikulation, eine Pizzicato-Gestenartikulation oder eine Stakkato-Gestenartikulation beinhaltet.

3. Benutzerschnittstelle nach Anspruch 2, wobei die Legato-Artikulation eine Tippen-zu-Wischen-Geste beinhaltet, wobei die Legato-Artikulation eine Wiedergabe eines ersten entsprechenden Audio-Signals auslöst, welches den Klang einer Bogenaktion auf einem Saiteninstrument simuliert.

4. Benutzerschnittstelle nach Anspruch 3, wobei eine Geschwindigkeit der Legato-Artikulation einen Ausdruckswert des ersten entsprechenden Audio-Signals steuert.

5. Benutzerschnittstelle nach Anspruch 4, wobei der Ausdruckswert des ersten entsprechenden Audio-Signals eine Amplitude ist.

6. Benutzerschnittstelle nach Anspruch 3, wobei die Wiedergabe des ersten entsprechenden Audio-Signals aufhört, wenn die Legato-Artikulation nicht mehr erkannt wird oder eine zweite Berührgestenartikulation auf der Benutzerschnittstelle gleichzeitig erkannt wird.

7. Benutzerschnittstelle nach Anspruch 3, wobei eine ununterbrochene Legato-Artikulation ein Tippen zu einer kontinuierlichen Auf- und -ab-Wischgeste auf der Benutzerschnittstelle beinhaltet.

8. Benutzerschnittstelle nach Anspruch 2, wobei die Pizzicato-Artikulation eine schnelle Tippen-Geste beinhaltet, aufweisend ein anfängliches Tippen in eine aus der Vielzahl an getrennten Berührzonen und eine Freigabe vor einer vorbestimmten Dauer, wobei die Pizzicato-Artikulation eine Wiedergabe eines zweiten entsprechenden Audio-Signals auslöst, welches den Klang einer Schlagaktion auf einem Saiteninstrument simuliert.

9. Benutzerschnittstelle nach Anspruch 8, wobei eine Geschwindigkeit der Pizzicato-Artikulation einen Ausdruckswert des zweiten entsprechenden Audio-Signals steuert.

10. Benutzerschnittstelle nach Anspruch 9, wobei der Ausdruckswert des zweiten entsprechenden Audio-Signals eine Amplitude ist.

11. Benutzerschnittstelle nach Anspruch 2, wobei die Stakkato-Artikulation eine In-Bewegung-Wischgeste mit Kontakt mit der Berührzone beinhaltet, wobei die Stakkato-Artikulation eine Wiedergabe eines dritten entsprechenden Audio-Signals auslöst, welches den Klang eines kurzen Bursts einer Bogenaktion auf einem Saiteninstrument simuliert.

12. Benutzerschnittstelle nach Anspruch 11, wobei eine Geschwindigkeit der Stakkato-Artikulation einen Ausdruckswert des dritten entsprechenden Audio-Signals steuert.

13. Benutzerschnittstelle nach Anspruch 12, wobei der Ausdruckswert des dritten entsprechenden Audio-Signals eine Amplitude ist.

14. Computerprogrammprodukt, gespeichert auf einem nichtflüchtigen computerlesbaren Speichermedium, aufweisend computerausführbare Instruktionen, die einen Prozessor veranlassen zum:
in Reaktion auf eine Eingabe von einer Benutzerschnittstelle, die auf einer berührungsempfindlichen Anzeige für ein virtuelles Musikinstrument implementiert ist, aufweisend eine Vielzahl an Akkord-Berührregionen, eingerichtet in einer vorbestimmten Sequenz, wobei jede Akkord-Berührregion mit einem Akkord in einem musikalischen Schlüssel korrespondiert und in eine Reihe an getrennten Berührzonen geteilt ist, wobei die Vielzahl an Akkordregionen einen vorbestimmten Satz an Akkorden definiert, Veranlassen, ein vorbestimmtes Audio-Signal auf einer Ausgabevorrichtung abzuspielen, wobei die Eingabe von einem Benutzer eine aus einer Vielzahl an Berührgestenartikulationen auf einer Berührzone umfasst, die mit dem vorausgewählten Audio-Signal, das in einem computerlesbaren Medium gespeichert ist, assoziiert sind.

15. Computerprogrammprodukt nach Anspruch 14, wobei die eine aus einer Vielzahl an Berührgestenartikulationen zumindest eine Legato-Artikulation, eine Pizzicato-Artikulation oder eine Stakkato-Artikulation beinhaltet.

16. Computerprogrammprodukt nach Anspruch 15, wobei die Legato-Artikulation eine Tippen-zu-Wischen-Geste beinhaltet, wobei die Legato-Artikulation eine Wiedergabe eines ersten vorausgewählten Audio-Signals auslöst, welches den Klang einer Bogenaktion auf einem Saiteninstrument simuliert,
wobei die Pizzicato-Artikulation eine schnelle Tippen-Geste beinhaltet, aufweisend ein anfängliches Tippen in eine aus der Vielzahl an getrennten Berührzonen und ein Freigeben vor einer vorbestimmten Dauer, wobei die Pizzicato-Artikulation eine Wiedergabe eines zweiten vorausgewählten Audio-Signals auslöst, welches den Klang einer Schlagaktion auf dem Saiteninstrument simuliert, und
wobei die Stakkato-Artikulation eine In-Bewegung-Wischgeste mit Kontakt mit der Berührzone beinhaltet, wobei die Stakkato-Artikulation eine Wiedergabe eines dritten vorausgewählten Audio-Signals auslöst, welches den Klang eines kurzen Bursts einer Bogenaktion auf dem Saiteninstrument simuliert.

17. Computerprogrammprodukt nach Anspruch 16, wobei eine Geschwindigkeit der Legato-Artikulation einen Ausdruckswert des ersten vorausgewählten Audio-Signals steuert, eine Geschwindigkeit einer Pizzicato-Artikulation einen Ausdruckswert des zweiten vorausgewählten Audio-Signals steuert und eine Geschwindigkeit der Stakkato-Artikulation einen Ausdruckswert des dritten vorausgewählten Audio-Signals steuert.

18. Verfahren zum Bestimmen einer Eigenschaft einer Note, die auf einem virtuellen Saiteninstrument gespielt wird, das Verfahren aufweisend:
Empfangen, von einer Benutzerschnittstelle auf einer berührungsempfindlichen Anzeige für das virtuelle Instrument, einer Benutzereingabe, aufweisend eine aus einer Vielzahl an Berührgestenartikulationen, die auf einer Berührzone der Benutzerschnittstelle durchgeführt wird;
Bestimmen, ob die eine aus der Vielzahl an Berührgestenartikulationen eine Legato-Artikulation, eine Pizzicato-Artikulation oder eine Stakkato-Artikulation beinhaltet; und
Abspielen eines Audiosignals aus einer Vielzahl an vorausgewählten Audio-Signalen auf einer Ausgabevorrichtung, welches sowohl mit der Berührregion wie auch mit der einen aus einer Vielzahl an Gestenartikulationen korrespondiert.

19. Verfahren nach Anspruch 18, wobei die Legato-Artikulation eine Tippen-zu-Wischen-Geste auf der Berührzone beinhaltet, wobei die Legato-Artikulation eine Wiedergabe eines ersten Audio-Signals aus der Vielzahl an vorausgewählten Audio-Signalen auslöst, welches den Klang einer Bogenaktion auf einem Saiteninstrument simuliert,
wobei die Pizzicato-Artikulation eine schnelle Tippen-Geste beinhaltet, aufweisend ein anfängliches Tippen in der Berührzone und ein Freigeben vor einer vorbestimmten Dauer, wobei die Pizzicato-Artikulation eine Wiedergabe eines zweiten Audio-Signals aus der Vielzahl an vorausgewählten Audio-Signalen auslöst, welches den Klang einer Schlagaktion auf dem Saiteninstrument simuliert, und
wobei die Stakkato-Artikulation eine In-Bewegung-Wischgeste mit Kontakt mit der Berührzone beinhaltet, wobei die Stakkato-Artikulation eine Wiedergabe eines dritten Audio-Signals aus der Vielzahl an vorausgewählten Audio-Signalen auslöst, welches den Klang eines kurzen Bursts einer Bogenaktion auf dem Saiteninstrument simuliert.

20. Verfahren nach Anspruch 19, wobei eine Geschwindigkeit der Legato-Artikulation einen Ausdruckswert des ersten Audio-Signals steuert, wobei eine Geschwindigkeit der Pizzicato-Artikulation einen Ausdruckswert des zweiten Audio-Signals steuert und wobei eine Geschwindigkeit der Stakkato-Artikulation einen Ausdruckswert des dritten Audio-Signals steuert.

21. Benutzerschnittstelle, implementiert auf einer berührungsempfindlichen Anzeige für ein virtuelles Musikinstrument, aufweisend:
eine oder mehrere Akkord-Berührregionen, wobei jede Akkord-Berührregion mit einem Basisakkord in einem musikalischen Schlüssel korrespondiert und in eine Vielzahl an getrennten Berührzonen geteilt ist, wobei jede aus der Vielzahl an getrennten Berührzonen in jeder Berührregion mit einem oder mehreren vorausgewählten, in einem computerlesbaren Medium gespeicherten Audio-Signalen assoziiert ist,
wobei jede aus der Vielzahl an getrennten Berührzonen in jeder Berührregion mit einer unterschiedlichen harmonischen Konfiguration des Basisakkords der Akkord-Berührregion, zu welcher dieser gehört, assoziiert ist, und
jede aus der Vielzahl an Berührzonen zum Erkennen von zwei oder mehr Berührgestenartikulationen eingerichtet ist.

22. Benutzerschnittstelle nach Anspruch 21, wobei jede der Akkord-Berührregionen umfasst:
eine erste Berührzone, die mit einem Basisakkord korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist; und
eine zweite Berührzone, die mit einer ersten Umkehrung des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist.

23. Benutzerschnittstelle nach Anspruch 22, wobei der erste Umkehrungsakkord in der relativen Tonlage höher ist als der Basisakkord.

24. Benutzerschnittstelle nach Anspruch 22, wobei der erste Umkehrungsakkord sich in einem breiteren harmonischen Bereich relativ zu dem Basisakkord befindet.

25. Benutzerschnittstelle nach Anspruch 21, wobei jede der Akkord-Berührregionen umfasst:
eine erste Berührzone, die mit einem ersten Akkord-Voicing des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist; und
eine zweite Berührzone, die mit einem zweiten Akkord-Voicing des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist, wobei das zweite Akkord-Voicing einen breiteren harmonischen Bereich als das erste Akkord-Voicing beinhaltet.

26. Benutzerschnittstelle nach Anspruch 21, wobei ein Wechseln zwischen einer ersten harmonischen Konfiguration des Basisakkords und einer zweiten harmonischen Konfiguration des Basisakkords in einem Wechsel von einer minimalen Anzahl an Noten resultiert, die erforderlich sind, um zwischen der ersten und zweiten harmonischen Konfiguration des Basisakkords zu schalten.

27. Benutzerschnittstelle nach Anspruch 21, wobei ein Wechseln zwischen einem ersten Basisakkord und einem zweiten Basisakkord in einem Wechsel von einer minimalen Anzahl an Noten resultiert, die erforderlich sind, um zwischen dem ersten und zweiten Basisakkord zu schalten.

28. Computerprogrammprodukt, gespeichert auf einem nichtflüchtigen computerlesbaren Speichermedium, aufweisend computerausführbare Instruktionen, die einen Prozessor veranlassen zum:
in Reaktion auf eine Eingabe von einer Benutzerschnittstelle, die auf einer berührungsempfindlichen Anzeige für ein virtuelles Musikinstrument implementiert ist, aufweisend eine Vielzahl an Akkord-Berührregionen, wobei jede Akkord-Berührregion mit einem Basisakkord in einem musikalischen Schlüssel korrespondiert und in eine Reihe an getrennten Berührzonen geteilt ist, wobei jede Berührzone aus der Reihe an getrennten Berührzonen in jeder Berührregion mit einer unterschiedlichen harmonischen Konfiguration des Basisakkords der Akkord-Berührregion, zu welcher dieser gehört, korrespondiert,
Veranlassen, ein vorausgewähltes Audio-Signal auf einer Ausgabevorrichtung abzuspielen, wobei die Eingabe von dem Benutzer eine aus einer Vielzahl an Gestenartikulationen auf einer Berührzone beinhaltet, die mit dem vorausgewählten Audio-Signal, das in einem computerlesbaren Medium gespeichert ist, assoziiert ist.

29. Computerprogrammprodukt nach Anspruch 28, wobei jede der Akkord-Berührregionen aufweist:
eine erste Berührzone, die mit dem Basisakkord korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist; und
eine zweite Berührzone, die mit einer ersten Umkehrung des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist.

30. Computerprogrammprodukt nach Anspruch 29, wobei der erste Umkehrungsakkord in einer relativen Tonlage höher ist als der Basisakkord.

31. Computerprogrammprodukt nach Anspruch 29, wobei der erste Umkehrungsakkord sich in einem breiteren harmonischen Bereich relativ zu dem Basisakkord befindet.

32. Computerprogrammprodukt nach Anspruch 28, wobei jede der Akkord-Berührregionen aufweist:
eine erste Berührzone, die mit einem ersten Akkord-Voicing des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist; und
eine zweite Berührzone, die mit einem zweiten Akkord-Voicing des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist, wobei das zweite Akkord-Voicing einen breiteren harmonischen Bereich als das erste Akkord-Voicing beinhaltet.

33. Computerprogrammprodukt nach Anspruch 28, wobei ein Wechsel zwischen einer ersten harmonischen Konfiguration des Basisakkords und einer zweiten harmonischen Konfiguration des Basisakkords in einem Wechsel von einer minimalen Anzahl an Noten resultiert, die erforderlich sind, um zwischen der ersten und zweiten harmonischen Konfiguration des Basisakkords zu schalten.

34. Computerprogrammprodukt nach Anspruch 28, wobei ein Wechsel zwischen einem ersten Basisakkord und einem zweiten Basisakkord in einem Wechsel von einer minimalen Anzahl an Noten resultiert, die erforderlich sind, um zwischen dem ersten und zweiten Basisakkord zu schalten.

35. Computerimplementiertes System, aufweisend:
einen oder mehrere Datenprozessoren;
eines oder mehrere nichtflüchtige computerlesbare Speichermedien, enthaltend Instruktionen, die eingerichtet sind, den einen oder die mehreren Prozessoren zu veranlassen, Operationen durchzuführen, die beinhalten:
Assoziieren eines Basisakkords mit einer oder mehreren Akkord-Berührregionen, wobei eine Akkord-Berührregion in eine oder mehrere Berührzonen geteilt ist, wobei eine Berührzone zwei oder mehr Arten an Gestenartikulationen erkennen kann und wobei jede Berührzone mit einer harmonischen Konfiguration des Basisakkords korrespondiert;
Assoziieren eines Audio-Signals mit jeder der einen oder mehreren Berührzonen;
Erzeugen einer grafischen Schnittstelle, implementiert auf einer berührungsempfindlichen Anzeige, wobei die grafische Schnittstelle ein virtuelles Musikinstrument anzeigt, beinhaltend den Basisakkord; und
Empfangen einer Eingabe, die mit einer Gestenartikulation auf einer Berührzone korrespondiert, wobei die Gestenartikulation veranlasst, dass das Audio-Signal, welches mit der Berührzone assoziiert ist, auf einer Ausgabevorrichtung abgespielt wird.

36. System nach Anspruch 35, wobei jede der Akkord-Berührregionen aufweist:
eine erste Berührzone, die mit einem Basisakkord korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist; und
eine zweite Berührzone, die mit einer ersten Umkehrung des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist.

37. System nach Anspruch 36, wobei der erste Umkehrungsakkord in einer relativen Tonlage höher ist als der Basisakkord, wobei der zweite Umkehrungsakkord in einer relativen Tonlage höher ist als der erste Umkehrungsakkord und wobei der dritte Umkehrungsakkord in einer relativen Tonlage höher ist als der zweite Umkehrungsakkord.

38. System nach Anspruch 36, wobei sich der erste Umkehrungsakkord in einem breiteren harmonischen Bereich relativ zu dem Basisakkord befindet.

39. System nach Anspruch 35, wobei jede der Akord-Berührregionen aufweist:
eine erste Berührzone, die mit einem ersten Akkord-Voicing des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist;
eine zweite Berührzone, die mit einem zweiten Akkord-Voicing des Basisakkords korrespondiert, der der entsprechenden Akkord-Berührregion zugewiesen ist, wobei das zweite Akkord-Voicing einen breiteren harmonischen Bereich als das erste Akkord-Voicing beinhaltet.

40. System nach Anspruch 35, wobei ein Wechsel zwischen einer ersten harmonischen Konfiguration des Basisakkords und einer zweiten harmonischen Konfiguration des Basisakkords in einem Wechsel von einer minimalen Anzahl an Noten resultiert, die erforderlich sind, um zwischen der ersten und zweiten harmonischen Konfiguration des Basisakkords zu schalten.

41. Computerprogrammprodukt, materiell auf einem nichtflüchtigen computerlesbaren Speichermedium enthalten, aufweisend computerausführbare Instruktionen, die ein Datenverarbeitungssystem veranlassen zum:
Erzeugen eines virtuellen dualen Flugradsystems, beinhaltend:
ein erstes virtuelles Flugrad, eingerichtet zum Erzeugen eines ersten virtuellen Impulses, basierend auf einer Benutzereingabe und einer vorbestimmten virtuellen Masse des ersten virtuellen Flugrades; und
ein zweites virtuelles Flugrad, eingerichtet zum Erzeugen eines zweiten virtuellen Impulses, basierend auf dem ersten virtuellen Impuls und einer vorbestimmten zweiten virtuellen Masse des zweiten virtuellen Flugrades;
Erzeugen einer Benutzerschnittstelle, implementiert auf einer berührungsempfindlichen Anzeige für ein virtuelles Musikinstrument, beinhaltend eine Vielzahl an Berührregionen, wobei jede Berührregion mit einem Akkord in einem musikalischen Schlüssel korrespondiert und in eine Reihe an getrennten Berührzonen geteilt ist; und
in Reaktion auf die Benutzereingabe, Erzeugen eines Ausdruckspegels basierend auf dem zweiten virtuellen Impuls.

42. Computerprogrammprodukt nach Anspruch 41, wobei das erste virtuelle Flugrad seriell mit dem zweiten virtuellen Flugrad verbunden ist.

43. Computerprogrammprodukt nach Anspruch 41, weiterhin aufweisend ein Anwenden des Ausdruckspegels auf ein Audio-Signal zum Modulieren eines oder mehrerer Audio-Eigenschaften des Audio-Signals.

44. Computerprogrammprodukt nach Anspruch 43, wobei die eine oder mehreren Audio-Eigenschaften des Audio-Signals eine Lautstärke einer musikalischen Note oder eines Akkords beinhalten.

45. Computerprogrammprodukt nach Anspruch 43, wobei die eine oder mehreren Audio-Eigenschaften des Audio-Signals einen Lebenszyklus einer musikalischen Note oder eines Akkords beinhalten.

46. Computerprogrammprodukt nach Anspruch 45, wobei der Lebenszyklus der musikalischen Note beinhaltet:
eine Anstieg-Phase;
eine Halten-Phase; und
eine Freigeben-Phase, wobei die Halten-Phase betreibbar ist, um in die Freigeben-Phase einzutreten, wenn der Ausdruckspegel während der Halten-Phase unter einen ersten vorbestimmten Wert fällt, und die Freigeben-Phase betreibbar ist, um zu der Halten-Phase zurückzukehren, in Reaktion darauf, dass der Ausdruckspegel über einen zweiten vorbestimmten Wert ansteigt.

47. Computerprogrammprodukt nach Anspruch 46, wobei die Anstieg-Phase mit einem Anfangsabschnitt des Lebenszyklus der musikalischen Note oder des Akkords korrespondiert.

48. Computerprogrammprodukt nach Anspruch 46, wobei die Halten-Phase mit einem mittleren Abschnitt des Lebenszyklus der musikalischen Note oder des Akkords korrespondiert.

49. Computerprogrammprodukt nach Anspruch 46, wobei die Freigeben-Phase mit einem Schlussabschnitt des Lebenszyklus der musikalischen Note oder des Akkords korrespondiert.

50. Computerimplementiertes Verfahren, aufweisend:
Erzeugen einer Benutzerschnittstelle, implementiert auf einer berührungsempfindlichen Anzeige;
Erzeugen eines virtuellen dualen Flugradsystems, beinhaltend ein erstes virtuelles Flugradsystem und ein zweites virtuelles Flugradsystem, wobei das erste virtuelle Flugradsystem seriell mit dem zweiten virtuellen Flugradsystem verbunden ist, sodass eine Ausgabe des ersten virtuellen Flugradsystems mit einer Eingabe des zweiten virtuellen Flugradsystems gekoppelt ist;
Empfangen einer Benutzereingabe auf der Benutzerschnittstelle;
Bestimmen eines virtuellen Impulses für das erste virtuelle Flugrad basierend auf der Benutzereingabe und einem vorbestimmten Massenkoeffizienten des ersten virtuellen Flugradsystems; und
Bestimmen eines virtuellen Impulses für das zweite virtuelle Flugrad, basierend auf dem virtuellen Impuls des ersten virtuellen Flugradsystems und einem vorbestimmten Massenkoeffizienten des zweiten virtuellen Flugrades.

51. Verfahren nach Anspruch 50, wobei die Benutzereingabe eine Wischgeste ist, und eine Magnitude der Benutzereingabe teilweise auf einem Tempo oder einer Dauer der Wischgeste basiert.

52. Verfahren nach Anspruch 50, wobei der virtuelle Impuls des zweiten virtuellen Flugrades ein Ausgabepegel ist, der betreibbar ist, um eine Lautstärke oder musikalische Eigenschaft einer musikalischen Note oder eines Akkords zu modulieren.

53. Verfahren nach Anspruch 50, weiterhin aufweisend ein Anwenden des virtuellen Impulses für das zweite virtuelle Flugrad zum Modulieren eines Lebenszyklus einer musikalischen Note.

54. Verfahren nach Anspruch 53, wobei der virtuelle Impuls des zweiten virtuellen Flugrads einen Pegel repräsentiert, und wobei der Lebenszyklus der musikalischen Note beinhaltet:
eine Anstieg-Phase,
eine Halten-Phase, und
eine Freigeben-Phase, wobei die Halten-Phase in die Freigeben-Phase eintritt, wenn der Pegel in der Halten-Phase unter einen ersten vorbestimmten Wert fällt, wobei die Freigeben-Phase zu der Halten-Phase in Reaktion darauf, dass der Pegel über einen zweiten vorbestimmten Wert ansteigt, zurückkehrt.

55. Computerimplementiertes System, aufweisend:
einen oder mehrere Prozessoren;
eines oder mehrere nichtflüchtige computerlesbare Speichermedien, enthaltend Instruktionen, die eingerichtet sind, den einen oder die mehreren Prozessoren zu veranlassen, Operationen durchzuführen, die beinhalten:
Erzeugen einer Benutzerschnittstelle, implementiert auf einer berührungsempfindlichen Anzeige;
Erzeugen eines virtuellen dualen Flugradsystems, beinhaltend ein erstes virtuelles Flugradsystem und ein zweites virtuelles Flugradsystem, wobei das erste virtuelle Flugradsystem mit dem zweiten virtuellen Flugradsystem seriell verbunden ist, sodass eine Ausgabe des ersten virtuellen Flugradsystems virtuell mit einer Eingabe des zweiten virtuellen Flugradsystems gekoppelt ist;
Empfangen einer Benutzereingabe auf der Benutzerschnittstelle;
Bestimmen eines virtuellen Impulses für das erste virtuelle Flugrad, basierend auf der Benutzereingabe und einem vorbestimmten Massenkoeffizienten des ersten virtuellen Flugradsystems; und
Bestimmen eines virtuellen Impulses für das zweite virtuelle Flugrad, basierend auf dem virtuellen Impuls des ersten virtuellen Flugradsystems und einem vorbestimmten Massenkoeffizienten des zweiten virtuellen Flugrades.

56. System nach Anspruch 55, wobei die Benutzereingabe eine Wischgeste ist und eine Magnitude der Benutzereingabe teilweise auf einem Tempo der Wischgeste basiert.

57. System nach Anspruch 55, wobei der virtuelle Impuls des zweiten virtuellen Flugrades ein Ausgabepegel ist, der betreibbar ist, um eine Lautstärke oder eine musikalische Eigenschaft einer musikalischen Note oder eines Akkords zu modulieren.

58. System nach Anspruch 55, weiterhin aufweisend ein Anwenden des virtuellen Impulses für das zweite virtuelle Flugrad zum Modulieren eines Lebenszyklus einer musikalischen Note.

59. System nach Anspruch 58, wobei der virtuelle Impuls des zweiten virtuellen Flugrads einen Pegel repräsentiert, und wobei der Lebenszyklus der musikalischen Note beinhaltet:
eine Anstieg-Phase,
eine Halten-Phase, und
eine Freigeben-Phase, wobei die Halten-Phase in die Freigeben-Phase eintritt, wenn der Pegel in der Halten-Phase unter einen ersten vorbestimmten Wert fällt, wobei die Freigeben-Phase zu der Halten-Phase in Reaktion darauf, dass der Pegel über einen zweiten vorbestimmten Wert ansteigt, zurückkehrt.

60. Computerprogrammprodukt nach Anspruch 59, wobei die Anstieg-Phase mit einem Anfangsabschnitt des Lebenszyklus der musikalischen Note oder des Akkords korrespondiert, die Halten-Phase mit einem mittleren Abschnitt des Lebenszyklus der musikalischen Note oder des Akkords korrespondiert und die Freigeben-Phase mit einem Schlussabschnitt des Lebenszyklus der musikalischen Note oder des Akkords korrespondiert.

Description:
QUERVERWEIS AUF IN BEZIEHUNG STEHENDE ANMELDUNGEN

Die vorliegende, nicht-vorläufige Anmeldung beansprucht gemäß 35 U. S. C. §119 die Priorität der vorläufigen U. S. Patentanmeldung, mit Anmeldenummer 61/607,585, eingereicht am 6. März 2012, mit dem Titel ”DETERMINING THE CHARACTERISTIC OF A PLAYED NOTE ON A VIRTUAL INSTRUMENT” (”Bestimmen der Eigenschaft einer gespielten Note auf einem virtuellen Instrument”), die hierin für alle Zwecke in ihrer Gesamtheit mittels Bezugnahme eingebunden ist.

HINTERGRUND

Virtuelle Musikinstrumente, wie MIDI-basierte oder Software-basierte Keyboards, Gitarren, Bässe und Ähnliches haben typischerweise Benutzerschnittstellen, die dem tatsächlichen Instrument sehr ähneln. Beispielsweise wird ein virtuelles Klavier eine Schnittstelle aufweisen, die als eine berührungsempfindliche Darstellung einer Klaviatur eingerichtet ist, oder eine virtuelle Gitarre wird eine Schnittstelle haben, die als ein berührungsempfindliches Bundbrett eingerichtet ist. Während diese Arten an Schnittstellen intuitiv sein mögen, erfordern sie, dass der Benutzer versteht, wie Noten, Akkorde, Akkordfolgen, usw. auf einem realen Musikinstrument gespielt werden, um diese auf dem virtuellen Musikinstrument zu implementieren, sodass der Benutzer in der Lage ist, ansprechende melodische oder harmonische Sounds von dem virtuellen Instrument zu erzeugen. Solche Erfordernisse können für Musiker, die wenig oder gar keine Erfahrung mit dem bestimmten entsprechenden Instrument oder mit Musikkompositionen im Allgemeinen haben, problematisch sein. Weiterhin mögen sich manche Instrumente nicht für virtuelle Repliken, die ähnliche Eingabeartikulationen auf der Benutzerschnittstelle erfordern, hergeben. Beispielsweise können Blechbläser oder Orchesterinstrumente Luftdruck oder handgehaltene Instrumente erfordern, um eine Note zu spielen, ganz zu schweigen von einem Akkord. MIDI-Klaviaturen werden typischerweise als Sampler verwendet, um diese Orchestersounds neu zu erzeugen und, wie oben diskutiert, erfordern ein gewisses Maß an Klaviaturbeherrschung und musikalisches Wissen, um ansprechende melodische oder harmonische Phrasen zu erzeugen.

Nicht alle Benutzer, die das Spielen eines virtuellen Instruments genießen würden, sind Musiker, die wissen, wie ein Akkord zu bilden ist, Akkordabfolgen zu konstruieren sind oder eine diatonische Harmonik innerhalb einer musikalischen Tonart zu komponieren ist. Weiterhin können Benutzer, die nicht wissen, wie auf einem realen Instrument Akkorde zu bilden und Akkordfolgen zu spielen sind, es schwierig finden, Musik mit der gleichen musikalischen Beherrschung auf der Benutzerschnittstelle neu zu erzeugen, aufgrund des Mangels an taktilen Stimuli (z. B. Gewichte der Tasten, Saiten, Bogen, usw.), an die der Benutzer gewöhnt sein könnte.

Diese Probleme führen zur Frustration und machen ein System weniger nützlich, weniger erfreulich und weniger beliebt. Deshalb besteht ein Bedürfnis nach einem System, das eine Balance zwischen dem Simulieren traditioneller musikalischer Instrumente und dem Bereitstellen einer optimierten Benutzerschnittstelle findet, das effektive musikalische Eingaben und Leistungen ermöglicht und das selbst Nicht-Musikern erlaubt, eine musikalische Darbietung auf einem virtuellen Instrument zu erfahren.

KURZE BESCHREIBUNG DER ZEICHNUNGEN

1 zeigt eine schematische Darstellung einer Benutzerschnittstelle für ein virtuelles Musikinstrument, gemäß einer Ausführungsform der Erfindung.

2 stellt eine Vielzahl an gestischen Legato-Artikulationen über eine Vielzahl an musikalisch-definierten Berührregionen dar, gemäß einer Ausführungsform der Erfindung.

3 stellt eine Zweifingerauto-Legato-gestische Artikulation über eine Vielzahl an musikalisch-definierten Berührregionen dar, gemäß einer Ausführungsform der Erfindung.

4 stellt eine Pizzicato-gestische Artikulation in einer Berührregion einer berührungsempfindlichen musikalischen Schnittstelle dar, gemäß einer Ausführungsform der Erfindung.

5 stellt eine Stakkato-Gestenartikulation in einer berührungsempfindlichen Region einer berührungsempfindlichen musikalischen Schnittstelle, gemäß einer Ausführungsform der Erfindung, dar.

6 ist ein vereinfachtes Flussdiagramm, welches Aspekte eines Verfahrens zum Bestimmen einer Eigenschaft einer Note, die von einem virtuellen Instrument ausgegeben wird, darstellt, gemäß einer Ausführungsform der Erfindung.

7 zeigt eine Darstellung einer Benutzerschnittstelle für ein virtuelles Musikinstrument, gemäß einer Ausführungsform der Erfindung.

8 zeigt eine Legato-gestische Artikulation auf einer Berührregion einer virtuellen musikalischen Instrumentenschnittstelle, gemäß einer Ausführungsform der Erfindung.

9 zeigt ein Diagramm, das das Überblenden („cross-fading”) zweier Samples von einem virtuellen Instrument darstellt, gemäß einer Ausführungsform der Erfindung.

10 stellt eine Abbildungskonfiguration eines Stereo-Feldes eines überblendeten zusammengesetzten Samples dar, gemäß einer Ausführungsform der Erfindung.

11 zeigt ein duales Flugrad eines Massenmodellierungssystems, gemäß einer Ausführungsform der Erfindung.

12 stellt eine Ausführungsform eines Notenlebenszyklus dar, gemäß einer Ausführungsform der Erfindung.

13 ist eine vereinfachte Zustandsmaschine, die Aspekte des Modellierens eines Lebenszyklus einer auf einem virtuellen Instrument gespielten Note darstellt, gemäß einer Ausführungsform der Erfindung.

14 stellt ein Beispiel eines musikalischen Darbietungssystems dar, das es einem Benutzer ermöglicht, Musik mit einer Reihe an virtuellen Instrumenten auf einer musikalischen Anwendung zu komponieren und zu erzeugen, gemäß einer Ausführungsform der Erfindung.

15 stellt ein Computersystem gemäß einer Ausführungsform der vorlegenden Erfindung dar.

16 stellt eine Akkordberührregion dar, die vier Berührzonen mit Akkordkonfigurationen beinhaltet, die sukzessive breitere harmonische Bereiche haben, gemäß einer Ausführungsform der Erfindung.

17 stellt eine Akkordberührregion, die vier Berührzonen mit Akkordkonfigurationen dar, die harmonische Bereiche haben, die sukzessive bezüglich der Tonlage höher sind, gemäß einer Ausführungsform der Erfindung.

18 stellt eine Akkordberührregion, die vier Berührzonen mit Akkordkonfigurationen aufweist, dar, die sich zwischen den Akkordumkehrungen durch eine minimale Anzahl an Noten ändern, gemäß einer Ausführungsform der Erfindung.

19 stellt eine Akkordberührregion dar, die vier Berührzonen beinhaltet, mit Akkordkonfigurationen, die sich durch eine minimale Anzahl an Noten zwischen den Akkorden ändert, gemäß einer Ausführungsform der Erfindung.

20 ist ein vereinfachtes Flussdiagramm, das Aspekte eines Verfahrens zum Auswählen eines virtuellen Instrumentes auf einer Benutzerschnittstelle darstellt, gemäß einer Ausführungsform der Erfindung.

21 ist ein vereinfachtes Flussdiagramm, das Aspekte eines Verfahrens zum Modulieren eines Lebenszyklus einer musikalischen Note oder eines Akkords darstellt, gemäß einer Ausführungsform der Erfindung.

DETAILLIERTE BESCHREIBUNG

Die folgende Offenbarung beschreibt Systeme, Verfahren und Produkte für eine musikalische Darbietung und/oder eine Eingabe. Mehrere Ausführungsformen können eine drahtlose Berührungsbildschirmvorrichtung beinhalten oder mit dieser kommunikativ gekoppelt sein. Eine drahtlose Berührungsbildschirmvorrichtung, die einen Prozessor beinhaltet, kann die Verfahren mehrerer Ausführungsformen implementieren. Viele andere Beispiele und andere Eigenschaften werden aus der folgenden Beschreibung ersichtlich werden.

Ein musikalisches Darbietungssystem kann Benutzereingaben akzeptieren und einen oder mehrere Töne hörbar erklingen lassen. Benutzereingaben können über eine Benutzerschnittstelle akzeptiert werden. Ein musikalisches Darbietungssystem hat folglich Ähnlichkeiten mit einem Musikinstrument. Jedoch ist ein musikalisches Darbietungssystem, anders als die meisten Musikinstrumente, nicht auf einen Satz an Tönen begrenzt. Beispielsweise kann eine klassische Violine oder ein klassisches Cello nur einen Satz an Tönen erklingen lassen, weil eine Interaktion eines Musikers mit den physikalischen Eigenschaften des Instruments die Töne erzeugt. Andererseits kann ein musikalisches Darbietungssystem es einem Benutzer ermöglichen, einen oder mehrere Töne in einem Satz an Tönen zu modifizieren oder zwischen mehreren Sätzen an Tönen zu wechseln. Ein musikalisches Darbietungssystem kann es einem Benutzer ermöglichen, einen oder mehrere Töne in einem Satz an Tönen zu modifizieren, indem ein oder mehrere Effekteinheiten verwendet werden. Ein musikalisches Darbietungssystem kann es einem Benutzer ermöglichen, zwischen mehreren Sätzen an Tönen zu wechseln. Jeder Satz an Tönen kann mit einem Patch assoziiert sein (z. B. Kanalstreifendatei („channel strip” – CST file)).

14 stellt ein Beispiel eines musikalischen Darbietungssystems dar, das es einem Benutzer ermöglicht, Musik mit einem Satz an virtuellen Instrumenten auf einer Musikanwendung zu komponieren und zu erzeugen, gemäß einer Ausführungsform der Erfindung. Das Musikdarbietungssystem 1400 kann mehrere Untersysteme wie eine Anzeige 1405, eine oder mehrere Verarbeitungseinheiten 1410 und ein Speicheruntersystem 1415 beinhalten. Ein oder mehrere Kommunikationspfade können bereitgestellt werden, um es einem oder mehreren der Untersysteme zu ermöglichen, miteinander zu kommunizieren und Daten auszutauschen. Die verschiedenen Untersysteme in 14 können in Software, in Hardware oder Kombinationen davon implementiert sein. In einigen Ausführungsformen kann die Software auf einem flüchtigen oder nichtflüchtigen computerlesbaren Speichermedium gespeichert sein und durch eine oder mehrere Verarbeitungseinheiten ausgeführt werden.

Es soll verstanden werden, dass das musikalische Darbietungssystem 1400 wie in 14 gezeigt mehr oder weniger Komponenten, als die in 14 gezeigten, beinhalten kann, zwei oder mehr Komponenten kombinieren kann oder eine unterschiedliche Konfiguration oder Anordnung an Komponenten haben kann. In einigen Ausführungsformen kann das musikalische Darbietungssystem 1400 ein Teil einer tragbaren Rechenvorrichtung, wie ein Tablet-Computer, ein Mobiltelefon, ein Smartphone, ein Desktop-Computer, ein Laptop-Computer, ein Kiosk, usw. sein.

Die Anzeige 1405 kann in einigen Ausführungsformen eine Schnittstelle bereitstellen, die es einem Benutzer erlaubt, mit dem musikalischen Darbietungssystem 1400 zu interagieren. Die Anzeige 1405 kann ein Monitor oder ein Bildschirm in einigen Ausführungsformen sein. Durch die Schnittstelle kann der Benutzer eine GUI 1420 eines musikalischen Darbietungssystems 1400 sehen und mit dieser interagieren. In einigen Ausführungsformen kann die Anzeige 1405 eine berührungsempfindliche Schnittstelle (manchmal auch als Berührungsbildschirm bezeichnet) beinhalten, die sowohl Informationen für den Benutzer anzeigen kann wie auch Eingaben von dem Benutzer empfangen kann. Die Verarbeitungseinheit(en) 1410 kann einen oder mehrere Prozessoren beinhalten, die je einen oder mehrere Kerne aufweisen. In einigen Ausführungsformen kann/können die Verarbeitungseinheit(en) 1410 Instruktionen ausführen, die in einem Speicheruntersystem 1415 gespeichert sind. Das System 1400 kann auch andere Arten an Benutzereingabe- und -ausgabemechanismen beinhalten, die es einem Benutzer ermöglichen, eine Eingabe basierend auf empfangenen Messwerten eines Accelerometers oder eines Gyroskop-Sensors bereitzustellen (intern im System 1400) oder Ausgaben bereitzustellen, wie eine haptische Ausgabe basierend auf einer gewünschten musikalischen Eigenschaft.

Das Speicheruntersystem 1415 kann mehrere Speichereinheiten wie einen Systemspeicher 1430, einen Nur-Lese-Speicher („read-only memory”, ROM) 1440 und eine dauerhafte Speichervorrichtung 1450 beinhalten. Der Systemspeicher kann eine Lese- und -Schreibe-Speichervorrichtung oder ein flüchtiger Lese- und -Schreibe-Speicher, wie ein dynamischer Speicher mit wahlfreiem Zugriff („dynamic random access memory”) sein. Der Systemspeicher kann einige oder die gesamten Instruktionen und Daten, die der Prozessor zur Laufzeit benötigt, speichern. Der ROM kann statische Daten und Instruktionen speichern, die von der/den Prozessoreinheit(en) 1410 und anderen Modulen des Systems 1400 benötigt werden. Die permanente Speichervorrichtung kann eine Lese- und -Schreibe-Speichervorrichtung sein. Einige Ausführungsformen der Erfindung können eine Massenspeichervorrichtung (wie eine magnetische oder optische Disk oder ein Flash-Speicher) als eine permanente Speichervorrichtung verwenden. Andere Ausführungsformen können eine entfernbare Speichervorrichtung (z. B. eine Floppy-Disk, ein Flash-Laufwerk) als eine permanente Speichervorrichtung verwenden.

Das Speicheruntersystem 1415 kann eine Berührungsgestenbibliothek 1415 speichern, die eine Reihe an vom System erkennbaren Berührungsgesten 1432 auf der GUI 1420, MIDI-gesteuerte Audio-Samples 1434 zum Speichern von Daten, die sich auf Musik beziehen, die auf den virtuellen Instrumenten gespielt wird, und virtuelle Instrument-Daten 1436 zum Speichern von Informationen über jedes virtuelle Instrument beinhalten. Weitere Einzelheiten betreffend die Systemarchitektur und Hilfskomponenten davon werden nicht im Einzelnen diskutiert, um so nicht den Fokus der Erfindung zu verschleiern, und würden von einem Fachmann verstanden werden.

Akkordansichtsschnittstelle

1 zeigt eine schematische Darstellung einer Benutzerschnittstelle 100 für ein virtuelles Musikinstrument, gemäß einer Ausführungsform der Erfindung. 1 zeigt die Benutzerschnittstelle, die auf einem Tablet-Computer wie dem Apple iPad® angezeigt wird; jedoch könnte die Schnittstelle auf jeglichem Berührungsbildschirm oder jeglicher berührungsempfindlichen Rechenvorrichtung (Smartphone, persönlicher digitaler Assistent und Ähnliches) verwendet werden. Die Schnittstelle 100 beinhaltet einen Sound-Browser für Kanal-Streifen-Dateien („channel strip file”, CST) 110, einen Selektor für ein virtuelles Instrument (VIS) 120, einen Selektor für Autoplay 130, eine Akkord-Spieler-Region 140 und einen Akkord/Noten-Schalter 170. Alternativ können andere Sound-Dateien oder ”Patches” anstelle von, oder zusätzlich zu, den CST-Dateien verwendet werden, auf die mit dem Sound-Browser 110 zugegriffen werden kann.

Der CST-Sound-Browser 110 kann eingerichtet sein, eine Sammlung von virtuellen Instrumenten auszuwählen, wobei jede Sammlung oder jedes Ensemble für eine unterschiedliche musikalische Präferenz geeignet ist. Das Auswählen einer gegebenen Sammlung (z. B. Symphoniestreicher, Streichquartett, Barock-Streicher, usw.) lädt die geeigneten CST und Autoplay-Spuren, die speziell für das ausgewählte Ensemble geeignet sind. Beispielsweise kann die Symphonie-CST eine erste Violine, eine zweite Violine, eine Viola, ein Cello und einen Bass beinhalten. Im Gegensatz dazu kann die Streichquartett-CST eine erste und eine zweite Violine, eine Viola und ein Cello beinhalten. Jegliche Anzahl und Konfiguration an virtuellen Instrumenten kann in jeglicher bevorzugten Kombination gruppiert werden. In einigen Ausführungsformen können MIDI-Sequenzen anstelle von, oder zusätzlich zu, den Autoplay-Spuren verwendet werden.

Die Schnittstelle 100 beinhaltet eine Reihe an Akkord-Berührregionen (Akkord-Streifen) 150, die beispielsweise als ein Satz von acht benachbarten Spalten oder Streifen gezeigt sind. Jede Berührregion 150 kann einem vordefinierten Akkord (Basisakkord) innerhalb eines oder mehrerer bestimmter Schlüssel entsprechen, wobei benachbarte Regionen eingerichtet sind, mit unterschiedlichen Akkorden und Sequenzen innerhalb des Schlüssels oder der Schlüssel zu entsprechen. Beispielsweise beinhaltet der Schlüssel von C-Dur die diatonischen Akkorde von C-Dur (I), D-Moll (ii), E-Moll (iii), F-Dur (IV), G-Dur (V), A-Moll (vi) und B-Vermindert (vii), die anderweitig als die Tonika-, Supertonika-, Mediante-, Subdominante-, Dominante-, Submediante- und Leitton-Akkorde bekannt sind. In dem in 1 gezeigten Beispiel ist ein zusätzlicher, nicht diatonischer Akkord von B-Dur mit dem Schlüssel von C-Dur enthalten und die Akkorde sind sequenziell angeordnet gemäß dem Quintenzirkel. Diese Anordnung erlaubt es einem Benutzer, akustisch ansprechende Sequenzen leicht zu generieren, indem benachbarte Berührregionen erforscht werden. Ein Benutzer kann die unterschiedlichen Berührregionen 150 berühren oder darauf Gesten initiieren (z. B. Wischgesten), um Sounds zu erzeugen, die mit dem Akkord in Beziehung stehen, der der bestimmten Berührregion zugewiesen ist. Die Arten an Berührungen, Sounds und/oder Gesten, die mit den Berührregionen assoziiert sind und Merkmale darin werden nachstehend weiter beschrieben. Es sollte beachtet werden, dass jeglicher Satz an Tonhöhen (gemeinsam als ein Akkord bekannt) für jegliche Akkord-Berührregion definiert werden kann und nicht beschränkt ist auf die konventionelle Harmonik, die in diesem bestimmten Beispiel beschrieben ist.

Jede Akkord-Berührregion ist in eine Reihe von Berührzonen, die gemeinsam als Berührzonen 160 in Bezug genommen werden, geteilt. In 1 weist jede Berührregion 150 vier individuelle Berührzonen 162, 164, 166, 168 auf. Jede der Berührzonen 160 kann mit unterschiedlichen harmonischen Voicings (z. B. Akkordumkehrungen) des Basisakkords, der der Berührregion 150, zu welcher dieser gehört, zugewiesen ist, korrespondieren. Die Akkorde, die jeder Berührzone 160 zugewiesen sind, können mit MIDI-gesteuerten Audio-Samples (z. B. Signalen, Streams, usw.) assoziiert sein. Das Berühren oder Initiieren von Berührungsgesten auf jeglicher Berührzone 160 in einer Region 150 lässt die Akkord-Audio-Sample, die jener Berührzone zugewiesen ist, abspielen.

MIDI („Musical Instrument Digital Interface”) ist ein Industrie-Standard-Protokoll, das 1982 definiert wurde, das es elektronischen musikalischen Instrumenten, wie Keyboard-Steuerungen, Computern und anderem elektronischen Equipment, ermöglicht, untereinander zu kommunizieren, sich untereinander zu steuern und zu synchronisieren. Beispielsweise kann MIDI verwendet werden, um die Wiedergabe einer Audio-Sample auszulösen, um einen Sound zu erzeugen. Anders gesagt ist MIDI ein Instruktions-Kommunikationsprotokoll, das typischerweise bei elektronischen Musikinstrumenten verwendet wird. Es soll beachtet werden, dass der Begriff ”Audio-Signal” auch eine MIDI-gesteuerte Audio-Sample oder einen mittels eines digitalen Signalprozessors („digital signal processor”, DSP) erzeugten Audio-Stream beinhalten kann. Andere Audioverarbeitungssysteme und Protokolle können verwendet werden, wie ein Fachmann wissen würde.

Auswahl eines virtuellen Instrumentes in der Akkordansicht

Ein Benutzer kann ein virtuelles Instrument über die VIS 120 auswählen. In manchen Fällen können die virtuellen Instrumente eine oder mehrere Violinen, Violas, Cellos, Bässe oder Ähnliches beinhalten. Wenn ein Benutzer ein oder mehrere Instrumente mit der VIS 120 auswählt, lädt das System die geeigneten Patch-Dateien (z. B. CST-Dateien) für die ausgewählten Instrumente. In einigen Ausführungsformen zeigt die VIS 120 bis zu 5 oder mehr Instrumenten, die, wenn sie ausgewählt werden (z. B. durch Tippen), entweder eine Note, die von jenem bestimmten Instrument gespielt wird, aktivieren oder deaktivieren. Beispielsweise kann ein Benutzer, während eines Durchführens gestischer Eingaben auf der Berührungszonenregion, die mit einer gegebenen Akkord-Sequenz korrespondiert, eine Violine und einen Bass zum Spielen (d. h. Ausgeben einer hörbaren musikalischen Ausgabe) der gegebenen Akkord-Sequenz auswählen. Während der Eingabe von Gesten zum Erzeugen der Akkord-Sequenz kann der Benutzer den Bass in Echtzeit abwählen, womit nur die zum Ausdruck zu bringende Violinen-Sample während der Akkorde-Sequenz verbleibt. In ähnlicher Weise wird das erneute Auswählen des Basses danach die Stimme der Bass-Sample wieder in die Akkord-Sequenz einführen.

Spuren/Autoplay-Auswahl

In bestimmten Ausführungsformen beinhaltet die Schnittstelle 110 mehrere Akkord-Sequenz-Autoplay-Merkmale. Ein Autoplay-Wähler 130 ist eingerichtet, um eine oder mehrere MIDI-gesteuerten Audio-Samples (z. B. Audio-Signale/-Streams, Audio-Schleifen, usw.), die eine Reihe an vordefinierten begleitenden Rhythmen beinhalten, zu wiederholen, wenn von einem Benutzer ausgewählt. In Reaktion auf eine Benutzerauswahl spielt eine Spur den Akkord, der von dem Benutzer berührt wird. In einigen Ausführungsformen schließt oder endet der Spurrhythmus, wenn der Benutzer die gleiche Akkordregion erneut berührt. Der Spurrhythmus kann zwischen einem neuen Akkord durch Auswählen einer unterschiedlichen Berührzone 150 wechseln. Das Wiedergabe-Tempo kann während der Wiedergabe gesperrt oder manuell anpassbar sein, wie erforderlich. Variationen der Autoplay-Spuren können durch ein- oder mehrfaches Tippen auf den Autoplay-Wähler 130 ausgewählt werden. In einigen Fällen können die Autoplay-Spuren eine MIDI-Sequenz sein. Weiterhin werden die Autoplay-Spuren (oder MIDI-Sequenzen) mit dem Akkord-Voicing, das für jede Berührzone 160 gewählt ist, korrespondieren.

Akkordumkehrungen

In bestimmten Ausführungsformen kann jede der Berührzonen 160 einer Berührregion 150 unterschiedliche Umkehrungen des Basisakkords beinhalten. Beispielsweise kann die höchste Berührzone 162 mit einer Wurzelposition des Basisakkords korrespondieren, wie ein C-Dur-Dreiklang C-E-G mit C in dem Bass. Die nächste benachbarte Berührzone 164 kann mit einer ersten Umkehrung des Basisakkords oder dem C-Dur-Dreiklang C-E-G mit E in dem Bass korrespondieren. Die folgende benachbarte Berührzone 166 kann mit einer zweiten Umkehrung des Basisakkords oder dem C-Dur-Dreiklang C-E-G mit G in dem Bass korrespondieren. Die nächste benachbarte Berührzone 168 kann mit einer dritten Umkehrung des Basisakkords oder dem C-Dur-Dreiklang C-E-G mit einer zusätzlichen Septime in dem Bass korrespondieren (z. B. Cmaj7 mit B in dem Bass oder einer C7 mit einem Bb in dem Bass). Alternativ kann die Berührzone 168 eine Dezime in dem Bass, oder E-C-G, beinhalten, wobei die E-Note eine Oktave höher ist als die E-Note in der ersten Umkehrung E. Zusätzliche Anpassungen der ersten, zweiten und dritten Umkehrungen können verwendet werden.

In einigen Ausführungsformen kann jede der Berührzonen 160 einer Berührregion 150 unterschiedliche Umkehrungen des Basisakkords beinhalten, die sukzessive höher in der relativen Tonlage als der Basisakkord sind. Um dies zu illustrieren, kann die höchste Berührzone 162 einer Wurzelposition des Basisakkords entsprechen, wie einem C-Dur-Dreiklang C-E-G mit C in dem Bass. Die nächste benachbarte Berührzone 164 kann mit einer ersten Umkehrung des Basisakkords oder dem C-Dur-Dreiklang C-E-G mit E in dem Bass korrespondieren, wobei zumindest eine Note des Akkords (z. B. die oberste Note) höher ist als jegliche Note des Basisakkords. In ähnlicher Weise kann die folgende Berührzone 166 eine zweite Umkehrung des Basisakkords beinhalten, wobei zumindest eine Note des zweiten Umkehrungsakkords (z. B. die höchste Note) in der Tonlage höher ist als jegliche Note des Basisakkords oder der ersten Umkehrungen. Schließlich kann die zuletzt benachbarte Berührzone 168 eine dritte Umkehrung des Basisakkords beinhalten, wobei zumindest eine Note der dritten Umkehrung des Akkords in der Tonlage höher ist als jegliche Note des Basisakkords oder der ersten Umkehrungen. Das Einrichten von Umkehrungen auf diese Weise kann dazu führen, dass das Durchlaufen durch die Berührzonen 160 klingt, als ob sich die relative Tonhöhe von einem Register zu einem höheren Register bewegt.

In weiteren Ausführungsformen kann jede der Berührzonen 160 einer Berührregion 150 unterschiedliche Akkord-Voicings beinhalten (d. h. die harmonische Anordnung von Noten), die sukzessiv breitere harmonische Bereiche aufweisen. Um dies zu illustrieren, kann die oberste Berührzone 162 mit dem Basisakkord eines bestimmten harmonischen Bereiches korrespondieren. Beispielsweise kann die Berührzone 162 einen C-Dreiklang aufweisend C-E-G beinhalten, wobei das G 3.5 ganze Schritte von dem Wurzel-C sein kann. Die nächste Berührzone 162 kann mit einem Akkord-Voicing (z. B. Umkehrung) korrespondieren, mit einem breiteren harmonischen Bereich als der Basisakkord der Berührzone 162. Beispielsweise kann die Berührzone 162 einen C-Dreiklang, aufweisend C-E-G mit E in dem Bass und einem C als die oberste Note, beinhalten, wobei die oberste Note C 4 Schritte von dem Wurzel-E ist. Die dritte und vierte Berührzone 166 und 168 können in der Art folgen.

16 veranschaulicht eine Akkordberührregion 1600, die vier Berührzonen mit Akkord-Konfigurationen beinhaltet, die sukzessive breitere harmonische Bereiche aufweisen, gemäß einer Ausführungsform der Erfindung. Der Akkordberührungsregion 1600 ist der Basis-Akkord C-Dur zugewiesen und sie beinhaltet die Berührzonen 1610, 1620, 1630 und 1640. In einigen Ausführungsformen hat jede Berührzone ein unterschiedliches Akkord-Voicing des Basisakkords. Wie voranstehend beschrieben bezieht sich der Begriff ”Akkord-Voicing” auf eine harmonische Anordnung von Noten. Beispielsweise hat ein C-Dur-Akkord die Noten C-E-G. Eine Akkord-Konfiguration kann eine C-Note als die Bass-Note aufweisen, während eine zweite Konfiguration die G-Note als die Bass-Note aufweisen kann. Jede dieser Konfigurationen kann als ein Akkord-Voicing bezeichnet werden. Die Distanz zwischen Noten kann in halben Schritten und ganzen Schritten gemessen werden, die man sich als musikalische Einheiten eines Maßes vorstellen kann. Die Berührzone 1610 weist ein erstes Voicing auf (d. h. eine harmonische Anordnung) 1615 eines C-Dur-Akkords. Der harmonische Bereich des ersten Voicings ist 3,5 ganze Schritte. Die Berührzone 1620 weist ein zweites Voicing 1625 des C-Dur-Akkords mit einem breiteren harmonischen Bereich als das erste Voicing auf, das 4 ganze Schritte umspannt. Die Berührzone 1630 weist ein drittes Voicing 1635 des C-Dur-Akkords mit einem breiteren harmonischen Bereich als das zweite Voicing auf, das 8 ganze Schritte umspannt. Die Berührzone 1640 weist ein viertes Voicing 1645 des C-Dur-Akkords mit einem breiteren harmonischen Bereich als das dritte Voicing auf, das 10 ganze Schritte umspannt. Unterschiedliche Akkorde, Akkord-Konfigurationen, Umkehrungen, Schlüsselsignaturen und Ähnliches können nach Präferenz angepasst werden.

17 veranschaulicht eine Akkordberührregion 1700, die vier Berührzonen mit Akkord-Konfigurationen beinhaltet, die harmonische Bereiche aufweist, die sukzessive in der Tonhöhe höher sind, gemäß einer Ausführungsform der Erfindung. Der Akkordberührregion 1700 ist der Basis-Akkord C-Dur zugewiesen und sie beinhaltet vier Berührzonen 1710, 1720, 1730 und 1740. In einigen Ausführungsformen weist jede Berührzone ein unterschiedliches Akkord-Voicing des Basis-Akkords auf. Wie voranstehend beschrieben, bezieht sich der Begriff ”Akkord-Voicing” auf eine harmonische Anordnung von Noten. Die Berührzone 1710 hat ein erstes Voicing (d. h. eine harmonische Anordnung) 1715 eines C-Dur-Akkords. Die Berührzone 1720 hat ein zweites Voicing 1725 des C-Dur-Akkords mit einer höheren Tonhöhe als das erste Voicing. Anders gesagt ist sowohl die E- wie auch die C-Note in dem Akkord-Voicing (”Akkord”) 1725 höher in der Tonhöhe als die höchste Note (G) des Akkords 1715. In einigen Fällen wird die hörbare Wirkung von nur einer Note in einem ersten Akkord, die in der Tonhöhe höher ist als alle Noten eines zweiten Akkords, dazu führen, dass der erste Akkord in der Tonhöhe insgesamt höher erklingt. Nochmals Bezug nehmend auf 17, hat die Berührzone 1730 ein drittes Voicing 1735 des C-Dur-Akkords, mit einer höheren Tonhöhe als das erste (1715) und zweite Voicing (1725). Beispielsweise ist die G-Note höher in der Tonhöhe als jegliche der Noten des Akkords 1715 und 1725. Die Berührzone 1740 hat ein viertes Voicing 1745 des C-Dur-Akkords mit einer höheren Tonhöhe als das erste (1715), zweite (1725) und dritte Voicing (1735). Beispielsweise ist die C-Note in der Tonhöhe höher als jegliche der Noten der Akkorde (d. h. Voicings) 1715, 1725 und 1735. Es soll beachtet werden, dass andere Akkorde, Akkord-Konfigurationen, Umkehrungen, Schlüsselsignaturen und Ähnliches nach Präferenz angepasst werden können.

In einigen Ausführungsformen können Berührungs- oder Artikulationsgesten hoch oder runter durch die Berührzonen 160 das Akkord-Voicing veranlassen durch die minimale Anzahl an Noten, die benötigt werden, um zur nächsten Umkehrung des Akkord-Voicings zu schalten, das vor der Berührung oder Gestenartikulation gespielt wurde, zu wechseln. Beinhaltet beispielsweise die Berührzone 162 einen C-Dur-Dreiklang C-E-G mit C in dem Bass und die Berührzone 164 einen C-Dur-Dreiklang E-G-C mit einem E in dem Bass, werden sich die E- und G-Noten zwischen den Akkorden nicht ändern. Das Verändern der minimalen Anzahl an Noten in einem Akkordwechsel kann in einem glatteren und harmonisch ansprechenderen Klang resultieren, wie weiter in 18 veranschaulicht.

18 veranschaulicht eine Akkordberührregion, die vier Berührzonen beinhaltet mit Akkord-Konfigurationen, die sich durch eine minimale Anzahl an Noten zwischen den Akkord-Umkehrungen ändern, gemäß einer Ausführungsform der Erfindung. Der Akkordberührregion 1800 ist der Basis-Akkord C-Dur zugewiesen und sie beinhaltet die Berührzonen 1810, 1820, 1830 und 1840. Die Berührzone 1810 beinhaltet einen C-Dur-Dreiklang C-E-G mit C in dem Bass und die Berührzone 1820 beinhaltet einen C-Dur-Dreiklang E-G-C mit einem E in dem Bass. Es soll beachtet werden, dass sich die E- und G-Noten während des Akkord-Wechsels 1815 nicht ändern. Wie voranstehend beschrieben resultieren Änderungen zwischen Akkord-Umkehrungen (z. B. 1810 bis 1820) in einem Wechsel in der minimalen Anzahl an Noten, die für den Akkord-Wechsel benötigt werden. In einigen Fällen kann dies ein dynamischer Prozess sein, sodass unterschiedliche Akkord-Voicings der gleichen Berührzone zugewiesen sein können, abhängig von der Anordnung des vorangehenden Akkord-Voicings. Beispielsweise kann die C-Akkord-Umkehrung, die1810 zugewiesen ist, ein Akkord-Voicing einer unterschiedlichen Anordnung erzeugen (z. B. Wiedergabe), wenn mit ihr aus der Berührzone 1820 anstelle aus der Berührzone 1830 Kontakt aufgenommen wird, weil die Anordnung der Noten und die minimalen Änderungen, die erforderlich für den Akkord-Wechsel sind, unterschiedlich sind. Ein erster Umkehrungs-C-Akkord mit einem E in dem Bass kann nur eine Note erfordern, um Positionen zu verschieben, wenn von einem C-Akkord mit einer C-Wurzelnote gewechselt wird (z. B. bewegt sich die C-Note in die Bass-Position und die anderen Noten verändern sich nicht). Jedoch kann ein zweiter Umkehrungs-Akkord mit einem G in dem Bass erfordern, dass mehrere Noten ihre Position verschieben, wenn von einem C-Akkord mit einer C-Wurzelnote gewechselt wird. Es soll beachtet werden, dass unterschiedliche Akkorde, Akkord-Konfigurationen, Umkehrungen, Schlüsselsignaturen und Ähnliches nach Präferenz angepasst werden können.

In anderen Ausführungsformen können Berührungs- oder Artikulationsgesten zwischen Akkordregionen dazu führen, dass sich die Akkord-Voicings durch die minimale Anzahl an Noten verändern, die benötigt werden, um zwischen den Akkorden zu schalten. Beispielsweise verändern sich die E- und G-Noten zwischen dem Akkord-Wechsel nicht, wenn eine Berührregion einen C-Dur-Dreiklang C-E-G als einen Basisakkord beinhaltet und eine zweite Berührregion einen E-Moll-Dreiklang E-G-B beinhaltet. Das Verändern der minimalen Anzahl an Noten zwischen Akkord-Wechseln kann in einer harmonisch ansprechenderen Akkord-Folge resultieren.

19 veranschaulicht eine Akkordberührregion, die vier Berührzonen mit Akkord-Konfigurationen beinhaltet, die sich durch eine minimale Anzahl an Noten zwischen den Akkorden ändern, gemäß einer Ausführungsform der Erfindung. Der Akkordberührregion 1900 ist ein Basis-Akkord C-Dur zugewiesen und sie beinhaltet die Berührzonen 1910, 1920, 1930 und 1940. Der Akkordberührregion 1950 ist ein Basis-Akkord E-Moll zugewiesen und sie beinhaltet die Berührzonen 1960, 1970, 1980 und 1990. Die Berührzone 1910 beinhaltet einen C-Dur-Dreiklang C-E-G mit C in dem Bass und die Berührzone 1960 beinhaltet einen E-Moll-Dreiklang E-G-B mit einem E in dem Bass. Wie voranstehend beschrieben resultieren Wechsel zwischen den Akkorden in einer Veränderung in der minimalen Anzahl an Noten, die für den Akkord-Wechsel benötigt werden. In diesem Fall verändern die E- und G-Noten nicht die Position während des Akkord-Wechsels 1935. In einigen Fällen kann dies ein dynamischer Prozess sein, sodass unterschiedliche Akkord-Voicings der gleichen Berührzone zugewiesen sein können, abhängig von der Anordnung des vorangehenden Akkord-Voicings. Beispielsweise kann die E-Moll-Akkordumkehrung, die 1970 zugewiesen ist, ein Akkord-Voicing einer unterschiedlichen Anordnung erzeugen (z. B. Wiedergabe), wenn mit ihr aus der Berührzone 1910 anstelle der Berührzone 1920 in Kontakt getreten wird, weil die Anordnung der Noten und die minimal erforderlichen Änderungen für den Akkord-Wechsel unterschiedlich sein können. Wie voranstehend beschrieben resultiert ein Wechsel von einem C-Akkord mit einer C-Note in dem Bass zu einem E-Moll-Akkord mit einem E in dem Bass in dem Wechsel von nur einer Note (d. h. C ändert sich zu B), während sich sowohl die E- und die G-Noten nicht ändern. Jedoch kann der Wechsel von einem zweiten Umkehrungs-C-Akkord (1930) mit einem G in dem Bass zu einem Em-Akkord mit einem E in der Bass-Position erfordern, dass mehrere Noten ihre Position verschieben. Es soll beachtet werden, dass unterschiedliche Akkorde, Akkord-Konfigurationen, Umkehrungen, Schlüsselsignaturen und Ähnliches nach Präferenz angepasst sein können.

Berührungsgestenartikulationen in der Akkord-Ansicht

Jede Berührzone 160 in jeder Berührregion 150 ist eingerichtet, eine oder mehrere aus einer Reihe von unterschiedlichen berührungsgestischen Artikulationen zu erkennen, gemäß bestimmter Ausführungsformen. Die Berührungsgestenartikulationen können eine Legato-Artikulation, eine Pizzicato-Artikulation und eine Stakkato-Artikulation beinhalten. Jede der Gesten-Artikulationen löst eine Wiedergabe aus (d. h. Ausgabe) eines entsprechenden Audio-Signals, das die ausgewählte Artikulation simuliert. In einigen Fällen kann das Audio-Signal eine MIDI-gesteuerte Audio-Sample oder ein von einem DSP erzeugter Audio-Stream sein. Es soll beachtet werden, dass der Begriff ”Audio-Signal” auch jegliche geeignete Mittel zum Spielen eines Audio-Signals in Bezug nehmen kann. Das Abspielen eines Audio-Signals kann eine Wiedergabe auf einem elektro-akustischen Umwandler (z. B. einem Lautsprecher), das Decodieren des Audio-Signals, das Abspeichern in Speicher, das Koppeln mit anderen Systemen oder Vorrichtungen oder andere nichthörbare Ausgabeszenarien, die von einem Fachmann auf der Grundlage der vorliegenden Offenbarung verstanden würden, beinhalten. Es soll beachtet werden, dass obwohl drei unterschiedliche Gestenartikulationen beschrieben sind, jegliche Anzahl und/oder Typ an Gestenartikulationen (z. B. doppeltes Tippen, duales Finger-Wischen, Handfläche, kreisförmige Bewegungen, polygonale Umrissbewegungen, Multi-Finger-Gesten, usw.) in jeglicher Kombination oder jeglichem Satz wie erforderlich verwendet werden können.

2 veranschaulicht eine Vielzahl an Legato-Artikulationen über eine Vielzahl an Berührregionen 250, gemäß einer Ausführungsform der Erfindung. Die Berührregionen 250 und Berührzonen 260 sind ähnlich zu jenen, die in 1 beschrieben sind. Die Legato-Artikulation wird initiiert durch eine Tippen-zu-Wischen-Geste auf einer der Berührzonen 260. In bestimmten Fällen sollte das anfängliche Tippen länger als eine vorbestimmte Zeitperiode sein, bevor die Wischen-Geste initiiert wird, um die Legato-Artikulation von der Stakkato-(d. h. eine Tippen-Geste kürzer als die vorbestimmte Zeit) oder Pizzicato-Artikulation (d. h. Wischen-Geste ohne anfängliche Tippen-Periode) zu unterscheiden, wie nachstehend näher beschrieben. Eine kontinuierliche Hoch- und Runter-Wischbewegung der Legato-Artikulation ahmt die Bewegung eines Bogens, der über einen Satz an Saiten auf einem Saiteninstrument (z. B. Violine, Cello, Bass) gespielt wird, nach. In ähnlicher Weise spielt das entsprechende Audio-Signal (z. B. MIDI-gesteuerte Audio-Sample) den Klang einer Bogenaktion über einen Satz an Saiten auf einem Saiteninstrument. In 2 veranschaulicht die Geste 270 eine Berühren- und -Wischen-Legato-Geste auf der Berührzone 264A. Der anfängliche Berührpunkt auf der Berührzone 264A bestimmt die Umkehrung des Basisakkords, der gespielt wird. In diesem Beispiel spielt die Legato-Artikulation 270 einen Klang einer ersten Umkehrung eines Legato-Streichens in A-Moll. Die Geste 280 veranschaulicht eine Berühren- und -kontinuierliche-Wischen-Legato-Geste auf der Berührzone 264B. In diesem Beispiel spielt die Legato-Artikulation 280 einen Klang einer ersten Umkehrung eines Legato-Streichens in C-Dur und macht dies weiterhin, selbst wenn die Wischbewegung sich außerhalb der assoziierten Berührregion bewegt. In einigen Ausführungsformen wird die Streichaktion so lange fortfahren, die gleiche Umkehrung des anfänglichen Berührpunktes zu spielen, so lange wie der Finger nicht von der Berühroberfläche der Schnittstelle 100 entfernt wird, ungeachtet der darauf folgenden Position des Fingers auf der Schnittstelle. In einigen Fällen erfolgt ein Wechsel der Basis-Akkorde oder Akkord-Umkehrungen durch Beginnen einer neuen Legato-Gesten-Artikulation in einer unterschiedlichen Zone durch Anheben des Fingers und Platzieren des Fingers in der gewünschten Akkord-/Umkehrung-Region. Alternativ kann ein Einführen eines zweiten Fingers in einer unterschiedlichen Berührzone eine neue Legato-Gesten-Artikulation beginnen. Anders gesagt erkennt die Schnittstelle die zweite Berühreingabe als eine neue gestische Legato-Artikulation und ignoriert den ersten Finger. Weiterhin kann die Geschwindigkeit oder das Tempo der Legato-Artikulation unterschiedliche Ausdruckswerte des entsprechenden Audio-Signals bestimmen, wie eine Lautstärke der Wiedergabe. Andere Ausdruckswerte können die Tonhöhe, Dauer, Entzerrung, Filterung (z. B. Hochpassfilter, Tiefpassfilter, Bandpassfilter, Sperrfilter, usw.), „Pan”, Effekte (z. B. Hall, Chor, Verzögerung, Verzerrung, Präsenz, usw.) oder jegliche andere Parameter, die wie beschrieben moduliert werden können, beinhalten. In einigen Ausführungsformen kann die Richtung und/oder Beschleunigung der Gestenartikulation auch verwendet werden, um einen oder mehrere Ausdruckswerte (z. B. eine Variable der Wiedergabe) zu modulieren.

In bestimmten Ausführungsformen können Multi-Finger-Gesten es dem Benutzer ermöglichen, schnell von einer Akkordzone zu einer anderen überzugehen. Beispielsweise kann, wenn ein zweiter Berührpunkt innerhalb der Akkordschnittstelle erkannt wird, während eine Streichgeste in einer anderen Akkord-Berührzone aktiv ist, der Akkord schnell zu der neuen Akkord-Berührzone wechseln. Weiterhin transferiert der Ausdrucks-(z. B. eine Lautstärke)-Wert, der von der ersten Berührung generiert wurde, zu dem neuen Ausdruckswert für die zweite Berührung, unter Verwendung der gleichen Wischgesten-Ballistik, die unmittelbar vor dem Wechsel präsent war, falls die zweite Berührung ein Bogenwischen (z. B. eine Legato-Artikulation) ist. Um dies zu veranschaulichen, falls zwei aufeinander folgende Wischbewegungen mit der im Wesentlichen gleichen Wischgestengeschwindigkeit stattfinden, sollte es im Wesentlichen keine Veränderung in dem Ausdruckswert (Lautstärke) geben, wenn der Akkord-Übergang stattfindet. Falls, im Gegensatz dazu, die zweite Geste mit einer unterschiedlichen Geschwindigkeit als die erste Geste stattfindet, geht der Ausdruckswert (Lautstärke) von dem ersten Ausdruckswert auf den zweiten Ausdruckswert in einer gleichmäßigen und musikalischen Weise über, wie nachstehend weiter beschrieben wird.

3 veranschaulicht eine Zwei-Finger-Auto-Legato-Gestenartikulation, gemäß einer Ausführungsform der Erfindung. 3 zeigt eine erste Berührung 370 (Tippen- und -Halten) und eine gleichzeitige zweite Berührung 372 (Tippen- und -Halten) auf der Berührzone 364A der Berührregion 350A. Das Tippen und Halten von zwei Fingern in einer Berührzone lässt einen Legato-Akkord-Klang automatisch abspielen. In diesem Beispiel spielt die Auto-Legato-Gestenartikulation die Umkehrung, die mit der Berührzone 364A der Berührregion 350A assoziiert ist (A-Moll). Die Zwei-Finger-Auto-Legato-Gesten erfordern keine Wischgeste und können zum sofortigen Spielen eingerichtet sein. In einigen Fällen ist die Lautstärke der Auto-Legato-Artikulation festgelegt und kann auf der anfänglichen Geschwindigkeit der Zwei-Finger-Tippen-Geste basieren. Die anfängliche Geschwindigkeit kann beispielsweise durch ein Accelerometer bestimmt werden. In bestimmten Fällen, in denen mehrere Berührzonen gleichzeitig berührt werden, kann ein sich ergebender Berührort als die anfängliche Berührzone ausgewählt werden. Beispielsweise resultieren eine erste Berührung 380 auf der Berührzone 364B und eine gleichzeitige zweite Berührung 382 auf der Berührzone 368B in einer effektiven Zwei-Finger-Tippen-Geste 384 auf der Berührzone 366B der Berührregion 350B. Die Noteneigenschaften der Zwei-Finger-Auto-Legato-Berührgesten haben typischerweise relativ kurze Anstiegszeiten, um schnelle Übergänge zu unterschiedlichen Basis-Akkorden oder Umkehrungen zu unterstützen.

4 veranschaulicht eine Pizzicato-Gestenartikulation in einer Berührregion 450 einer berührungsempfindlichen Oberfläche, gemäß einer Ausführungsform der Erfindung. Die Pizzicato-Gestenartikulation kann durch eine schnelle Tippen-Geste 480 initiiert werden, die ein anfängliches Tippen in eine aus der Vielzahl an getrennten Berührzonen 460 und ein Freigeben vor einer vorbestimmten Dauer beinhaltet. Die Pizzicato-Gestenartikulation löst die Wiedergabe einer zweiten entsprechenden MIDI-gesteuerten Audio-Sample aus, die den Klang einer Schlagaktion auf einem Saiteninstrument simuliert. In einer Ausführungsform ist die vorbestimmte Dauer jegliche geeignete kurze Zeitdauer (z. B. kürzer als 200 ms), die ein Fachmann auf der Grundlage der vorliegenden Offenbarung erkennen würde. In einigen Ausführungsformen löst das Entfernen des Fingers die Audio-Sample nicht aus, falls die Berührung länger gehalten wird als die vorbestimmte Dauer. Weiterhin können die Geschwindigkeit oder das Tempo der Pizzicato-Gestenartikulation (z. B. die Geschwindigkeit, mit welcher das anfängliche Tippen auf der Schnittstelle empfangen wird) unterschiedliche Ausdruckswerte der entsprechenden Audio-Sample bestimmen, wie eine Lautstärke der Wiedergabe. Andere Ausdruckswerte können die Tonhöhe, Dauer, Entzerrung, Filterung (z. B. Hochpassfilter, Tiefpassfilter, Bandpassfilter, Sperrfilter, usw.), „Pan”, Effekte (z. B. Hall, Chor, Verzögerung, Verzerrung, Präsenz, usw.) oder jegliche andere Parameter, die wie beschrieben moduliert werden können, beinhalten. Die anfängliche Geschwindigkeit des anfänglichen Tippens kann durch ein Accelerometer bestimmt werden.

5 veranschaulicht eine Stakkato-Gestenartikulation 580 in einer Berührregion 550 einer berührungsempfindlichen Schnittstelle, gemäß einer Ausführungsform der Erfindung. Die gestenartige Stakkato-Artikulation wird durch eine In-Bewegung-Wischen-Geste initiiert, die mit einem Kontakt mit einer Berührzone 560 beginnt. Anders gesagt wird eine schnelle Wischen-Bewegung ohne Pause initiiert (z. B. Tippen), bevor mit dem Wischen begonnen wird, wobei das Wischen mit dem Kontakt mit der gegebenen Berührzone 560 beginnt. Die Stakkato-Gestenartikulation löst die Wiedergabe eines entsprechenden MIDI-gesteuerten Audio-Signals aus, das den Klang eines kurzen Bursts einer Streichaktion auf einem Saiteninstrument simuliert. Die Geschwindigkeit oder das Tempo der Stakkato-Artikulation können unterschiedliche Ausdruckswerte der entsprechenden Audio-Sample bestimmen, wie eine Lautstärke der Wiedergabe. Andere Ausdruckswerte können die Tonhöhe, Dauer, Entzerrung, Filterung (z. B. Hochpassfilter, Tiefpassfilter, Bandpassfilter, Sperrfilter, usw.), „Pan”, Effekte (z. B. Hall, Chor, Verzögerung, Verzerrung, Präsenz, usw.) oder jegliche andere Parameter, die wie beschrieben moduliert werden können, beinhalten.

6 ist ein vereinfachtes Flussdiagramm, das Aspekte eines Verfahrens 600 zum Bestimmen einer Eigenschaft einer auf einem virtuellen Instrument gespielten Note veranschaulicht, gemäß einer Ausführungsform der Erfindung. Das Verfahren 600 wird von Verarbeitungslogik durchgeführt, die Hardware (z. B. Schaltungen, dedizierte Logik, usw.), Software (die auf einem Rechensystem für allgemeine Zwecke oder einer dedizierten Maschine läuft), Firmware (eingebettete Software) oder jegliche Kombination davon umfassen kann. In einer Ausführungsform wird das Verfahren 600 durch die Prozessoreinheit 1410 von 14 durchgeführt.

Unter Bezugnahme auf 6, beginnt das Verfahren 600 mit dem Empfangen einer Benutzereingabe auf einer Berührzone einer berührungsempfindlichen Schnittstelle (610). Die Benutzereingabe kann eine aus einer Reihe an Berührgestenartikulationen beinhalten. Bei 620 bestimmt der Prozessor, ob die Berührgeste eine Legato-Artikulation ist. Eine Legato-Artikulation beinhaltet eine Berühren-zu-Wischen-Geste, die die Bewegung eines Bogens, der über einen Satz an Saiten auf einem Saiteninstrument (z. B. Violine, Cello, Bass) gespielt wird, imitiert. In bestimmten Fällen sollte die anfängliche Berührung länger als eine vorbestimmte Zeitdauer sein, bevor die Wischgeste initiiert wird, um die Legato-Artikulation von der Stakkato-(d. h. eine Tippgeste, die kürzer als die vorbestimmte Zeit ist) oder Pizzicato-Artikulation (d. h. Wischgeste ohne ursprüngliche Tipp-Dauer) zu unterscheiden. Falls der Prozessor bestimmt, dass die Benutzereingabe eine Legato-Artikulation ist, spielt (650) der Prozessor (oder er gibt aus) eines aus einer Reihe an vorbestimmten Audio-Signalen (z. B. MIDI-gesteuerte Audio-Samples, DSP-erzeugte Audio-Streams, usw.) auf einer Ausgabevorrichtung (z. B. Lautsprecher, Kopfhörer oder Ähnliches), das sowohl mit der ausgewählten Berührregion (z. B. Akkord-Umkehrungen) und der Legato-Artikulation korrespondiert. Falls der Prozessor bestimmt, dass die Benutzereingabe keine Legato-Artikulation ist, geht das Verfahren mit 630 weiter.

Bei 630 bestimmt der Prozessor, ob die Berührgeste eine Pizzicato-Artikulation ist. Eine Pizzicato-Gestenartikulation kann durch eine schnelle Tippen-Geste initiiert werden, die ein anfängliches Tippen in einer Berührzone und ein Freigeben vor einer vorbestimmten Dauer beinhaltet. Die Pizzicato-Artikulation imitiert den Klang einer Schlagaktion auf einem Saiteninstrument. Falls der Prozessor bestimmt, dass die Benutzereingabe eine Pizzicato-Artikulation ist, spielt (650) der Prozessor eines aus einer Reihe an vorausgewählten Audio-Signalen auf einer Ausgabevorrichtung ab, das sowohl zu der ausgewählten Berührregion (z. B. Akkord-Umkehrungen) und der Pizzicato-Artikulation entspricht. Falls der Prozessor bestimmt, dass die Benutzereingabe keine Pizzicato-Artikulation ist, geht das Verfahren mit 640 weiter.

Bei 640 bestimmt der Prozessor, ob die Berührgeste eine Stakkato-Artikulation ist. Die Stakkato-Artikulation kann durch eine In-Bewegung-Wischen-Geste (d. h. keine Pause oder Tippen) initiiert werden, die mit einem Kontakt mit einer Berührzone beginnt. Die Stakkato-Gestenartikulation imitiert den Klang eines kurzen Bursts einer Streichaktion auf einem Saiteninstrument. Falls der Prozessor bestimmt, dass die Benutzereingabe eine Stakkato-Artikulation ist, spielt (650) der Prozessor eines aus einer Reihe an vorausgewählten Audio-Signalen (z. B. MIDI-gesteuerte Audio-Samples) auf einer Ausgabevorrichtung ab, das sowohl mit der ausgewählten Berührregion (z. B. Akkord-Umkehrungen) wie auch der Stakkato-Artikulation entspricht, ab. Falls der Prozessor bestimmt, dass die Benutzereingabe keine Stakkato-Artikulation ist, endet das Verfahren.

Eine Differenzierung zwischen jeder der Legato- und Stakkato-Gestenartikulationen basiert auf einem Erkennen eines Zeitintervalls, das mit der anfänglichen Berührung assoziiert ist, die von einer folgenden (d. h. ohne ein Abheben der Berührung) Wischgeste gefolgt ist, die eine bestimmte anfängliche Geschwindigkeit aufweist. Eine Legato-Artikulation wird basierend auf dem Erkennen einer anfänglichen Berührung, die ein gegebenes Zeitintervall andauert, gefolgt von einer Wischbewegung jeglicher Geschwindigkeit, erkannt. Die Stakkato-Gestenartikulation basiert auf einem Erkennen, dass die anfängliche Berührung geringer ist als das gegebene Zeitintervall.

Es soll verstanden werden, dass die spezifischen Schritte, die in 6 veranschaulicht sind, ein bestimmtes Verfahren zum Bestimmen einer Eigenschaft einer auf einem virtuellen Instrument gespielten Note bereitstellen, gemäß einer Ausführungsform der vorliegenden Erfindung. Andere Sequenzen an Schritten können auch gemäß alternativen Ausführungsformen durchgeführt werden. In bestimmten Ausführungsformen kann das Verfahren 600 die individuellen Schritte in einer unterschiedlichen Reihenfolge, zur gleichen Zeit oder jeglicher anderer Sequenz für eine bestimmte Anwendung durchführen. Beispielsweise kann die Pizzicato-Geste vor der Legato-Geste bestimmt werden. Darüber hinaus können die individuellen Schritte, die in 6 veranschaulicht sind, mehrere Unterschritte beinhalten, die in unterschiedlichen Sequenzen, wie für die individuellen Schritte geeignet, durchgeführt werden können. Weiterhin können zusätzliche Schritte hinzugefügt oder entfernt werden, abhängig von den bestimmten Anwendungen. Ein Fachmann würde viele Variationen, Modifikationen und Alternativen des Verfahrens erkennen und verstehen.

Notenansichtsschnittstelle

7 zeigt eine Veranschaulichung einer Benutzerschnittstelle 700 für ein virtuelles Musikinstrument, gemäß einer Ausführungsform der Erfindung. 7 zeigt die Benutzerschnittstelle, die auf einem Tablet-Computer wie dem Apple iPad® angezeigt wird; jedoch könnte die Schnittstelle auf jeglichem Berührungsbildschirm oder jeglicher berührungsempfindlichen Rechenvorrichtung (z. B. Smartphone, persönlicher digitaler Assistent oder Ähnliches) verwendet werden. Die Schnittstelle 700 beinhaltet einen CST-Sound-Browser 710, einen Auswähler eines virtuellen Instruments (VIS) 720, einen Violinenhals und -kopf 730, eine Arco/Pizz-Plakette 740 und einen Akkorde/Noten-Schalter 770. Der Violinenhals 730 beinhaltet eine Vielzahl an virtuellen Saiten 750, wobei jede Saite mit einer Basisnote (Leersaite) korrespondiert und in eine Vielzahl an Berührzonen 760 geteilt ist, mit Noten, die mit einer vorbestimmten Skala korrespondieren (z. B. chromatisch, pentatonisch, harmonisches Moll, usw.). Jede dieser Noten kann mit einer oder mehreren MIDI-gesteuerten Audio-Samples korrespondieren, die mit dem ausgewählten virtuellen Instrument, der Art der durchgeführten Artikulation, einem Ausdruckswert oder jeglicher Kombination davon, wie nachstehend näher beschrieben, assoziiert sind.

Der Akkorde/Noten-Schalter 770 funktioniert als ein virtueller Umschalter, der eingerichtet ist, zwischen der Akkordeansicht (z. B. 1) und der Notenansicht (z. B. 7) zu schalten. Der CST-Sound-Browser 710 kann eingerichtet sein, eine Sammlung an virtuellen Instrumenten und ihren assoziiertenn Audio-Signalen (z. B. MIDI-gesteuerte Audio-Samples, DSP-erzeugter Audio-Stream, usw.) auszuwählen, wobei jede Sammlung oder jedes Ensemble für eine unterschiedliche musikalische Präferenz geeignet ist. Das Auswählen einer gegebenen Sammlung (z. B. Symphonie-Streicher, Streichquartett, Barock-Streicher, usw.) lädt die geeigneten CST-Dateien, die spezifisch für das ausgewählte Ensemble geeignet sind. Beispielsweise kann die Symphonie-CST eine erste Violine, eine zweite Violine, eine Viola, ein Cello und einen Bass beinhalten. Im Gegensatz dazu kann die Streichquartett-CST eine erste und eine zweite Violine, eine Viola und ein Cello beinhalten. Jegliche Anzahl an virtuellen Instrumenten kann in jeglicher bevorzugten Konfiguration gruppiert werden.

Auswahl eines virtuellen Instruments in der Notenansicht

Der VIS 720 wird verwendet, um die von dem Benutzer gewünschten virtuellen Instrumente auszuwählen. In einigen Fällen können die virtuellen Instrumente eine oder mehrere Violinen, Violas, Cellos, Bässe oder Ähnliches beinhalten. Wenn ein Benutzer ein oder mehrere Instrumente mit dem VIS 720 auswählt, wird das System die geeigneten Audio-Samples für die ausgewählten Instrumente laden. In einigen Ausführungsformen kann zu einer Zeit ein Instrument in der Notenansicht gespielt werden. Beispielsweise kann ein Benutzer ein Cello auswählen, wodurch jegliche Bässe, Violinen und/oder Violas in der bestimmten Sammlung an virtuellen Instrumenten deaktiviert werden. Wie in 7 gezeigt wird nur ein virtuelles Instrument vollständig zu einer Zeit gezeigt, um das aktive virtuelle Instrument klar zu identifizieren. In alternativen Ausführungsformen können mehrere Instrumente für gleichzeitige Wiedergabe in der Notenansicht ausgewählt werden. Beispielsweise kann der VIS 720 (”Teilauswähler”) bis zu 5 Instrumenten oder mehr anzeigen, die, wenn sie ausgewählt werden (z. B. durch Tippen) eine von den ausgewählten Instrumenten zu spielende Note entweder aktivieren oder deaktivieren.

In bestimmten Ausführungsformen zeigt der VIS 720 eine Reihe an virtuellen Instrumenten an (z. B. Violinen, Violas, Cellos und Bässe), die auf einem virtuellen scrollbaren Bereich auf der Benutzerschnittstelle 700 angeordnet sind. Eine Wischgeste auf dem virtuellen scrollbaren Bereich kann veranlassen, dass der Bereich in eine Richtung relativ zu der Wischgeste geschoben wird, wodurch sich eine Orientierung des virtuellen scrollbaren Bereichs verändert. Wenn ein Benutzer beispielsweise eine Wischgeste auf dem VIS 720 von rechts nach links durchführt, wechseln sich die virtuellen Instrumente durch den Anzeigebereich des VIS 720 von rechts nach links durch oder bewegen sich durch diesen, mit einer Geschwindigkeit, die proportional zur Geschwindigkeit der Wischgeste ist. Die Auswahl eines virtuellen Instrumentes kann auf der Orientierung des virtuellen scrollbaren Bereichs basieren. Zusätzlich kann der virtuelle scrollbare Bereich einen Auswahlort 790 aufweisen, um das virtuelle Instrument, das in dem Auswahlort 790 platziert ist, auszuwählen. In einigen Fällen ist der Auswahlort in der Zentrumsposition des VIS 720 platziert. Unter Bezugnahme auf 7 ist das Cello gegenwärtig ausgewählt, weil es in dem Auswahlort 790 positioniert ist. Es sollte beachtet werden, dass die Konfiguration des VIS 720 an eine Benutzerpräferenz angepasst werden kann. Beispielsweise können alle virtuellen Instrumente auf dem VIS 720 oder nur eine Untermenge zu einem gegebenen Zeitpunkt sichtbar sein. Der virtuelle scrollbare Bereich kann sich linear oder auf einer virtuellen Achse eines geeigneten Radius verschieben, sodass die virtuellen Instrumente derart erscheinen, als ob sie in Position bei dem ausgewählten Ort 790 ”rotieren”. In einigen Ausführungsformen kann eine Auswahl automatisch gemacht werden, wenn ein virtuelles Instrument sich in den Auswahlort 790 verschiebt, oder eine Auswahl kann ein zusätzliches manuelles Tippen auf das virtuelle Instrument zum Bestätigen der Auswahl erfordern.

20 ist ein vereinfachtes Flussdiagramm, das Aspekte eines Verfahrens 2000 zur Auswahl eines virtuellen Instrumentes auf einer Benutzerschnittstelle veranschaulicht, gemäß einer Ausführungsform der Erfindung. Das Verfahren 2000 wird von Verarbeitungslogik durchgeführt, die Hardware (z. B. Schaltungen, dedizierte Logik, usw.), Software (die auf einem Rechensystem für allgemeine Zwecke oder einer dedizierten Maschine läuft), Firmware (eingebettete Software) oder jegliche Kombination davon aufweist. In einer Ausführungsform wird das Verfahren 2000 durch die Prozessoreinheit 1410 von 14 durchgeführt.

Unter Bezugnahme auf 20 beginnt das Verfahren 2000 mit einer Anzeige einer Vielzahl an virtuellen Instrumenten auf einem scrollbaren Bereich einer Benutzerschnittstelle (2010). In einigen Fällen kann die Benutzerschnittstelle berührungsempfindlich sein, wobei der scrollbare Bereich über eine Benutzerberührung direkt zugänglich ist (z. B. über einen Finger, Stift, usw.). In nicht-berührungsempfindlichen Ausführungsformen kann der scrollbare Bereich über eine Eingabevorrichtung zugänglich sein (z. B. über eine Maus, Tastatur, usw.). Bei 2020 erkennt die Benutzerschnittstelle (über eine Prozessorvorrichtung) eine Wischgeste auf dem virtuellen scrollbaren Bereich. In Reaktion auf die Wischgeste scrollt die Benutzerschnittstelle den scrollbaren Bereich (z. B. VIS 720) und die virtuellen Instrumente hierin (z. B. virtuelle Violine, Viola, Cello, Bass, usw.) in eine Richtung relativ zur Wischgeste (2030). In bestimmten Ausführungsformen, wenn ein Benutzer eine Wischgeste auf dem scrollbaren Bereich (z. B. VIS 720) von rechts nach links durchführt, wechseln sich die virtuellen Instrumente durch den Anzeigebereich des VIS 720 von rechts nach links durch oder bewegen sich durch diesen, mit einer Geschwindigkeit, die zu der Geschwindigkeit der Wischgeste proportional ist. Die Benutzerschnittstelle wählt dann ein virtuelles Instrument basierend auf einer Ausrichtung des virtuellen scrollbaren Bereichs (2040) aus. Der virtuelle scrollbare Bereich kann einen Auswahlort aufweisen, der eingerichtet ist, innerhalb des scrollbaren Bereichs das auszuwählende virtuelle Instrument zu identifizieren. Falls die Benutzerschnittstelle beispielsweise durch die virtuellen Instrumente in Reaktion auf eine Wischgeste scrollt und eine Violine in dem Auswahlort stoppt, wird die Violine ausgewählt werden. In einigen Fällen ist der Auswahlort in der Zentrumsposition des scrollbaren Bereichs platziert. Der Auswahlort kann optionalerweise in jeglicher geeigneten Position auf dem scrollbaren Bereich eingerichtet sein. Bei 2050 weist die Benutzerschnittstelle das ausgewählte virtuelle Instrument einer ersten Berührzone auf der Benutzerschnittstelle zu. Die Benutzerschnittstelle weist weiterhin eine oder mehrere MIDI-gesteuerten Audio-Samples der ersten Berührzone zu, wobei die Audio-Samples mit dem ausgewählten virtuellen Instrument korrespondieren (2060).

Es soll verstanden werden, dass die spezifischen in 20 veranschaulichten Schritte ein bestimmtes Verfahren zum Auswählen eines virtuellen Instrumentes auf einer Benutzerschnittstelle bereitstellen, gemäß einer Ausführungsform der vorliegenden Erfindung. Andere Schrittsequenzen können ebenso durchgeführt werden gemäß alternativer Ausführungsformen. In bestimmten Ausführungsformen kann das Verfahren 2000 die individuellen Schritte in einer unterschiedlichen Reihenfolge, gleichzeitig oder jeglicher anderer Sequenz für eine bestimmte Anwendung durchführen. Darüber hinaus können die individuellen Schritte, die in 20 veranschaulicht sind, mehrere Unterschritte beinhalten, die in unterschiedlichen Sequenzen durchgeführt werden können, wie für den individuellen Schritt geeignet. Weiterhin können zusätzliche Schritte hinzugefügt oder entfernt werden, abhängig von den bestimmten Anwendungen. Ein Fachmann würde viele Variationen, Modifikationen und Alternativen des Verfahrens erkennen und verstehen.

Berührgestenartikulation in der Notenansicht

Jede der virtuellen Saiten 750 auf einer Benutzerschnittstelle 700 ist eingerichtet, eine oder mehrere aus einer Vielzahl von unterschiedlichen Berührgestenartikulationen zu erkennen, gemäß bestimmter Ausführungsformen. Die Berührgestenartikulationen können eine Legato-Artikulation, eine Pizzicato-Artikulation und eine Stakkato-Artikulation beinhalten. Jede der Gestenartikulationen löst eine Wiedergabe einer entsprechenden MIDI-gesteuerten Audio-Sample (oder eines DSP-erzeugten Audio-Streams) aus, die die ausgewählte Artikulation simuliert. Wie voranstehend beschrieben, ahmt die Legato-Artikulation eine Streichaktion über einen Satz an Saiten nach, die Pizzicato-Artikulation ahmt einen Klang eines Schlages eines Saiteninstruments nach und eine Stakkato-Artikulation ahmt einen Klang eines kurzen Bursts einer Streichaktion auf einem Saiteninstrument nach.

In einigen Ausführungsformen wird die Arco|Pizz (d. h. Bogen/Pizzicato) Plakette 740 links außen in der Notenansicht innerhalb der Kopfgrafik angezeigt. Die Arco/Pizz Plakette (”Tastenplakette”) 740 ist ein Umschalter, der eingerichtet ist, um zwischen einem ersten Betriebsmodus (Auto-Bogen-Modus) und einem zweiten Betriebsmodus (Arco|Pizz Modus) auszuwählen. In einigen Ausführungsformen ist die Tastenplakette 740 ein temporärer Schalter, wobei die Plakette in dem zweiten Betriebsmodus verbleibt, solange ein Benutzer die Plakette 740 drückt. In anderen Ausführungsformen schaltet die Plakette 740 zwischen den zwei Betriebsmodi und verbleibt in dem ausgewählten Betriebsmodus, bis die Plakette 740 erneut gedrückt wird.

In dem Auto-Bogen-Betriebsmodus (d. h. dem ersten Modus) kann das Berühren jedes Punktes auf einer der Saiten 750 eine entsprechende Legato-Note mit kurzem Anstieg erzeugen. Die Legato-Note wird kontinuierlich abgespielt, solange das Berührobjekt (z. B. Finger, Stift oder jegliche Eingabevorrichtung) auf den Saiten verbleibt. In bestimmten Ausführungsformen interpretiert der erste Betriebsmodus jegliche Geste (z. B. Tippen, Wischen, usw.) als eine Berührung und spielt die entsprechende Legato-Note, ungeachtet der anfänglichen Geste.

8 veranschaulicht eine Legato-Artikulation auf der Notenansichtsschnittstelle 800, gemäß einer Ausführungsform der Erfindung. Wenn ein Benutzer die Tastenplakette 840 drückt und einen Punkt 880 auf einer Saite 864 hält, wird ein grafischer Indikator 885 gezeigt, die den Benutzer auffordert, eine Auf- und -ab-Wisch-(Streich-)Bewegung durchzuführen. In einigen Fällen ist der grafische Indikator 885 eine Notenhervorhebung, die von dem anfänglichen Berührpunkt 880 ausgeht, um die Bogenbewegungsgeste dem Benutzer anzuzeigen. Die Schnittstelle 800 zeigt typischerweise den grafischen Indikator 885 an, wenn die Tastenplakette 840 aktiv ist, eine Berührung auf einer Saite detektiert wird und die Berührung nicht als ein Pizzicato-Tippen bestimmt wird (d. h. das Tippen ist länger als eine vorbestimmte Dauer). Wenn der Benutzer hoch- und runterwischt, spielt das Instrument eine Legato-Note basierend auf der Startposition der Streichaktion. Während die Plakettentaste 840 gehalten wird, kann der Benutzer jegliche Saitenposition für eine entsprechende Pizzicato-Note antippen. In bestimmten Ausführungsformen kann nur ein Instrument zu einer Zeit in der Notenansicht gespielt werden (Violine, Viola, Cello, Bass). In alternativen Ausführungsformen können mehrere Instrumente in der Notenansicht zum gleichzeitigen Spielen ausgewählt werden.

Bei gedrückter Tastenplakette 840 können sowohl die Legato- als auch die Stakkato-Artikulationen in einer ähnlichen Weise wie in der Akkordeansicht durchgeführt werden. Die Geschwindigkeit oder das Tempo der Stakkato-Artikulation (d. h. wie hart die Note getippt wird) können unterschiedliche Ausdruckswerte der entsprechenden MIDI-gesteuerten Audio-Sample bestimmen, wie eine Wiedergabe-Lautstärke. Eine schnellere Legato-Artikulation kann eine höhere Lautstärke kreieren und langsamere Legato-Artikulationen können eine geringere Lautstärke kreieren. Die Notenansicht kann weiterhin eingerichtet sein, eine Multi-Finger-Erkennung (z. B. doppelte Stopp-Akkorde) mit Stakkato-, Legato- und Pizzicato-Artikulationen zu unterstützen. Bei bestimmten Aspekten werden die Instrumentsaiten in der Notenansicht auf übliche offene Saiten für das ausgewählte virtuelle Instrument eingestellt. In einigen Ausführungsformen kann ein Noten-Schieben oder eine Tonhöhenänderung unterstützt werden, wenn die Tastenplakette 840 nicht aktiv ist. Ein Accelerometer kann optionalerweise eingerichtet sein, um die Geschwindigkeit (d. h. wie hart die Note berührt wird) von jeglichen Artikulationen in der Notenansicht zu bestimmen.

Geschwindigkeitssample-Überblenden

Gemäß bestimmter Ausführungsformen verwenden die hierin beschriebenen virtuellen Instrumente ein Überblenden von zwei Kanälen, die eine laute Sample und eine leise Sample aufweisen, um Noten mit variierenden Geschwindigkeiten (d. h. Amplituden, Lautstärke, usw.) zu kreieren. Audio-Signale geringerer Geschwindigkeit, die von den virtuellen Instrumenten kreiert werden, können einen höheren gewichteten Wert für die leise Sample haben. Die resultierende zusammengesetzte Sample kreiert ein realistischer klingendes virtuelles Instrument, das die unterschiedlichen akustischen Eigenschaften und harmonischen Strukturen von Noten, die mit variierenden Amplitudengraden gespielt werden, wiedergibt.

9 zeigt einen Graphen 900, der das Überblenden von zwei Samples eines virtuellen Instruments veranschaulicht, gemäß einer Ausführungsform der Erfindung. Der Graph 900 beinhaltet eine Hüllkurvenpegelachse 905, eine Pegelachse einer Sampleausgabe 910, eine leise Sample 920 und eine laute Sample 930. Wie voranstehend beschrieben, kann eine Legato-Wischgeste eine Wiedergabe von zwei vorausgewählten MIDI-gesteuerten Audio-Samples für ein virtuelles Instrument auslösen, wobei die Geschwindigkeit des Wischens Eigenschaften des Überblendens und der Amplitude des zusammengesetzten Signals steuern kann. Bei einigen Aspekten kann die leise Sample 920 eine erste vorausgewählte Audio-Sample sein, die eine Audio-Sample eines durch einen Bogen gestrichenen Instruments beinhaltet, die einen weichen Anstieg und eine milde Klangfarbe aufweist. Die laute Sample 930 kann eine zweite vorselektierte Audio-Sample sein, die eine Audio-Sample eines durch einen Bogen gestrichenen Instruments beinhaltet, die einen starken Anstieg und eine schwere Klangfarbe aufweist. Mit dem Anstieg der Geschwindigkeit der Wischgeste blendet die Wiedergabe (d. h. der Hüllkurvenpegel) der zwei vorausgewählten Audio-Samples von der leisen Sample 920 (d. h. die erste vorausgewählte MIDI-Datei) auf die laute Sample 930 (d. h. die zweite vorausgewählte MIDI-Datei) über. Im Gegensatz dazu, mit abnehmender Geschwindigkeit der Wischgeste, blendet die Wiedergabe der zwei vorausgewählten Audio-Samples von der lauten Sample 930 auf die leise Sample 920 über. In 9 überblendet die laute Sample 930 bei einem höheren Ausgangspegel als das leise Signal 920, bei einem Hüllkurvenpegel (z. B. Wischgeschwindigkeit) von 75 aus 128 Pegelstufen. In einigen Ausführungsformen erhöht sich die Wiedergabe-Lautstärke des überblendeten zusammengesetzten Signals der zwei vorausgewählten Audio-Samples in Reaktion auf eine erhöhte Geschwindigkeit einer Legato-Wischgeste. Im Gegensatz dazu verringert sich die Wiedergabe-Lautstärke des überblendeten zusammengesetzten Signals der zwei vorausgewählten Audio-Samples in Reaktion auf eine verringerte Geschwindigkeit einer Legato-Wischgeste.

10 veranschaulicht eine Abbildungskonfiguration eines Stereo-Feldes 1000 einer überblendeten zusammengesetzten Sample, gemäß einer Ausführungsform der Erfindung. In jedem MIDI-Kanal (z. B. virtuelles Instrument) wird der resultierende, zusammengesetzte Mix der leisen Sample und der lauten Sample zu einem Mono-Signal summiert und in einem Mischer verschoben, um eine bestimmte Stereo-Ausbreitung der fünf MIDI-Kanalinstrumente (z. B. die Violinen, Violas, Cellos und Bässe) in einem Stereo-Feld zu präsentieren. In anderen Fällen wird ein Stereo-Signal innerhalb des Stereo-Feldes für die finale Ausgabe platziert. In diesem bestimmten Beispiel sind die erste Violine, die zweite Violine, die Violas und Bässe aktiviert, und die Cellos sind deaktiviert. Der resultierende Mix aus leisen Samples und lauten Samples wird für jedes Instrument (d. h. Kanal) summiert, verschoben und einer Master-Stereo-Ausgabe für die Wiedergabe hinzugefügt. In alternativen Ausführungsformen können zusätzliche Ausdrucksdaten mit den überblendeten Signalen moduliert werden. Beispielsweise kann haptisches Feedback (d. h. Vibration) in das zusammengesetzte Stereo-Signal überblendet werden, um das Rumpeln der Bass-Frequenzen zu simulieren, wenn Noten geringer Frequenz gespielt werden. Auf ähnliche Weise können andere Ausdrucksdaten (z. B. Equalizer-Daten) in das Ausgabesignal überblendet werden, wie ein Fachmann auf der Grundlage dieser Offenbarung verstehen würde.

Aspekt eines dualen Flugrades zum Modellieren einer physikalischen Systemantwort auf eine Benutzereingabe

Die Legato-Gestenartikulation (d. h. das Tippen- und -Wischen) stellt eine realistisch klingende Streichaktion auf einem Saiteninstrument bereit, teilweise aufgrund eines virtuellen Massenmodellierungssystems. Das Massenmodellierungssystem kann zwei seriell verbundene Signalprozessoren beinhalten, die mit einem virtuellen dualen Flugradsystem, das Masse und Impuls aufweist, analogisiert werden, um weichere Übergänge zwischen Noten und Akkorden zu kreieren, indem ein virtueller Impuls von einer Benutzerwischgeste auf der Schnittstelle 100 kreiert wird und dieser Impuls durch darauf folgende harmonische oder melodische Progressionen beibehalten wird.

11 zeigt ein Massenmodellierungssystem (”Flugradsystem”) 1100, gemäß einer Ausführungsform der Erfindung. Das Modellierungssystem 1100 beinhaltet eine erste Signalverarbeitungsstufe 1110 mit einer ersten Eingabe und einer ersten Ausgabe und eine zweite Signalverarbeitungsstufe 1120, die die erste Ausgabe empfängt und eine zweite Ausgabe aufweist. Die erste Benutzereingabe kann eine Legato-Gestenartikulation (z. B. Auf- und -ab-Wischgeste) für ein virtuelles Instrument auf der Schnittstelle 100 beinhalten. Die erste Signalverarbeitungsstufe 1110 ist mit der zweiten Signalverarbeitungsstufe 1120 gekoppelt, sodass die zweite Eingabe der zweiten Signalverarbeitungsstufe 1120 die Ausgabe der ersten Signalverarbeitungsstufe 1110 empfängt. Die Ausgabe der zweiten Signalverarbeitungsstufe 1120 kann einen Ausgabeausdruckspegel für das System 100 bestimmen (z. B. eine Lautstärke) in Reaktion auf die erste Benutzereingabe. In einigen Ausführungsformen ist die Ausgabe des Flugradsystems 1100 eingerichtet, um den Lebenszyklus einer Note 1130, die von einem virtuellen Instrument gespielt wird, zu modulieren. Die Ausgabe von sowohl der ersten wie auch der zweiten Signalverarbeitungsstufe 1110, 1120 kann durch die Gleichung (1) modelliert werden: L = (((i·(l – h)) + (L'·h))·Fs) + C(1)Die unterschiedlichen Komponenten der Gleichung 1 sind wie folgt definiert: L ist ein gegenwärtiger Pegel, Tempo oder Impuls des gegebenen Flugrades und L' ist der vorangehende Pegel, Tempo oder Impuls des gegebenen Flugrades. Die externe Eingabe 'i' kann eine physikalische Benutzereingabe sein (z. B. eine Legato-Wischbewegung auf einer Berührzone) für die erste Signalverarbeitungsstufe1110. Alternativ kann die externe Eingabe 'i' die Ausgabe L der ersten Signalverarbeitungsstufe 1110 als die Eingabe zur zweiten Signalverarbeitungsstufe 1120 sein. Die Variable 'h' ist ein Massenkoeffizient, der mit jedem Flugrad assoziiert ist, und kann aufgrund eines Zustands des zweiten Flugrades (z. B. Impuls) variieren. 'F' kann ein Skalierungsfaktor sein und 'C' kann eine Versatzkonstante sein. Der erste Ausdruck (i·(1 – h)) entspricht einem Einfluss eines neuen Eingabeimpulses in das System. Der zweite Ausdruck (L'·h) entspricht dem bestehenden Impuls des Systems. Wie in Gleichung 1 gesehen werden kann, wird ein sehr hoher Massenkoeffizient (z. B. 0,9) sehr hohe Eingangspegel erfordern, um jegliche abschätzbare Veränderung für den bestehenden Impuls zu machen. Im umgekehrten Fall werden sehr geringe Massenkoeffizienten (z. B. 0,1) nur geringe Eingabepegel erfordern, um den bestehenden Impuls des bestimmten Flugrades abschätzbar zu verändern. Indem die zwei Flugräder zusammengekoppelt werden, hängt die Ausgabe der zweiten Signalverarbeitungsstufe 1120 von einer Kombination der Eingabe von der ersten Signalverarbeitungsstufe 1110 und dem gegenwärtigen Impuls der zweiten Signalverarbeitungsstufe 1120 ab. In einem alternativen Aspekt kann der Impuls als eine Korrektur und ein Tiefpass-Filter des Eingabesignals (z. B. Auf- und -ab-Wischgeste über Zeit) beschrieben werden.

Ein Aspekt des Flugradsystems 1100 besteht darin, einen resultierenden Ausdruckspegel (Lautstärke) zu bestimmen, der einen realistisch klingenden Übergang von einer Note oder einem Akkord zu der/dem nächsten erzeugt, indem ein virtueller Impuls, der in dem Flugrad-System 1100 entwickelt wird, aufrechterhalten und moduliert wird. Um dieses Konzept zu illustrieren, kann ein Benutzer eine sehr weiche Legato-Artikulation auf einer Berührzone durch langsames Wischen in einer Auf- und -ab-Bewegung (z. B. eine langsame erste Wischgeschwindigkeit) initiieren und schrittweise das Tempo erhöhen, bis eine relativ schnelle und konstante Rate erreicht wird (z. B. ein schnelles zweites Wischtempo). Dies kann den Klang eines musikalischen Crescendo erzeugen, mit sich erhöhender relativer Lautstärke (d. h. Ausdruckswert) des virtuellen Instrumentes, bis die Lautstärke von gleicher Ausdehnung wie der Impuls ist, der durch die konstante Rate des Eingabesignals erzeugt wurde. Über eine Zeitperiode werden beide Signalverarbeitungsstufen 1110, 1120 (d. h. die virtuellen Flugräder) virtuell mit dem gleichen Impuls rotieren (d. h. das schnelle zweite Wischtempo). Wenn sich der Benutzer auf eine unterschiedliche Berührzone (z. B. ein unterschiedlicher Akkord) bewegt und eine Wischgeste mit geringerem konstanten Wischtempo beginnt (z. B. ein drittes mittleres Wischtempo), würde das Flugradsystem 1100 die Wiedergabe des neuen Akkords mit einer größeren Lautstärke beginnen, die mit dem zweiten schnellen Wischtempo korrespondiert, und sich langsam auf eine geringere Lautstärke reduziert, die mit dem dritten mittleren Wischtempo korrespondiert. Die Veränderungsrate kann durch die unterschiedlichen Ausdrücke und Parameter der Gleichung 1 vorgeschrieben sein, die den virtuellen Masseneffekt (d. h. Impuls) des Flugradsystems 1100 definiert. Es soll beachtet werden, dass das Flugradsystem 1100 für viele Anwendungen neben dem Modellieren eines Lebenszyklus einer Note oder eines Akkordes angewendet werden kann. Beispielsweise könnte das Flugradsystem 1100 Zeichen-/Mal-Anwendungen steuern, wobei die Intensität (z. B. Farbe, Stärke von Linien, Geradheit von Linien, Linieneigenschaften) basierend auf der Ausgabe des Flugradsystems 1100 moduliert wird. Alternativ kann das Flugradsystem 1100 eingerichtet sein, um eine intelligente Trommel-Maschine zu steuern, die die Beat-Parameter (z. B. Beat-Komplexität, Füllkomplexität, Sampleauswahl, Lautstärke, usw.) basierend auf der Ausgabe des Flugradsystems 1100 verändert, um eine sich kontinuierlich entwickelnde Trommel-Spur bereitzustellen. Es sollte bekannt sein, dass die Anwendung des Flugradsystems 1100 nicht auf musikalische Anwendungen beschränkt ist und auf viele andere Systeme, die für kontinuierliche Modulation und Steuerung durch ein System, das auf einem virtuellen Impuls basiert, geeignet sind, angepasst werden kann.

12 veranschaulicht eine Ausführungsform eines Lebenszyklus einer Note 1200, gemäß einer Ausführungsform der Erfindung. Der Lebenszyklus einer Note kann in einem relativen Pegel 1210 (z. B. Lautstärke) gegenüber der Zeit 1220 gemessen werden. Der Lebenszyklus einer Note 1200 kann eine Anstieg-Phase 1230, eine Halten-Phase 1240 und eine Freigeben-Phase 1250 beinhalten. In einigen Ausführungsformen kann der Lebenszyklus einer Note zusätzliche Phasen beinhalten, einschließlich einer Ausklingphase oder jeglicher anderer Eigenschaft, die verwendet werden kann, um den Lebenszyklus einer musikalischen Note zu modellieren. Die vorstehenden Phasen des Lebenszyklus einer Note würden von einem Fachmann sofort verstanden werden.

13 ist ein vereinfachtes Flussdiagramm, das Aspekte eines Verfahrens 1300 zum Modellieren des Lebenszyklus einer Note, die auf einem virtuellen Instrument gespielt wird, veranschaulicht, gemäß einer Ausführungsform der Erfindung. Das Verfahren 1300 wird durch Verarbeitungslogik, die Hardware (z. B. Schaltungen, dedizierte Logik, usw.), Software (die auf einem Rechensystem für allgemeine Zwecke oder einer dedizierten Maschine läuft), Firmware (eingebettete Software) oder jeglicher Kombination davon aufweisen kann, durchgeführt werden. Das Verfahren 1300 wird bezogen auf das physikalische Systemmodell des dualen Flugrades 1100 (11) wie auf das beispielhafte System 700 (7), welches eingerichtet ist, um das Verfahren 1300 auszuführen, diskutiert.

Bezug nehmend auf 13, enthält das Verfahren 1300 ein Empfangen einer Geste eines Aufsetzens und Bewegungsberührung (z. B. eine Legato-Geste) auf einer Berührzone 760 einer Schnittstelle 700 (1310). Bei 1320 beginnt die Anstieg-Phase der Note oder des Akkords. In einigen Ausführungsformen basiert der Pegel (z. B. Lautstärke) und die Anstiegsrate (ΔL/Δt) teilweise auf einem Massenkoeffizient (ha) des physikalischen Systemmodells des dualen Flugrades (”Flugradsystem”) 1100 und dem Eingabesignal (z. B. Legato-Artikulation). Nach einer ersten vorbestimmten Zeitdauer (1330) läuft die Anstieg-Phase aus. Die vorbestimmte Zeitdauer für die Anstieg-Phase 1330 kann eine Zeitkonstante jeglicher geeigneter Länge sein, wie ein Fachmann verstehen würde. Bei 1340 tritt die Note in die Halten-Phase ein. Die Länge und Rate des Ausklingens (ΔL/Δt) der Halten-Phase basiert teilweise auf einem Massenkoeffizienten (hs) des Flugrad-Systems 1100 und dem Eingabesignal (z. B. Tempo der Legato-Artikulation). Falls die Eingabe (z. B. Legato-Geste) für eine zweite vorbestimmte Zeitdauer stoppt (1350), läuft die Halten-Phase 1240 aus und die Note tritt in die Freigeben-Phase 1360 ein. Der Pegel (z. B. Lautstärke) der Freigeben-Phase klingt gemäß einer vorbestimmten Zeitkonstante aus. Die Länge und Rate des Ausklingens (ΔL/Δt) der Freigeben-Phase basiert teilweise auf einem Massenkoeffizienten (hs) des Flugradsystems 1100. Bei 1370 tritt eine Abhebe-Bedingung auf und das Verfahren endet.

In bestimmten Ausführungsformen stellt das Flugradsystem 1100 einen Mechanismus zum Modulieren des Pegels und der Phase eines Lebenszyklus einer Note in Echtzeit bereit. Wie voranstehend beschrieben verringert sich die Halten-Phase 1340 schrittweise und tritt schließlich in die Freigeben-Phase 1360 in Reaktion auf eine statische Eingabe 1350 ein. Beispielsweise kann sich ein Pegel (z. B. Ausgabe des zweiten virtuellen Flugrades) der Halten-Phase 1340 unter einen vorbestimmten Wert verringern und die Freigeben-Phase 1360 eintreten. In einigen Ausführungsformen kann die Halten-Phase 1340 unbestimmt beibehalten werden, vorausgesetzt, dass es ein kontinuierliches Eingabesignal 1310 gibt. Weiterhin kann das Erhöhen des Tempos einer Wischgeste einen gegenwärtigen Pegel der Halten-Phase 1340 proportional erhöhen, gemäß den virtuellen Impuls-Eigenschaften des Flugradsystems 1100. In einigen Ausführungsformen kann der Lebenszyklus einer Note von der Freigeben-Phase 1360 zurück zu der Halten-Phase 1340 in Reaktion auf ein ausreichend hohes Eingabesignal (z. B. Wischgeschwindigkeit) zurückkehren (1355). Es soll beachtet werden, dass sich der hierin beschriebene ”Pegel” auf eine Lautstärke beziehen kann. Zusätzlich kann sich der Pegel optionalerweise auf einen relativen ”Impuls” beziehen, der von dem Flugradsystem 1100 kreiert wurde, wobei die unterschiedlichen Phasen (z. B. Anstieg, Halten, Freigeben) mit einem Pegel korrespondieren.

In alternativen Ausführungsformen können andere Eingabesignale verwendet werden, um den Lebenszyklus einer Note, das Flugradsystem 1100 oder eine Kombination der beiden zu modulieren. Andere Benutzereingabesignale können die Größe des Berührpunktes und/oder die Beschleunigung davon (d. h. Erkennen des Drucks oder der abwärts gerichteten Kraft der Eingabegeste), den Winkel des Berührsignals, mehrere Berührsignale oder jegliches andere Eingabesignal, das von einem Fachmann aufgrund dieser Offenbarung verstanden würde, beinhalten.

Es soll verstanden werden, dass die spezifischen Schritte, die in 13 veranschaulicht sind, ein bestimmtes Verfahren zum Modellieren eines Lebenszyklus einer Note, die auf einem virtuellen Instrument gespielt wird, bereitstellen, gemäß einer Ausführungsform der vorliegenden Erfindung. Andere Sequenzen an Schritten können ebenfalls gemäß alternativer Ausführungsformen durchgeführt werden. In bestimmten Ausführungsformen kann das Verfahren 1300 die individuellen Schritte in einer unterschiedlichen Reihenfolge, zur gleichen Zeit oder jeglicher anderer Sequenz für eine bestimmte Anwendung durchführen. Darüber hinaus können die individuellen Schritte, die in 13 veranschaulicht sind, mehrere Unterschritte beinhalten, die in unterschiedlichen Sequenzen, wie für den individuellen Schritt geeignet, durchgeführt werden können. Weiterhin können zusätzliche Schritte hinzugefügt oder entfernt werden, abhängig von den bestimmten Anwendungen. Ein Fachmann würde viele Variationen, Modifikationen und Alternativen des Verfahrens erkennen und verstehen.

21 ist ein vereinfachtes Flussdiagramm, das Aspekte eines Verfahrens 2100 zum Modulieren eines Lebenszyklus einer Note veranschaulicht, gemäß einer Ausführungsform der Erfindung. Das Verfahren 2100 wird durch Verarbeitungslogik durchgeführt, die Hardware (z. B. Schaltungen, dedizierte Logik, usw.), Software (die auf einem Rechensystem für allgemeine Zwecke oder einer dedizierten Maschine läuft), Firmware (eingebettete Software) oder jegliche Kombination davon aufweisen. In einer Ausführungsform wird das Verfahren 2100 durch die Prozessoreinheit 1410 von 14 durchgeführt.

Bezug nehmend auf 21, beginnt das Verfahren 2100 mit dem Erzeugen einer Benutzerschnittstelle auf einer berührungsempfindlichen Anzeige, bei 2110. Die berührungsempfindliche Anzeige kann ähnlich der Benutzerschnittstelle 100 für ein virtuelles Musikinstrument, wie in 1 gezeigt, sein. Die Benutzerschnittstelle kann auf jeglicher geeigneten berührungsempfindlichen Vorrichtung implementiert werden, die eingerichtet ist, um Berühreingaben zu erkennen. Bei 2120 beinhaltet das Verfahren 2100 weiterhin das Erzeugen eines ersten virtuellen Flugradsystems („virtual flywheel system”, VFS) 1110. Das erste virtuelle Flugradsystem 1110 kann eine Eingabe und eine Ausgabe beinhalten, wobei die Eingabe eine Benutzerberühreingabe auf der Benutzerschnittstelle oder jegliche geeignete Dateneingabe (z. B. Eingabesignal) von jeglicher gewünschten Quelle beinhalten kann, wie ein Fachmann verstehen würde. Die Ausgabe des ersten virtuellen Flugradsystems kann einen Datenwert beinhalten, der ein Ausdruckswert, ein virtueller Impuls oder eine andere geeignete Datenausgabe sein kann, die zumindest teilweise auf der Dateneingabe und einem Massenkoeffizienten basiert, der mit dem ersten virtuellen Flugrad assoziiert ist. Der Massenkoeffizient des VFS 1110 kann vorbestimmt, ein festgelegter Wert, ein dynamischer Wert oder jeglicher geeignete Wert wie erforderlich, sein. In einigen Fällen ist die Ausgabe des ersten virtuellen Flugrades 1110 das Produkt einer Magnitude der Dateneingabe und des Massenkoeffizienten.

Bei 2130 beinhaltet das Verfahren 2100 weiterhin das Erzeugen eines zweiten virtuellen Flugradsystems 1120. Das zweite virtuelle Flugradsystem („virtual flywheel system”, VFS) 1110 kann eine Eingabe und eine Ausgabe beinhalten. In einigen Ausführungsformen ist das zweite virtuelle Flugradsystem 1120 seriell mit dem ersten virtuellen Flugradsystem 1100 verbunden, sodass die Ausgabe des ersten virtuellen Flugradsystems 1110 mit der Eingabe des zweiten virtuellen Flugradsystems 1120 gekoppelt ist. In einigen Fällen kann die Eingabe in das zweite virtuelle Flugradsystem 1120 zusätzliche Quellen (z. B. mehrere Eingaben) beinhalten. Die Ausgabe des zweiten VFS 1120 kann vollständig oder teilweise auf der Eingabe zu der VFS 1120 und einem Massenkoeffizienten, der mit der zweiten VFS 1120 assoziiert ist, beruhen. Der Massenkoeffizient des VFS 1120 kann vorbestimmt, ein festgelegter Wert, ein dynamischer Wert oder jeglicher geeignete Wert wie erforderlich, sein. In einigen Fällen ist die Ausgabe des ersten virtuellen Flugrades 1120 das Produkt einer Magnitude der Dateneingabe des zweiten VFS 1120 und seinem assoziierten Massenkoeffizienten.

Bei 2140 empfängt die Benutzerschnittstelle eine Benutzereingabe. Die Benutzereingabe kann eine Berührgeste, Wischgeste oder jegliche Eingabe von einem Benutzer, einem Stift oder ähnlich auf einer berührungsempfindlichen Anzeige beinhalten. Alternativ kann die Eingabe durch Systeme erzeugt werden, die anders als die berührungsempfindliche Variante sind. Bei 2150 beinhaltet das Verfahren 2100 weiterhin das Bestimmen eines Impulses des ersten VFS 1110. Wie voranstehend beschrieben kann der Impuls auf einer Eingabe zu dem VFS 1110 und einem Massenkoeffizienten, der mit dem VFS 1110 assoziiert ist, beruhen. Bei 2160 beinhaltet das Verfahren 2100 weiterhin das Bestimmen eines Impulses des zweiten VFS 1110. Wie voranstehend beschrieben kann der Impuls des zweiten VFS 1120 auf einem Eingabesignal für das zweite VFS 1120 und seinem assoziierten Massenkoeffizienten beruhen. Die Ausgabe des VFS 1120 kann als ein Ausdruckspegel, ein Ausgabepegel, ein dynamisches Steuersignal oder Ähnliches verwendet werden, wie ein Fachmann verstehen würde.

Bei 2170 beinhaltet das Verfahren 2100 weiterhin das Anwenden des virtuellen Impulses des zweiten VFS 1120 zum Modulieren eines Lebenszyklus einer Note oder eines Akkords. In einigen Ausführungsformen kann die Ausgabe des VFS 1120 (z. B. Ausdruckspegel) zum Modulieren einer oder mehrerer Audio-Eigenschaften eines Audio-Signals verwendet werden. Beispielsweise kann eine Lautstärke des Audio-Signals in Echtzeit basierend auf einer Magnitude des Ausdruckspegels gesteuert werden. Die Ausgabe des VFS 1120 kann zum Modulieren jegliches Systems, einschließlich jener, die nicht mit Audio-Anwendungen in Beziehung stehen, verwendet werden. Beispielsweise kann der Ausdruckspegel zum Steuern oder Modulieren visueller Eigenschaften (z. B. Farben, Intensität, Kontrast, Farbton) eines Systems verwendet werden. Im weitesten Sinne kann die Ausgabe des VFS 1120 zum Modulieren in Echtzeit jeglicher gewünschter Parameter in jeglicher geeigneter Anwendung verwendet werden.

Es sollte verstanden werden, dass die spezifischen Schritte, die in 21 veranschaulicht sind, ein bestimmtes Verfahren zum Modulieren eines Lebenszyklus einer Note, gemäß einer Ausführungsform der vorliegenden Erfindung, bereitstellen. Andere Sequenzen an Schritten können ebenso gemäß alternativer Ausführungsformen durchgeführt werden. In bestimmten Ausführungsformen kann das Verfahren 2100 die individuellen Schritte in einer unterschiedlichen Reihenfolge, gleichzeitig oder jeglicher anderer Sequenz für eine bestimmte Anwendung durchführen. Darüber hinaus können die individuellen Schritte, die in 21 veranschaulicht sind, mehrere Unterschritte beinhalten, die in unterschiedlichen Sequenzen, wie für den individuellen Schritt geeignet, durchgeführt werden. Weiterhin können zusätzliche Schritte hinzugefügt oder entfernt werden, abhängig von den bestimmten Anwendungen. Ein Fachmann würde viele Variationen, Modifikationen und Alternativen des Verfahrens erkennen und verstehen.

15 veranschaulicht ein Computersystem 1500 gemäß einer Ausführungsform der vorliegenden Erfindung. Die Benutzerschnittstellen, die hierin beschrieben sind (z. B. Schnittstelle 100 und 700) können in einem Computersystem wie dem Computersystem 1500, das hier gezeigt ist, implementiert sein. Das Computersystem 1500 kann als jegliche von verschiedenen Rechenvorrichtungen implementiert sein, einschließlich z. B. einem Desktop- oder Laptop-Computer, Tablet-Computer, Smartphone, persönlicher Daten-Assistent („personal data assistant”, PDA) oder jegliche andere Art von Rechenvorrichtung, nicht beschränkt auf irgendeinen bestimmten Formfaktor. Das Computersystem 1500 kann Verarbeitungseinheit(en) 1505, ein Speicher-Untersystem 1510, Eingabevorrichtungen 1520, Ausgabevorrichtungen 1525, eine Netzwerkschnittstelle 1535 und einen Bus 1540 beinhalten.

Die Verarbeitungseinheit(en) 1505 kann einen einzelnen Prozessor, der einen oder mehrere Kerne aufweisen kann, oder mehrere Prozessoren beinhalten. In einigen Ausführungsformen kann/können die Verarbeitungseinheit(en) 1505 einen primären Prozessor für allgemeine Zwecke wie auch einen oder mehrere Co-Prozessoren für spezielle Zwecke, wie Grafikprozessoren, digitale Signalprozessoren oder ähnliche beinhalten. In einigen Ausführungsformen können alle Prozessoreinheiten 1505 unter Verwendung benutzerdefinierter Schaltungen implementiert werden, wie anwendungsspezifische integrierte Schaltungen („application specific integrated circuits”, ASICs) feldprogrammierbare Gatteranordnungen („field programmable gate arrays”, FPGAs). In einigen Ausführungsformen führen solche integrierten Schaltungen Instruktionen aus, die auf der Schaltung selbst gespeichert sind. In anderen Ausführungsformen kann/können die Verarbeitungseinheit(en) 1505 Instruktionen ausführen, die in dem Speicher-Untersystem 1510 gespeichert sind.

Das Speicher-Untersystem 1510 kann verschiedene Speichereinheiten beinhalten, wie einen Systemspeicher, einen Nur-Lese-Speicher („read-only memory”, ROM) und eine permanente Speichervorrichtung. Der ROM kann statische Daten und Instruktionen speichern, die von der/den Verarbeitungseinheit(en) 1505 und anderen Modulen der elektronischen Vorrichtung 1500 benötigt werden. Die permanente Speichervorrichtung kann eine Lese- und -Schreibe-Speichervorrichtung sein. Diese permanente Speichervorrichtung kann eine nichtflüchtige Speichereinheit sein, die Instruktionen und Daten speichert, selbst wenn das Computersystem 1500 heruntergefahren ist. Einige Ausführungsformen der Erfindung können eine Massenspeichervorrichtung (wie eine magnetische oder optische Disk oder ein Flash-Speicher) als eine permanente Speichervorrichtung verwenden. Andere Ausführungsformen können eine entfernbare Speichervorrichtung (z. B. eine Floppy-Disk, ein Flash-Laufwerk) als eine permanente Speichervorrichtung verwenden. Der Systemspeicher kann eine Lese- und -Schreibe-Speichervorrichtung oder ein flüchtiger Lese- und -Schreibe-Speicher, wie ein dynamischer Speicher mit wahlfreiem Zugriff („dynamic random access memory”) sein. Der Systemspeicher kann einige oder die gesamten Instruktionen und Daten speichern, die der Prozessor zur Laufzeit benötigt.

Das Speicher-Untersystem 1510 kann jegliche Kombination von computerlesbaren Speichermedien beinhalten, einschließlich Halbleiter-Speicherchips unterschiedlicher Typen (DRAM, SRAM, SDRAM, Flash-Speicher, programmierbarer Nur-Lese-Speicher) und so weiter. Magnetische und/oder optische Disks können ebenfalls verwendet werden. In einigen Ausführungsformen kann das Speicher-Untersystem 1510 entfernbare Speichermedien beinhalten, die lesbar und/oder beschreibbar sein können; Beispiele solcher Medien beinhalten eine Kompakt-Disk („compact disc”, CD), digitale, vielseitig verwendbare Nur-Lese-Disk („read-only digital versatile disc”) (z. B. DVD-ROM, DVD-ROM mit zwei Schichten), Nur-Lese- und beschreibbare Blue-Ray®-Disks, optische Disks hoher Dichte, Flash-Speicher-Karten (z. B. SD-Karten, Mini-SD-Karten, Mikro-SD-Karten, usw.), magnetische ”Floppy”-Disketten usw.

Die computerlesbaren Speichermedien beinhalten nicht die Trägerwellen und flüchtigen elektronischen Signale, die drahtlos oder über drahtgebundene Verbindungen gesendet werden.

In einigen Ausführungsformen kann das Speicher-Untersystem 1510 ein oder mehrere Software-Programme, die von der/den Prozessoreinheit(en) 1505, wie einer Benutzerschnittstelle 1515, ausgeführt werden. Wie erwähnt kann sich ”Software” auf Sequenzen an Instruktionen beziehen, die, wenn sie von der/den Verarbeitungseinheit(en) 1505 ausgeführt werden, das Computersystem 1500 veranlassen, unterschiedliche Operationen durchzuführen, und somit eine oder mehrere spezifischen Maschinenimplementierungen definieren, die die Operationen des Software-Programms ausführen und durchführen. Die Instruktionen können als Firmware gespeichert werden, die in einem Nur-Lese-Speicher liegen, und/oder als Anwendungen, die in einem magnetischen Speicher gespeichert sind, die in den Speicher zur Verarbeitung durch einen Prozessor gelesen werden können. Software kann als ein einzelnes Programm oder eine Sammlung von getrennten Programmen oder Programm-Modulen, die miteinander wie gewünscht interagieren, implementiert sein. Programme und/oder Daten können in einem nichtflüchtigen Speicher gespeichert sein und vollständig oder teilweise in einen flüchtigen Arbeitsspeicher während der Programmausführung kopiert werden. Aus dem Speicher-Untersystem 1510 kann/können die Prozessoreinheit(en) 1505 die Programminstruktionen zur Ausführung und Daten zur Verarbeitung abrufen, um unterschiedliche hierin beschriebene Operationen auszuführen.

Eine Benutzerschnittstelle kann durch eine oder mehrere Benutzereingabevorrichtungen 1520, eine Anzeigevorrichtung 1525 und/oder eine oder mehrere andere Benutzerausgabevorrichtungen (nicht gezeigt) bereitgestellt werden. Die Eingabevorrichtungen 1520 können jegliche Vorrichtung beinhalten, über die ein Benutzer dem Rechensystem 1500 Signale bereitstellen kann; das Rechensystem 1500 kann die Signale als eine Angabe bestimmter Benutzeranfragen oder Information interpretieren. In mehreren Ausführungsformen können die Eingabevorrichtungen 1520 jegliche oder sämtliche der folgenden beinhalten: Tastatur-Berühr-Pad, Berührungsbildschirm, Maus oder andere Zeigevorrichtung, Scroll-Rad, Klick-Rad, Drehscheibe, Knopf, Schalter, Keypad, Mikrofon usw.

Die Ausgabevorrichtungen 1525 können Bilder, die von der elektronischen Vorrichtung 1500 erzeugt wurden, anzeigen. Die Ausgabevorrichtungen 1525 können unterschiedliche Bilderzeugungstechnologien beinhalten, z. B. eine Kathodenstrahlröhre („cathode ray tube”, CRT), eine Flüssigkristallanzeige („liquid crystal display”, LCD), eine lichtemittierende Diode („light-emitting diode”, LED) einschließlich organischer lichtemittierender Dioden („organic light-emitting diodes”, OLED), ein Projektionssystem oder Ähnliches, zusammen mit unterstützender Elektronik (z. B. digital-zu-analog- oder analog-zu-digital-Wandler, Signalprozessoren oder Ähnliches), Indikatorlichter, Lautsprecher, taktile ”Anzeige”-Vorrichtungen, Kopfhöreranschlüsse, Drucker usw. Einige Ausführungsformen können eine Vorrichtung wie einen Berührungsbildschirm beinhalten, der sowohl als Eingabe- wie auch als Ausgabevorrichtung funktioniert.

In einigen Ausführungsformen kann die Ausgabevorrichtung 1525 eine grafische Benutzerschnittstelle bereitstellen, in welcher sichtbare Bildelemente in bestimmten Bereichen der Ausgabevorrichtung 1525 als aktive Elemente oder Steuerelemente, die der Benutzer unter Verwendung der Benutzereingabevorrichtung 1520 auswählt, definiert sind. Beispielsweise kann der Benutzer eine Benutzereingabevorrichtung manipulieren, um einen Cursor auf dem Bildschirm oder einen Zeiger über das Steuerelement zu positionieren, und dann eine Taste klicken, um die Auswahl anzugeben. Alternativ kann der Benutzer das Steuerelement auf einer Berührungsbildschirmvorrichtung berühren (z. B. mit einem Finger oder Stift). In einigen Ausführungsformen kann der Benutzer ein oder mehrere Wörter, die mit dem Steuerelement assoziiert sind, sprechen (das Wort kann z. B. eine Bezeichnung auf dem Element, oder eine Funktion, die mit dem Element assoziiert ist, sein). In einigen Ausführungsformen können Benutzergesten auf einer berührungsempfindlichen Vorrichtung als Eingabebefehle erkannt und interpretiert werden; diese Gesten können, müssen aber nicht, mit jeglichem bestimmten Array in der Ausgabevorrichtung 1525 assoziiert sein. Andere Benutzerschnittstellen können ebenfalls implementiert werden.

Die Netzwerkschnittstelle 1535 kann Sprach- und/oder Daten-Kommunikationsfähigkeiten für die elektronische Vorrichtung 1500 bereitstellen. In einigen Ausführungsformen kann die Netzwerkschnittstelle 1535 Hochfrequenz-(HF)-Transceiver-Komponenten für einen Zugriff auf drahtlose Sprach- und/oder Datennetzwerke (z. B. unter Verwendung zellularer Telefontechnologie, fortgeschrittene Datennetzwerktechnologie, wie 3G, 4G oder EDGE, WiFi (IEEE 802.11 Familien-Standards) oder andere mobile Kommunikationstechnologien, oder jegliche Kombinationen davon), GPS-Empfängerkomponenten und/oder andere Komponenten beinhalten. In einigen Ausführungsformen kann die Netzwerkschnittstelle 1535 drahtgebundene Netzwerkkonnektivität (z. B. Ethernet) zusätzlich oder anstelle einer drahtlosen Schnittstelle bereitstellen. Die Netzwerkschnittstelle 1535 kann unter Verwendung einer Kombination von Hardware (z. B. Antennen, Modulatoren/Demodulatoren, Kodierer/Dekodierer und andere analoge und/oder digitale Signalverarbeitungsschaltungen) und Software-Komponenten implementiert sein.

Der Bus 1540 kann mehrere System-, periphere und Chipset-Busse beinhalten, die die zahlreichen internen Vorrichtungen der elektronischen Vorrichtung 1500 kommunikativ verbinden. Beispielsweise kann der Bus 1540 die Verarbeitungseinheit(en) 1505 mit dem Speicher-Untersystem 1510 kommunikativ koppeln. Der Bus 1540 stellt auch eine Verbindung mit den Eingabevorrichtungen 1520 und der Anzeige 1525 her. Der Bus 1540 koppelt auch die elektronische Vorrichtung 1500 über die Netzwerkschnittstelle 1535 zu einem Netzwerk. Auf diese Weise kann die elektronische Vorrichtung 1500 Teil eines Netzwerks von mehreren Computersystemen (z. B. ein lokales Netzwerk („local area network”, LAN), Großraumnetzwerk („wide area network”, WAN), ein Intranet oder ein Netzwerk von Netzwerken, wie das Internet, sein. Jegliche oder sämtliche Komponenten der elektronischen Vorrichtung 1500 können in Verbindung mit der Erfindung verwendet werden.

Einige Ausführungsformen beinhalten elektronische Komponenten, wie Mikroprozessoren und Speicher, die Computerprogramminstruktionen in einem computerlesbaren Speichermedium speichern. Viele der in dieser Beschreibung beschriebenen Merkmale können als Prozesse implementiert sein, die als ein Satz an Programminstruktionen, die auf einem computerlesbaren Speichermedium spezifiziert sind. Wenn diese Programminstruktionen durch eine oder mehrere Verarbeitungseinheiten ausgeführt werden, veranlassen sie die Verarbeitungseinheit(en), unterschiedliche Operationen, die in den Programminstruktionen angegeben sind, durchzuführen. Beispiele von Programminstruktionen oder Computer-Code beinhalten Maschinen-Code, wie er von einem Compiler erzeugt wird und Dateien, die Code von höherer Ebene beinhalten, die von einem Computer ausgeführt werden, eine elektronische Komponente oder einen Mikroprozessor, der einen Interpreter verwendet.

Es wird verstanden werden, dass das Computer-System 1500 illustrativ ist und dass Variationen und Modifikationen möglich sind. Das Computer-System 1500 kann andere Fähigkeiten haben, die nicht spezifisch hierin beschrieben sind (z. B. Mobiltelefon, globales Positionsbestimmungssystem (GPS), Leistungsverwaltung, eine oder mehrere Kameras, unterschiedliche Verbindungs-Ports zum Verbinden externer Vorrichtungen oder Zubehörteile, usw.). Weiterhin soll verstanden werden, dass, wenngleich das Computer-System 1500 mit Bezugnahme auf bestimmte Blöcke beschrieben ist, diese Blöcke nur der Zweckmäßigkeit der Beschreibung wegen definiert sind, und sollten keine bestimmte physikalische Anordnung von Komponententeilen implizieren. Weiterhin müssen die Blöcke nicht mit physikalisch getrennten Komponenten korrespondieren. Blöcke können eingerichtet sein, um unterschiedliche Operationen durchzuführen, z. B. durch Programmieren eines Prozessors oder Bereitstellen eines geeigneten Steuerschaltkreises, und unterschiedliche Blöcke können oder können nicht rekonfigurierbar sein, abhängig davon, wie die ursprüngliche Konfiguration erhalten wird. Ausführungsformen der vorliegenden Erfindung können in einer Vielfalt an Geräten realisiert werden, einschließlich elektronischer Vorrichtungen, die unter Verwendung jeglicher Kombination von Schaltungen und Software implementiert sind.

Wenngleich die Erfindung hinsichtlich spezifischer Ausführungsformen beschrieben wurde, wird ein Fachmann erkennen, dass zahlreiche Modifikationen möglich sind: Anzeigen der Schnittstelle 100/700 und der Konfiguration der unterschiedlichen Elemente darin, wie die Position der Berührregionen und Berührzonen, die Arten an verwendeten virtuellen Instrumenten, die auf die Berührzonen angewendeten Akkord-Umkehrungen, die benutzerdefinierbar sind, benutzerdefinierbare Aspekte des Flugradsystems, usw. Somit wird verstanden werden, dass, obwohl die Erfindung hinsichtlich spezifischer Ausführungsformen beschrieben wurde, die Erfindung beabsichtigt, alle Modifikationen und Äquivalente im Bereich der folgenden Ansprüche abzudecken.

Die vorstehende Offenbarung stellt Beispiele und Aspekte bereit, die sich auf unterschiedliche Ausführungsformen im Bereich der Ansprüche, die hieran angehängt sind oder später gemäß dem anwendbaren Recht hinzugefügt werden, bereit. Jedoch sind diese Beispiele nicht beschränkend hinsichtlich wie jeglicher offenbarte Aspekt implementiert werden kann.

Sämtliche in dieser Spezifikation offenbarten Merkmale (einschließlich jeglicher angefügter Ansprüche, Zusammenfassung und Zeichnungen) können durch alternative Merkmale ersetzt werden, die den gleichen, äquivalenten oder ähnlichen Zwecken dienen, soweit nicht ausdrücklich anderweitig angegeben. Folglich ist, soweit nicht ausdrücklich anderweitig angegeben, jedes offenbarte Merkmal nur ein Beispiel einer generischen Serie von äquivalenten oder ähnlichen Merkmalen.

Jegliches Element in einem Anspruch, das sich nicht explizit auf ”Mittel zum” Durchführen einer spezifizierten Funktion beziehen, oder ”Schritte zur” Durchführung einer spezifischen Funktion, sollte nicht als eine ”Mittel”- oder ”Schritt”-Klausel, wie in 35 U. S. C. § 112, sechster Absatz, spezifiziert, verstanden werden. Insbesondere ist nicht beabsichtigt, dass die Verwendung von ”Schritt von” die Vorschriften von 35 U. S. C. § 112, sechster Absatz anführt.