Hauptnavigation

    • Bachelor
    • Master
    • Major-Minor
    • PhD Centre
    • Weiterbildung
    • Vorbildung
    • Tanz Akademie Zürich
    • Toni-Areal
    • Medien- und Informationszentrum
    • Museum für Gestaltung
    • Musikklub Mehrspur
    • Theater der Künste goes «The Valley»
    • Kino Toni
    • Über die ZHdK
    • Toni-Areal
    • Lehre
    • Forschung
    • Internationales
    • ZHdK digital
    • Nachhaltigkeit
    • Zurich Centre for Creative Economies (ZCCE)
    • Medienstelle
    • Jobs
    • Alumni
    • Fondation ZHdK
    • Z-Kubator
    • Immersive Arts Space
    • Intranet
    • Darstellende Künste und Film
    • Design
    • Fine Arts
    • Kulturanalysen und Vermittlung
    • Musik
    • News
    • Jahresbericht 2024
    • Studienprojekte
    • Forschungsprojekte
    • Output-Verzeichnis
    • DIZH
    • Veranstaltungen
    • Personen
    • Podcasts
    • DE
    • EN
  • Merkliste
  • Menü Menü
Sie befinden sich hier:
  1. Forschungsprojekte
Mehr zu: Forschungsprojekte

Software für die Synchronisation von Bewegungs-, Ton-, Video- und Notenparameter

Institute for Music Research (IMR)

Software für die Synchronisation von Bewegungs-, Ton-, Video- und Notenparameter

Das Projekt soll eine Visualisierungssoftware entwickeln, welche die automatische Synchronisierung von Bewegungsparametern einerseits und von Ton- und Videoaufnahmen mit Notentextelementen in MIDI-Format andererseits ermöglicht. Diese automatisierte Lösung ergänzt die mittels Prisma und Sonic Visualizer zurzeit schon erfolgende Analyse von Tonaufnahmen hinsichtlich Zeitgestaltung und Dynamik. Gegenwärtig kann die oben beschriebene Synchronisation von Bewegungs-, Ton-, und Videomaterial nur teilweise geleistet werden. Bereits in Matlabsprache implementierte Lösungen wurden von der ITET der ETHZ für Muskel-, Bewegungs-, und Tonparameter vorgelegt. Für Video-Notationen wurden komplexe Lösungen erarbeitet, z.B. in Form des Programms ANVIL. Die spezielle Herausforderung der Erarbeitung einer neuen Software besteht darin, die unterschiedlichen Zeitkodierungen der einzelnen Parameter zu koordinieren und eine einfache Visualisierungsoberfläche herzustellen. Die neue Software eröffnet weiterhin Möglichkeiten zur vergleichenden Analyse des Bewegungsverhaltens beim Dirigieren und Tanzen während realistischen Bühnenauftritten.

Details

  • Forschungsschwerpunkt
    • FSP Musikalische Interpretation
  • Projektleitung
    • Victor Candia (IMR)
    • Horst Hildebrandt (IMR)
    • Benjamin Rupprechter (IMR)
  • Team
    • Victor Candia (IMR)
    • Horst Hildebrandt (IMR)
    • Benjamin Rupprechter (IMR)
  • Laufzeit

    01.01. – 31.12.2012

  • Forschungszugänge
    • Angewandte Forschung
    • Künstlerisch-wissenschaftliche Forschung
  • Disziplinen

    Musik