{"id":6670,"date":"2025-07-29T23:00:00","date_gmt":"2025-07-29T21:00:00","guid":{"rendered":"https:\/\/aitrends.center\/future-phases-at-mit-blends-orchestra-electronics-and-audience-participation-to-reimagine-music-performance\/"},"modified":"2025-07-29T23:00:00","modified_gmt":"2025-07-29T21:00:00","slug":"future-phases-at-mit-verbindet-orchesterelektronik-und-publikumsbeteiligung-um-die-musikauffuhrung-neu-zu-gestalten","status":"publish","type":"post","link":"https:\/\/aitrendscenter.eu\/de\/future-phases-at-mit-blends-orchestra-electronics-and-audience-participation-to-reimagine-music-performance\/","title":{"rendered":"FUTURE PHASES\" am MIT verbindet Orchester, Elektronik und Publikumsbeteiligung, um die Musikauff\u00fchrung neu zu gestalten"},"content":{"rendered":"<p>Letzten Monat gl\u00e4nzte das MIT mit einer bahnbrechenden Pr\u00e4sentation von Musik und Technologie: \u201cFUTURE PHASES\u201d stand in der Thomas Tull Concert Hall im Rampenlicht. Diese Veranstaltung war nicht nur eine weitere musikalische Darbietung, sondern ein aufregender Blick in die Zukunft von Musik und Technologie, die nahtlos miteinander verwoben sind und vom MIT Music Technology and Computation Graduate Program pr\u00e4sentiert wurden. Das Publikum war begeistert und wollte diese innovative Mischung aus Musik, Technologie und interaktiven Darbietungen unbedingt erleben.<\/p>\n<p>Das Besondere an \u201cFUTURE PHASES\u201d, das sich \u00fcber verschiedene Disziplinen erstreckte, waren die Wurzeln der Zusammenarbeit. Die \"Opera of the Future Group\" des MIT Media Lab und das Bostoner Kammerorchester \"A Far Cry\" arbeiteten zusammen, um einen unvergesslichen Abend zu gestalten. Diese Feier war die erste von vielen Veranstaltungen, die das Graduiertenprogramm im brandneuen Edward and Joyce Linde Music Building des MIT ausrichten wird. Das Programm brachte eine dynamische Mischung von Werken zu Geh\u00f6r. Von Streichorchestern, die mit elektronischen Komponenten verschmolzen wurden, \u00fcber Urauff\u00fchrungen von MIT-Komponisten bis hin zu St\u00fccken, die im Rahmen einer internationalen Ausschreibung ausgew\u00e4hlt wurden - es war eine ansprechende Pr\u00e4sentation von Talenten aus der ganzen Welt.<\/p>\n<p>Zwei Hauptwerke bildeten den Auftakt des Abends: die Weltpremiere von \u201cEV6\u201d von Evan Ziporyn, Kenan Sahin, Distinguished Professor am MIT, und Eran Egozy, Professor f\u00fcr Praxis, sowie die US-Premiere von \u201cFLOW Symphony\u201d von Tod Machover, Muriel R. Cooper, Professor f\u00fcr Musik und Medien am MIT Media Lab. Die St\u00fccke boten ein neuartiges Erlebnis, da sie mit einem 18-k\u00f6pfigen Streichorchester aufgef\u00fchrt wurden, was bei Auff\u00fchrungen mit elektronischen Elementen selten ist. Das Bostoner Ensemble A Far Cry hat diese Auff\u00fchrungen mit Leidenschaft dargeboten und den gezeigten technischen F\u00e4higkeiten eine verbindende, menschliche Note hinzugef\u00fcgt.<\/p>\n<p>Zus\u00e4tzlich zu den am MIT entstandenen Kompositionen nahmen die Organisatoren des Programms drei Werke auf, die im Rahmen einer internationalen Ausschreibung ausgew\u00e4hlt wurden. Mit 46 Beitr\u00e4gen stand der Jury eine vielf\u00e4ltige und abwechslungsreiche Palette einzigartiger klanglicher und stilistischer Ans\u00e4tze zur Verf\u00fcgung. Das 24-Lautsprecher-Surround-Sound-System des Konzertsaals trug ma\u00dfgeblich zu einem eindringlichen und einzigartigen Klangerlebnis bei.<\/p>\n<p>Der vielleicht fesselndste Moment des Abends war der Auftritt von \u201cEV6\u201d, der die Beteiligung des Publikums auf ein v\u00f6llig neues Niveau hob. Ziporyn und Egozy nutzten die M\u00f6glichkeiten der Technologie und verwandelten die Smartphones der Zuschauer in Musikinstrumente. So hatten die Besucher das Gef\u00fchl, Teil eines Orchesters zu sein. Die Inspiration f\u00fcr den Titel - \u201cEV6\u201d - kam von Ziporyns Elektroauto, das er gerne mit dem Fahren eines iPhones verglich - schnittig, digital, aber unverkennbar ein Auto. Es war ein passender Vergleich f\u00fcr eine Komposition, die eine faszinierende Mischung aus Hightech und traditionellen musikalischen Elementen verk\u00f6rpert.<\/p>\n<p>Der Abend beschr\u00e4nkte sich nicht nur auf die Auff\u00fchrungen. Im Anschluss an das Konzert konnten die Besucher sechs interaktive musiktechnische Demonstrationen erleben, die von MIT-Studenten entwickelt wurden und von einer spielerischen Musikschnittstelle bis zu einem System zur Analyse von Klavierdaten reichten. Ein faszinierendes Beispiel war Senegroove, eine Trommel-App, die auf senegalesischen Rhythmen basiert und f\u00fcr einen kommenden edX-Kurs entwickelt wurde.<\/p>\n<p>Wenn Eran Egozy \u00fcber \u201cZUK\u00dcNFTIGE PHASEN\u201d nachdenkt, sieht er das Potenzial f\u00fcr viele weitere Meilensteine in der Zukunft, insbesondere mit dem Linde-Musikgeb\u00e4ude, das ihnen nun zur Verf\u00fcgung steht. Wenn das MIT seine Erforschung der Welt der Musiktechnologie fortsetzt, werden seine innovativen Bem\u00fchungen zwangsl\u00e4ufig zu neuen Ideen und Kooperationen f\u00fchren. Indem es k\u00fcnftige Innovationen vorantreibt, m\u00f6chte das MIT nicht nur die Bostoner Gemeinde, sondern auch Publikum und K\u00fcnstler weit dar\u00fcber hinaus inspirieren und den Weg f\u00fcr eine neue harmonische Beziehung zwischen Musik und Technologie ebnen.<\/p>","protected":false},"excerpt":{"rendered":"<p>Last month, MIT dazzled with a groundbreaking showcase of music and technology as &#8220;FUTURE PHASES&#8221; took the spotlight at the Thomas Tull Concert Hall. This event was not just another musical performance; it was an exciting glimpse into the future of music and technology, seamlessly woven together and presented by the MIT Music Technology and Computation Graduate Program. Drawing a large, enthusiastic crowd, it was clear that attendees were keen to experience this innovative blend of music, technology, and interactive performances. Spanning various disciplines, what made &#8220;FUTURE PHASES&#8221; truly unique was its roots in collaboration. The MIT Media Lab\u2019s Opera [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":6671,"comment_status":"","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[4,47],"tags":[],"class_list":["post-6670","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-audio","category-ai-news","post--single"],"_links":{"self":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/6670","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/comments?post=6670"}],"version-history":[{"count":0,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/6670\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/media\/6671"}],"wp:attachment":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/media?parent=6670"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/categories?post=6670"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/tags?post=6670"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}