Menschliche Musik mit KI imitiert

06.06.2022

Bei der Veranstaltung des Philosophischen Cafés im Degginger regten maschinell erzeugte Kompositionen rund 70 Teilnehmende zu einer interessanten Debatte an.

Die Pianistin Barbara Zeller spielte auf dem Steinway & Sons-Flügel im Degginger unterschiedliche musikalische Ausschnitte. Foto: Stadt Regensburg

Die Pianistin Barbara Zeller spielte auf dem Steinway & Sons-Flügel im Degginger unterschiedliche musikalische Ausschnitte. Foto: Stadt Regensburg

Kann künstliche Intelligenz kreativ sein? Was ist überhaupt Kreativität? Wie steht es um die Zukunft von KI und Kunst? Diese und viele andere Fragen wurden im Rahmen der Veranstaltung „Künstliche Intelligenz und menschliche Kreativität: Reichweite und Grenzen maschineller Intelligenz am Beispiel der Musik“ im Degginger in der Regensburger Innenstadt mit über 70 Teilnehmenden diskutiert. 

Im Rahmen des Philosophischen Cafés, einer offenen, interdisziplinären philosophischen Diskussionsreihe, moderierte Prof. Dr. Thomas Kriza durch die spannende Thematik. Die Gäste bekamen zu Beginn eine Einführung – was ist eigentlich künstliche Intelligenz und wie wird sie heutzutage in künstlerisch-kreativen Bereichen eingesetzt? Anschließend wurde dem Publikum der aktuelle Stand von KI in der Musik dargelegt. 

David Cope und sein Programm "Emmy"

Hier blieb vor allem ein Name im Gedächtnis: David Cope. Der Musikwissenschaftler, Komponist und Programmierer David Cope hat die Noten von Komponisten wie Bach, Beethoven und Mozart maschinell analysiert und auf dieser Grundlage maschinelle Neukompositionen in deren Stil implementiert. Copes Programm „Emmy“ wurde mittels Machine-Learning-Algorithmen mit den digitalisierten Noten der großen Komponisten trainiert, um mit den erkannten Mustern neue Stücke zu „komponieren“. Bei Blindvorführungen sollen diese Kompositionen ein musikalisch gebildetes Publikum überzeugen können.

Prof. Kriza warf folgende Frage auf: Wenn Computer geistige Leistungen des Menschen so gut imitieren können, dass wir von außen gar nicht mehr erkennen können, was von der Maschine und was vom Menschen stammt – müssen wir dann der Maschine eine Form von Intelligenz zusprechen? Diese Grundidee eines Maßstabs für künstliche Intelligenz hatte Alan Turing ursprünglich für die sprachliche Interaktion des Menschen mit einem Computer formuliert. In der Veranstaltung wurde die Herangehensweise auf den Bereich der Musik übertragen und auf die Probe gestellt.

Die Pianistin Barbara Zeller spielte auf dem Steinway & Sons-Flügel im Degginger unterschiedliche musikalische Ausschnitte: manche von bekannten Komponisten, andere von David Copes KI-Programm. Mit Johann Sebastian Bach wurden die Zuhörenden auf die Probe gestellt und sollten erkennen, welches Stück von Bach selbst und welches von der KI auf Basis von Bachs Kompositionen erstellt wurde. Und tatsächlich tippte eine Mehrheit auf das Stück der KI. 

Mithilfe von Einblicken des „KI und Data Science“-Studenten Eugen Tereschenko, welcher an der Universität in Oxford zu KI und Musik forschte, wurde eine rege Diskussion losgetreten. Die Gäste – von Musikkenner*innen hin zu Studierenden – sprachen darüber, was Kunst und Kreativität eigentlich sind und ob künstliche Intelligenz diese schlicht imitiert oder selbst etwas kreativ kreieren kann. 
Man kam zu folgendem Schluss: Ohne Gefühle, Gedanken und Sinneserfahrungen kann eine musikalische künstliche Intelligenz den menschlichen Musiker vorerst nur imitieren, aber das kann sie – zugegebenermaßen – schon überraschend gut

Zurück