Titelbild: ist dein Job als Musiker sicher vor der KI?

Vielleicht geht es dir so wie mir: Du siehst in den Nachrichten, dass irgendein ungelenker Roboter gerade wieder in China vorgestellt wurde. Wie nett, denkst du dir, das ist nur was für Reiche, oder? Vielleicht hörst du über die Fortschritte der KI, vielleicht findest du das witzig, vielleicht auch nicht. Betrifft dich eh nicht. Dein Instrument wird sogar ohne Strom betrieben, ha! Du hörst, dass in den nächsten 10 Jahren viele Jobs von der KI ersetzt werden und denkst, »nicht bei mir«.

Doch wenn du deinen Job als Musiker, Instrumental- oder Gesangslehrer als sicher empfindest, so sicher, dass er niemals von der KI ersetzt wird – dann könnte dich dieser Beitrag interessieren.

Ich möchte zunächst einige Beispiele aufzeigen, in welchen Branchen die Künstliche Intelligenz und die Robotik heute eingesetzt werden. Man kann sich darüber streiten, ob gewinnbringend oder nicht. Tatsache ist, die Entwicklung von KI und Robotik durchdringt längst viele Lebensbereiche, und nach meiner Recherche weiß ich, es sind so viele mehr, als ich dachte. Anschließend möchte ich den Bogen zur Musik spannen und zeigen, wie weit hier schon die K.I. vorgedrungen ist.

In China existieren bereits Restaurants wie beispielsweise das “Foodom Tianjiang Food Kingdom“, in denen Roboter eigenständig kochen und Gerichte servieren. Das Hamburger Start-up Circus plant 5.400 vollautomatische Kochroboter an China zu liefern, die in Bildungseinrichtungen schätzungsweise zehn Millionen Mahlzeiten täglich zubereiten werden.

Für das Tragen schwerer Lasten haben Unternehmen wie Unitree den Roboter Unitree B2 entwickelt, die problemlos bis zu 120 Kilogramm transportieren und nicht nur im Haushalt und beim Häuserbau, sondern auch bei der Müllbeseitigung in schweren Höhenbedingungen eingesetzt werden können. Unter dem Link wird wohlgemerkt nicht der richtige Preis genannt – der muss angefragt werden, aber der kleinere Bruder Unitree Go2, der für den Haushalt mit 10 kg Last konzipiert wurde, kostet knapp unter 2800 US-Dollar.

In der Medizin werden Nanobots – winzige Maschinen auf molekularer Ebene – bereits getestet, um Medikamente gezielt an Tumorzellen abzugeben. Erste Versuche zeigen, dass DNA-gesteuerte Nanoroboter in der Lage sind, Krebszellen bei Mäusen zu erkennen und zu zerstören. Dabei hilft KI, die Bewegungsmuster und Zielgenauigkeit dieser Bots in Echtzeit zu steuern. Das Ziel sind präzisere Therapien mit weniger Nebenwirkungen.

Aber das ist nicht alles. Im Bildungsbereich ist die KI bereits ebenfalls angekommen. Plattformen wie „Makes you fluent“, „Talkio.ai“ und „LanguaTalk“ setzen auf KI, um Fremdsprachen zu vermitteln. Diese Technologie ist heute noch nicht ausgereift, doch der Fortschritt lässt erahnen, wie die Realität in fünf bis zehn Jahren aussehen könnte.

Die sogenannte lernfähige Robotik erobert zur Zeit einige Bereiche, wenn man so will, im Sturm. Die begeisterten Statements deren Entwickler sind hier zu lesen, wenn man etwas weiter runterscrollt und dann auf jeden Namen klickt. Vom Handwerk bis hin zur Pflege, dem Weltraum, der Tiefsee und dem Katastrophenschutz: die Ingenieure bringen Argumente um Argumente, wie die lernfähige Robotik unser Leben besser macht.

Zwei Beispiele seien hier im Detail hervorgehoben: In der Pflege wird der lernfähige Roboter “Pepper” eingesetzt, oder auch “Paro”, eine interaktive Plüschrobbe, die aktuell beispielsweise demenzkranken Senioren hilft, wieder in Kontakt zur Außenwelt kommen und in die Interaktion. Die KI darin erkennt Berührungen, Stimmen und reagiert auf emotionale Zustände.

In der Arbeit mit autistischen Kindern kommt der Roboter „Kaspar“ zum Einsatz. Manche autistischen Kinder haben Schwierigkeiten, die Körpersprache der Mitmenschen zu interpretieren, und ”Kaspar” wurde dafür kreiert, diesen Kindern eine Art Vorhersehbarkeit in den menschlichen Interaktionen anzubieten, indem sie diese erstmal mit Kaspar üben. Die KI dahinter analysiert die Reaktionen der Kinder und passt seine Interaktionen entsprechend an. Mit dem Anstieg von Autismus der letzten Jahre ist es unschwer zu erkennen, dass dieser Roboter sehr nachgefragt werden könnte.

Auch wenn es nicht um Musik geht, zeigen diese Beispiele, wie sich Menschen zunehmend an nicht-menschliche Interaktion gewöhnt haben. Aber es kommt noch krasser. Was wäre nämlich, wenn die KIs lernen, miteinander zu kommunizieren?

Im Mai 2024 stellte OpenAI sein optimiertes KI-Modell GPT-4.o vor, in dem zwei KI’s miteinander kommunizierten und sogar gemeinsam sangen. In einem anderen Anwendungsvideo wurde ein Entwickler erfolgreich auf ein Jobinterview durch die KI vorbereitetet. Diese Fertigkeiten stehen dem allgemeinen Publikum noch nicht zur Verfügung, lassen aber erkennen, wie immer mehr die Trennlinie verwischt zwischen dem Bereich, in dem Menschen einzigartig sind und dem Bereich der Technik.

Der Nachrichtenkanal Channel 1 wird seit Anfang 2024 betrieben und vollkommen in Gänze durch KI generiert – sowohl die Redaktion als auch die Moderation der Nachrichten. Hier ein Beispielvideo, bei der man auch sehen kann, wie die Moderatoren nahtlos von einer Sprache in die andere wechseln.

Im Film Here (2024), mit Regie von Robert Zemeckis, wird die KI “Metaphysic Live” eingesetzt, um Schauspieler Tom Hanks und Robin Wright nahtlos zwischen 18 und 80 Jahre aussehen zu lassen. Robert Zemeckis ist sehr begeistert von dieser Technologie. Interessanterweise betrug das Budget für diesen Film 50 Millionen US-Dollar, die Gage pro Film von Tom Hanks ist jedoch 25 Millionen US-Dollar. Dieses lässt die Frage aufkommen, wie es bei diesem Verhältnis zwischen Budget und Gage des Hauptdarstellers überhaupt möglich war, diesen Film zu realisieren. In einem Bericht von Wired aus 2024 stattet Autor Benj Edwards der Firma Metaphysic, Entwickler der “Metaphysic Live”-KI, einen Besuch ab. Effekte, die früher in monatelanger, mühevoller Post-Produktion erreicht werden konnten, schafft diese KI direkt während des Filmens, daher der Name “Metaphysic Live”. In einem anderen Beitrag über dieselbe Firma kann der Berichterstatter diese KI am eigenen Leib ausprobieren: Er soll in die Kamera lächeln und sieht nicht seine eigenen Zähne auf dem Monitor blitzen, sondern die eines berühmten Schauspielers – in Echtzeit.

Wir könnten uns also fragen: Wenn Hollywood das technische Know-How besitzt, einen Normalsterblichen im Film als einen berühmten Schauspieler aussehen zu lassen – wer sagt uns nicht, dass bei dem Verhältnis zwischen Budget und Schauspielergage Tom Hanks die Rolle überhaupt gespielt hat?

Bleiben wir noch einen Moment in Hollywood. Seit 2024 wissen wir, dass die generative KI Gen-3-Alpha in der Lage ist, realistisches Filmmaterial (auch und vor allem für Kinofilme) zu generieren. Bereits jetzt ist also eine Skepsis angebracht, vor jeder Art von Filmmaterial, das wir vorgezeigt bekommen. Von der Qualität der bewegten Bilder kann man sich in diesem komplett KI-generierten Kurzfilm selbst überzeugen. Eigentlich wird diese oder eine ähnliche Technologie bereits seit Jahren in der Werbebranche verwendet (und die Grafik- und Animationsindustrie bringe ich hier gar nicht erst an, diese Beispiele sind zu offensichtlich.)

Wenden wir uns schließlich der Musik zu. Zwei Beispiele für die Anwendung der Robotik im Konzertbetrieb seien hier genannt. Zum einen das Stück für Orchester und Cello-Solo des Schwedischen Komponisten Jacob Mühlrad, das Solo gespielt von einem Roboter. Zum anderen wurde in einem Projekt der Dresdner Sinfoniker in Zusammenarbeit der TU Dresden ein Roboter-Dirigent entwickelt, der drei verschiedene Orchester gleichzeitig dirigieren sollte, alle drei mit einem unterschiedlichen Metrum. Etwas, so der Bericht, was kein Dirigent vermag, zu dirigieren.

Beides keine bahnbrechenden Beiträge aber doch beides Situationen, in denen Musiker sich zur Verfügung gestellt haben, diese Technologie weiterzuentwickeln und, positiv formuliert, die Grenzen des Möglichen auszutesten. Und mit den Grenzen ist das so eine Sache. Wenn sie mal ausgetestet sind, können sie später überwunden werden. Und die Entwicklung schreitet voran.

Auch musikalische Kompositionen entstehen heute mit KI: Anbieter wie "Tempolor", "Suno", oder "Mureka" ermöglichen die KI-basierte Musikproduktion und Musikkomposition. Ich denke, diese Entwicklung ist den meisten bekannt, und nicht nur speist sich das Lernmodell aus vergangenen Kompositionen von Menschen, sondern es ist klar zu erkennen, dass für bestimmte Tätigkeiten keine menschlichen Komponisten mehr benötigt werden.

Im Bereich des Instrumental- und Gesangsunterrichts helfen Programme wie "Yousician", "Skoove" oder "Chordify" Schülern, ihr Instrument zu meistern.

Was bedeutet das alles für Musiker?

Die Herausforderungen für Musiker liegt auf der Hand: Die KI ist momentan nur bedingt in der Lage dazu, aber wenn wir der Technologie genügend Zeit geben, könnte die KI schaffen, einige Musikschaffende zu verdrängen. Es ist kein Zufall, dass viele der hier aufgeführten Beispiele erst seit 2023 oder 2024 auf dem Markt sind. Was kann in fünf bis zehn Jahren alles passieren?

Es stimmt, dass menschliche Interpreten oder Musiklehrer niemals komplett ersetzt werden können – aber was wäre, wenn sich die Bedingungen ändern?

Die Corona-Krise und ihre Auswirkungen hat den Musikbetrieb grundlegend verändert. Vielleicht nicht für die Festangestellten, aber die Selbständigen können ein ganz anderes Lied einstimmen. Die Honorare, die 2025 in Berlin und auch in anderen Teilen von Deutschland, laut meiner Kontakte angeboten werden, für eine Probe bzw ein Konzert, sind teilweise geringer, als vor zehn Jahren, als ich noch aktiv im Konzertleben war. Angenommen, es gäbe erneut eine größere wirtschaftliche Krise: der erste Bereich, bei dem der Rotstift immer zuerst angesetzt wird, sind die Hobbys wie beispielsweise Musik. Klar können sich viele noch Musikunterricht für ihre Kinder oder für sich selbst leisten, aber es könnten weniger und weniger werden, wenn die Umstände sich ändern. Werden sich in 20 Jahren nur noch finanziell gut gestellte Familien privaten Unterricht leisten können?

Deshalb gilt es, auf diese Herausforderung zu antworten, denn obwohl die Technologie voranschreiten wird, liegt es an uns, ob wir zu bloßen Konsumenten dieser Entwicklung werden oder aktiv in uns und in anderen jene Eigenschaften fördern, die uns als Menschen unverwechselbar machen. Wir können insbesondere in die Qualität unserer Aufmerksamkeit investieren, und in unsere menschliche Kreativität, in die Ausschöpfung unseres Potenzials als Musiker und als Künstler. Wir können bewusst investieren – nicht nur finanziell, sondern vor allem in unsere Fähigkeit, das zu entwickeln, was uns einzigartig macht: Authentizität, Empathie und kreativer Mut.

Nicht nur ist unser kreative Mut der Schlüssel, um über uns hinauszuwachsen, sondern um andere zu inspirieren und zu motivieren: unsere Kollegen, unsere Schüler, unsere Familie und Freunde und unser Publikum. Und das brauchen wir heute mehr denn je. Denn obwohl die aktuellen Entwicklungen eine bestimmte Zukunft vorhersagen, liegt es immer noch an uns, wie wir darauf reagieren. Ob wir auf eine Weise antworten, die weitere Entfremdung von uns selbst bringt, oder Heilung, liegt letztlich immer noch in unserer Kontrolle. Und somit nehmen wir die Steuerung wieder in die eigene, menschliche Hand.



Fünf Wege zum Flow





Nächster Beitrag Vorheriger Beitrag