Manish Chandra | unsplash.com
Zurück
Blog

„Die Vermenschlichung von KI ist problematisch und folgenreich”: Interview mit Matthias Hornschuh

Veröffentlicht am 12. Dezember 2025
| Verfasst von Enya Blank

Matthias Hornschuh komponiert Musik für Geschichten – vor allem für Kino und Fernsehen, aber auch für Hörbücher. 2018 wurde er als Mitglied des Aufsichtsrates GEMA gewählt und fungiert seit 2021 als Sprecher der Initiative Urheberrecht. In seinem aktuellen Buch Wir geben uns auf – KI, Kultur und die Entwertung der Wissensarbeit warnt er vor den gesellschaftlichen und persönlichen Folgen einer Kultur, die Denken und Kreativität zunehmend an Maschinen auslagert.


a42: Lieber Herr Hornschuh, was war der Auslöser für Ihr Buch?

Matthias Hornschuh: Ich habe schon länger gedacht, dass es an der Zeit wäre, ein Thema einmal zu Ende zu denken – was, wie sich zeigte, gar nicht funktioniert. In dem Moment, in dem ich das Manuskript abgegeben hatte, kamen die Zweifel: Hätte ich nicht radikaler sein müssen? Hätte ich manches anders machen sollen? Dieses Thema steht ja nicht still, nur weil ich fertig bin.

Gleichzeitig habe ich gemerkt, dass mir Entscheidungen bei Überarbeitungen oder Kürzungen leicht fielen, weil mir das Thema inzwischen so vertraut war. Durch diese geistige Arbeit durchdringt man einen Gegenstand und erlangt ein anderes Bewusstseinsniveau, von dem aus man Neues entwickeln kann. Und genau diese Art des Arbeitens wird heute immer seltener. Denken braucht Zeit und wenn Denken zum Luxus derjenigen wird, die es sich leisten können, sich diese zu nehmen, dann hat unsere Wissensgesellschaft ein ernstes Problem.

Denken braucht Freiraum: Das sprechen Sie in Ihrem Buch auch in Bezug auf Kreativität und künstlerische Arbeit an. Wie unterscheiden Sie menschliche Kreativität von der einer KI?

Ich glaube nicht, dass KI kreativ ist. Kreativität setzt Ausdruckswillen, Intentionalität und Bewusstsein voraus – all das fehlt einem Algorithmus. Eine KI ist ein mathematisches, wahrscheinlichkeitsbasiertes Autocomplete-System. Da entsteht kein eigener Wille, kein innerer Drang, etwas sagen zu wollen.

Der Wunsch, in KI etwas „Kreatives“ oder „Intelligentes“ zu sehen, ist eine Form der Vermenschlichung. Diese Anthropomorphisierung ist problematisch und folgenreich: Wir projizieren Menschliches auf etwas, das fundamental anders funktioniert als wir.

Dennoch empfinden viele Menschen den Dialog mit KI als erstaunlich menschlich; so scheint sie etwa auch Entscheidungen zu treffen. Wer trägt in Ihren Augen die Verantwortung?

Das ist eine zentrale Frage. In meinem Buch geht es viel um Verantwortungszuweisung und um das, was ich „Verantwortungsdiffusion“ nenne. Es ist im Bereich der Digitalpolitik und insbesondere der Rechtspolitik, die sich auf das Digitale bezieht, seit vielen Jahren ein klar benanntes Problem. Beispielsweise stellen wir immer wieder fest, dass Unternehmen digitale Produkte oder Dienste auf den Markt bringen, die eigentlich keine Marktreife haben, da es sich um Beta-Versionen handelt. So werden wir zu zahlenden Tester*innen und sind mit erheblichen Risiken konfrontiert. Würde es sich da um Pharmaunternehmen handeln, würde man sowas sofort verbieten.

Wäre eine mögliche Lösung für dieses Problem, dass man Prüfverfahren einführt, wie sie zum Beispiel in der Pharmazie üblich sind?

Wir wissen inzwischen, dass es Suizide gab, weil Menschen toxische Beziehungen zu Chatbots entwickelt haben. Durch Desinformation, Deep Fakes, den Enkeltrick via Voice Cloning oder Revenge Porn kommt es zu weiteren Problemen. Wenn nur ein einziger solcher Fall belegt ist, muss man handeln.

Der AI Act enthält ja eigentlich diese Idee einer Sicherheitsprüfung und Verantwortungszuweisung, aber die Regelungen werden ständig aufgeweicht, meist im Namen von Bürokratieabbau oder Wettbewerbsfähigkeit. Dabei steht in unserem Grundgesetz an erster Stelle die Würde des Menschen, nicht das Wirtschaftswachstum. Ein Unternehmen, das eine solche Technologie auf den Markt bringt, muss dafür haften. Man kann unterschiedliche Perspektiven auf die Tatbestände entwickeln, je nachdem, ob man aus dem Urheberrecht, dem Datenschutz oder dem Wettbewerbsrecht darauf schaut. Tatsache ist aber, dass wir mit einer Big-Tech-Strategie konfrontiert sind, die besagt „Wir machen einfach mal und du kannst ja klagen, wenn es dir nicht passt”. Das ist gefährlich.


Der AI Act der EU soll Missbrauch von KI verhindern und gleichzeitig Grundrechte schützen, während Innovation weiter möglich bleibt. Dafür nutzt er einen risikobasierten Ansatz: Je höher das Gefährdungspotenzial einer KI-Anwendung, desto strenger die Regulierung. Systeme mit inakzeptablem Risiko, etwa manipulative KI, sind verboten, während hochriskante Anwendungen strenge Sicherheits- und Transparenzauflagen erfüllen müssen. Inhalte, die künstlich erzeugt oder verändert wurden, müssen klar gekennzeichnet werden. Nun müssen die EU-Mitgliedstaaten diese Vorgaben in nationales Recht überführen.

Wo genau liegt also die Verantwortung?

Wir haben eine gestaffelte Verantwortung.
Erstens gibt es die Eigenverantwortung: Wir müssen entscheiden, ob und wie wir mit dieser Technologie arbeiten wollen und mit welchem Produkt genau. Dabei sollten wir genau wissen, wovon wir sprechen, wenn wir über generative KI-Modelle von Großkonzernen sprechen. Es geht nicht darum, Technologie grundsätzlich abzulehnen, aber es ist wichtig, sich in ein reflektiertes Verhältnis zu ihr zu stellen.

Lust auf ein
Probe-Abo?

agora42 schließt die Lücke zwischen Ökonomie und Philosophie, macht Zusammenhänge deutlich und gibt Raum für die drängenden Fragen in diesen turbulenten Zeiten.

Lust auf ein
Probe-Abo?

agora42 schließt die Lücke zwischen Ökonomie und Philosophie, macht Zusammenhänge deutlich und gibt Raum für die drängenden Fragen in diesen turbulenten Zeiten.

Zweitens liegt Verantwortung bei der Politik. Sie muss Regeln schaffen, die uns schützen und entlasten. Ich möchte nicht entscheiden müssen, ob meine gesamten, mehr als zehn Jahre alten Facebook-Daten für KI-Training verwendet werden dürfen und ob – wenn ich nein sage – nur die Inhalte von Nazis dem Training zufließen. Das sollte schlicht verboten sein.
Drittens müssen Unternehmen haftbar gemacht werden. Im Urheberrecht etwa scheitert das oft am Territorialitätsprinzip: Wenn KI-Training in den USA stattfindet, gilt dortiges Recht, auch wenn die Daten und Inhalte aus Europa stammen. Wir brauchen nationale, europäische und womöglich auch internationale Regulierung und den politischen Mut, sie durchzusetzen. Vor allem an der Durchsetzung mangelt es derzeit.

Inwiefern können wir KI denn überhaupt noch kontrollieren?

Wenn ich glaubte, dass das unmöglich wäre, hätte ich aufgehört zu schreiben. Ich bin frustriert, aber nicht hoffnungslos. Wir müssen zu einem ganzheitlichen Bildungsverständnis zurückfinden, das Quellen- und Technologiekritik lehrt. Es muss anerkannt werden, dass künstlerische Arbeit und schöpferische Tätigkeit etwas ist, was es zu schützen gilt, weil sie unverzichtbar sind.

Statt Kindern beizubringen, wie man eine KI „promptet”, sollten wir ihnen zum Beispiel beibringen, ein Instrument zu spielen. Wer lernt, eine Vorstellung zu entwickeln und sieumzusetzen, wird auch mit KI umgehen können. Entscheidend ist, dass man etwas sagen will und dann überlegt, welche Mittel man dafür braucht.

Ursprünglich bezog sich meine letzte Frage auf Ihre Utopie im Umgang mit KI – aber ich habe das Gefühl, wir haben sie bereits gestreift.

Vielleicht, ja. Eine gute Zukunft mit KI wird nur möglich sein, wenn wir Verantwortung klar zuweisen und Bildung sowie kritisches Bewusstsein als Grundlage für Selbstbestimmung begreifen. Denken darf kein Luxus sein.

Wollen wir wirklich digitaler Technologie den zentralen Platz in unserer gesellschaftlichen Kommunikation einräumen? Schließlich bildet geistiges Schaffen die Grundlage unserer Existenz und unserer Volkswirtschaften. Matthias Hornschuh warnt eindringlich davor, ideelle Wertschöpfung wie nebenbei aufzugeben.

Wir geben uns auf – KI, Kultur und die Entwertung der Wissensarbeit ist im September 2025 in der Reihe update gesellschaft des Carl-Auer Verlag erschienen.

Newsletter-Anmeldung

Du willst keine Beiträge mehr verpassen?

Ähnliche Beiträge

Mehr Beiträge aus der Kategorie "Allgemein, Kurzinterviews, Online"

Zurück