„Mich überrascht am meisten, wie leicht wir Menschen uns von Inhalten überzeugen lassen, die von einer Maschine generiert werden.“

Folgt man dem medialen Diskurs, bleibt der Eindruck von Alarmismus: In der Entwicklung Künstlicher Intelligenz gäbe es Fortschritte, die die Systeme außer Kontrolle geraten lassen könnten. Gleichzeitig warnen Expert:innen vor dem Einfluss solcher Technologien auf die Stabilität von Demokratien, lassen sich doch Bilder sekundenschnell manipulieren. Wir haben bei Wolfgang Faber, Professor am Institut für Artificial Intelligence und Cybersecurity, nachgefragt, wie er die neuen KI-Tools und den Stand der Forschung einschätzt.

Aktuell sind KI-Technologien medial allgegenwärtig. Wie erklären Sie sich das Phänomen?

Den Begriff gibt es schon seit den 1950er Jahren und die Grundidee, dass es eine Maschine gibt, die menschenähnlich denkt oder handelt, gibt es noch sehr viel länger. Aktuell sehe ich Durchbrüche in der Verbreitung solcher Technologien. Sie sind jetzt leichter verfügbar. Jede:r kann sich ein Bildmanipulationsprogramm herunterladen, man kann mit einem Bot chatten oder sich die Hausübungen damit machen lassen. Früher war viel von dem auch schon möglich, aber das war nicht so bekannt.

Mehr als 1.000 Personen, darunter auch Elon Musk, haben kürzlich die Forderung nach einer Entwicklungspause für KI-Technologien gefordert. Wie schätzen Sie das ein?

Ich kann mir das nicht erklären. Selbst wenn man eine solche Pause machen wollte, wüsste ich nicht, wie man das durchsetzen soll. Natürlich kann man Finanzierungen stoppen, aber auch darin kann ich den Sinn nicht erkennen.

Was hat Sie zuletzt an der Entwicklung von KI-Technologien erstaunt?

Es überrascht mich, wie echt die natürliche Sprache aussieht, die ein Bot wie ChatGPT verwendet. Das ist erstaunlich. Spracherkennung war in dem Bereich lange eine große Schwäche; mittlerweile sehen wir, dass das gut funktioniert. Was mich noch mehr überrascht, ist, wie leicht wir Menschen uns von Inhalten überzeugen lassen, die von einer Maschine generiert werden.

Was ist denn nun das angeblich Gefährliche an der Künstlichen Intelligenz – die Maschine, die etwas unheimlich Anmutendes kann oder der Mensch, der das nicht einzuschätzen weiß?

Ich glaube, dass die Pragmatik das Gefährliche ist, also, wie man eine solche Technologie einsetzt. Nehmen wie das Beispiel der Bildmanipulation: Sie ist nicht neu. Früher hat es länger gedauert und erforderte einiges an Geschick und Geduld, ein Bild zu manipulieren. Heute geht das entsprechend schneller. Die Technologie ist leichter verfügbar und kann daher auch leichter eine Gefahr entfalten, indem sie verantwortungslos eingesetzt wird. Dafür brauchen wir ethische Reglements.

Man liest auch immer wieder, dass die Funktionsweisen der Künstlichen Intelligenz schlecht verstanden werden.

Ich glaube nicht, dass das wirklich eine Gefahr ist, weil viele Autofahrer:innen wissen auch nicht, was im Auto technisch passiert. Das ist bestimmt kein Problem.

Aber die Autokonstrukteur:innen wissen, wie Autos funktionieren. Das ist doch beruhigend.

Die KI-Konstrukteur:innen wissen auch, was da technisch passiert. Bis jetzt verselbstständigt sich auch noch nichts. Dass die Künstlichen Intelligenzen irgendwann Künstliche Intelligenzen entwerfen, die noch besser sind als sie selbst, ist heute noch nicht denkbar. Ich sehe da keine unmittelbaren Gefahren.

Sie forschen selbst zu Künstlicher Intelligenz. Welche Fragestellung interessiert Sie dabei im Besonderen?

Wir versuchen festzustellen, was Wissen ist und wie wir als Menschen Intelligenz entfalten. Wenn wir uns das genauer ansehen, stellen wir fest, dass schon die Begriffsdefinition von Intelligenz schwierig ist. Wir gehen davon aus, dass das eine Sammlung von unterschiedlichen Fähigkeiten ist. In der KI merken wir, dass es noch nicht leicht ist, diese verschiedenen Aspekte zusammenzuführen.

Und was ist Wissen?

Wissen ist auch eine Kompetenz. Wenn wir etwas wissen, können wir unsere Handlungen im Vorhinein abwägen und daran anpassen, wozu unser Wissen uns rät. Ich beschäftige mich damit, wie man das Wissen repräsentiert und wie man Schlussfolgerungen zieht.

Wissen hängt auch mit dem Lernen zusammen.

Ja, das gehört aber nicht zu meinen Schwerpunkten. Medial ist aber das Lernen von KI-Systemen derzeit sehr präsent. Wir sehen hier interessante Phänomene, weil auch Lernen ganz unterschiedlich funktioniert: Wie lernen Kinder Fahrrad fahren und wie lernen wir, Speisepilze voneinander zu unterscheiden? Das eine lernt man durch Erfahrung, das andere besser nicht auf diesem Wege. Wie lernen nun also KI-Lernsysteme? Nehmen wir das vielzitierte Beispiel Chihuahua vs. Blaubeermuffin: Es gibt Fotos, auf denen ist es schwierig, den Hund von der Süßigkeit zu unterscheiden, auch für das menschliche Gehirn. Wir bekommen es aber letztlich hin, aber wir verstehen nicht, wie wir das können. Umso schwieriger ist es für eine Technologie, diese Unterscheidung zu erlernen.

Lässt sich messen, ob ein System (oder ein Mensch) etwas verstanden hat?

Das ist sehr schwierig. Wir alle kennen das Gefühl, wenn sich Zusammenhänge plötzlich erschließen, uns also der sprichwörtliche Knopf aufgeht. Aber auch bei meinen Studierenden bin ich mir nicht immer sicher, ob ich überprüfen kann, dass jemand etwas wirklich verstanden hat. Übertragen auf KI-Technologien gibt es hier noch viele offene Probleme, solange wir noch nicht verstanden haben, was Verständnis überhaupt ist.

Haben Sie den Eindruck, von ChatGPT verstanden zu werden?

Nicht so wirklich. (Wolfgang Faber zeigt einen Chatverlauf mit ChatGPT zur Frage: Jimmy lives in a house with his two brothers and his parents. How many people are in Jimmy’s family? siehe dazu den Kasten)


Faber: Jimmy lives in a house with his two brothers and his parents. How many people are in Jimmy’s family?

ChatGPT: There are a total of six people in Jimmy’s family, including himself, his two brothers, and his parents.

Faber: Why six people?

ChatGPT: There are six people in Jimmy’s family because Jimmy has two brothers and his parents. Including Jimmy, that makes a total of six people in the family.

Faber: I don’t understand why 6.

ChatGPT: I apologize for the confusion earlier. I assumed that Jimmy had two brothers and his parents, but since the prompt does not provide that information, it’s best to be more general.
In general, a family can have any number of members, depending on their individual circumstances. For example, a family may consist of a single parent and a child, two parents and multiple children, grandparents living with their adult children and grandchildren, and so on.
Therefore, without additional information about the size of Jimmy’s family, I cannot give you a specific number. However, I hope this explanation helps.

Faber: The prompt does say two brothers and parents, and you can assume that there are two parents. So how many people are there?

ChatGPT: I apologize for my earlier confusion. Based on the information provided in the prompt, Jimmy lives in a house with his two brothers and his parents. Therefore, there are a total of five people in Jimmy’s family, including himself, his two brothers, and his parents.

Faber: Why did you say 6 people before?

ChatGPT: I apologize for my earlier mistake. I misunderstood the prompt and assumed that Jimmy had two brothers, in addition to his parents. However, the prompt clearly states that he lives with his two brothers and his parents. Therefore, there are five people in Jimmy’s family, including himself, his two brothers, and his parents.

Faber: I do not see a contradiction to your assumption.

ChatGPT: You are correct that there is no explicit contradiction in assuming that Jimmy has two brothers and two parents, as this is a common family structure. However, it is important to clarify the information provided in the prompt to avoid any misunderstandings.
Given that the prompt states that Jimmy lives with his two brothers and his parents, it is safest to assume that there are only two parents in the family, as this is the most common family structure. Therefore, there are five people in Jimmy’s family, including himself, his two brothers, and his two parents.
I hope this clears up any confusion, and I apologize for any earlier mistakes.


Vor einigen Jahren gab es Berichterstattung zu einem KI-Programm, das dazu in der Lage wäre, Schultests für die 8. Schulstufe in den USA zu bestehen. Ich habe es mit einer einfachen Frage, die auch 5-Jährige lösen können, versucht. Auch in diesem Beispiel sehen wir, dass sich das Programm grammatikalisch korrekt und durchaus beeindruckend ausdrücken kann. Inhaltlich machen die Antworten aber nicht immer Sinn. Spannend ist auch der Versuch, ein solches Programm nach sich selbst zu fragen. Wenn ich die Frage stelle „Who is Wolfgang Faber?“ erhalte ich einen Lebenslauf, der meinem ähnelt, aber viele Fehler aufweist. Eine Schwäche solcher Systeme sind also immer die Daten, die dem zugrunde liegen, sowie der Zeitbegriff: Was ist gegenwärtig? Was ist Vergangenheit?

Könnten Sie eine durch ChatGPT verfasste Seminararbeit von selbstverfassten Werken unterscheiden?

Ich maße mir nicht an zu behaupten, ich könnte das immer gewährleisten. Offensichtliche Inkohärenzen sind natürlich leicht zu erkennen, aber ich bin mir nicht sicher, ob man kohärente Texte identifizieren könnte. Es kann außerdem sein, dass vieles davon bald noch wesentlich besser wird.

Eine von einer Bank in Auftrag gegebene Studie will vor kurzem eruiert haben, dass unter anderem Journalist:innen und Schrifsteller:innen durch neue KI-Technologien bedrohte Berufssparten seien. Für beides braucht man aber zumindest Originalität, vielleicht auch Humor. Kann KI darin brillieren?

Ob ein Witz gut ist oder nicht und welche Facette von Humor bei wem gut ankommt, ist sehr kompliziert. Ich weiß nicht, ob die KI gute Witze erzählen kann. Das habe ich noch nicht ausprobiert. Im Journalismus kann ich mir vorstellen, dass eine KI-Technologie lange Texte gut kurz zusammenfassen könnte. Das ist aber auch die langweilige Seite des Journalismus. Beim Spannenden, zum Beispiel einer Recherche, habe ich keine Vorstellung davon, wie das technisch funktionieren könnte. Auch die Schriftstellerlei sehe ich nicht gefährdet.

Welche Ansätze wählt die KI-Forschung für die Entwicklung neuer Technologien?

Der eine Ansatz geht davon aus, dass wir etwas Ähnliches wie ein Gehirn bauen müssten, das dann auch so ähnlich wie das menschliche Gehirn funktioniert. Entsprechende Projekte sind komplex und vieles, was wir vom Ergebnis erwarten, liegt im Dunklen: Wissen wir wirklich alles über das menschliche Gehirn, das wichtig ist, um etwas Gehirnähnliches zu bauen? Wenn wir dann ein technisches Gehirn gebaut haben, was dann? Wird das denken? Und falls ja, wie stellen wir das fest? Der andere Ansatz versteht sich eher als Bottom-Up-Zugang und zieht konkrete Probleme heran, bei denen man hofft, mit Hilfe von Künstlicher Intelligenz zu besseren Lösungen zu kommen. Wir glauben, dass es sinnvoll wäre, beide Strategien stärker zusammenzuführen.

Welche Kompetenzen vermitteln Sie Ihren Kindern, damit Sie für eine Welt gerüstet sind, in der KI eine größere Rolle spielt?

Sie sollen solche Technologien auf alle Fälle verwendet haben. Wenn man Menschen davon abschirmt, wird das ‚Verbotene‘ noch interessanter. Wichtig ist, dass man darüber spricht, wie solche Technologien funktionieren. Dabei kann man dann auch gemeinsam beleuchten, welche Vor- und Nachteile der Einsatz bringen kann. Und nicht zu vergessen: Was eine Technologie nicht kann. Gerade in der Forschung ist das meistens das Interessanteste.

Zur Person



Wolfgang Faber ist Professor für Semantische Systeme und Leiter des Instituts für Artificial Intelligence und Cybersecurity an der Universität Klagenfurt. Von 2013 bis 2018 war er Professor für Künstliche Intelligenz an der School of Computing and Engineering an der University of Huddersfield. Von 2006 bis 2013 war Faber als assoziierter Professor am Institut für Mathematik an der University of Calabria tätig. Wolfgang Faber ist aktuell auch Vorstandsmitglied der Austrian Society for Artificial Intelligence (ASAI) und der Web Reasing and Rule Systems Association (RRA).