ZEIT für X
Illustration Daten fließen in ein Smartphone

Chatbots an die Leine!

02. Mai 2023
ZEIT Redaktion

Alle reden über künstliche Intelligenz. Aber wie setzt man sie sinnvoll ein? Drei Beispiele zeigen, was mit der neuen Software heute schon möglich ist

von Eva Wolfangel

Redaktioneller Beitrag aus: „ZEIT für Unternehmer Ausgabe 1/2023. Geschäftspartner der ZEIT Verlagsgruppe haben auf die journalistischen Inhalte der ZEIT Redaktion keinerlei Einfluss.“

Saim Rolf Alkan kann sich noch so anstrengen, so schnell wie seine Software texten kann er nicht. Ein Text über einen leichten Wander­ruck­sack? „Dieser Rucksack wiegt nur 200 Gramm, er beflügelt Sie auf Ihrer nächsten Tour“, spuckt Alkan aus, ohne nach­zu­denken. Ein kleiner Rucksack? Ein „urbaner Begleiter“. Ein kompakter Laptop-Rucksack? „Ein perfekter Reise­begleiter.“

All das kann seine „Maschine“ inzwischen besser, in mehr Variationen. Und sie kann in der gleichen Zeit hundertmal, wenn nicht tausendmal so viele treffende Beschreibungen generieren wie ihr Entwickler.

Alkan ist Werbetexter und Gründer von AX Semantics, einem Unternehmen in Stuttgart, das einst Texte verkauft hat – und heute intelligente Software verleiht. Alkans Kunden sind über­wiegend Online-Shops, die mithilfe seiner Algorithmen ihre Produkte betexten: Rucksäcke, Schuhe, Kopier­papier, Damen­wäsche, was auch immer.

Alkan arbeitet schon lange an der Technologie, mit der er Werbe­texter wie sich selbst ein Stück weit über­flüssig macht. Der letzte Besuch der Autorin dieses Textes bei seinem IT-Unternehmen war 2016. Und während der damalige Anlass ein Barcamp war – eine Art spontane, selbst organisierte Konferenz, deren Programm spontan entstand und einfach auf Post-its an die Wand geheftet wurde –, sieht es in Alkans Firmen­zentrale in Stuttgart heute ganz anders aus. Es gibt großzügige Flächen mit Schreib­tischen, einen Besprechungs­raum mit Leder­sofa, Pokale auf einer Ablage – etwa ein E-Commerce-Award. Sein Team ist von vier auf mehr als 40 Köpfe gewachsen, die Zahl seiner aktiven Kunden auf mehr als 300. Vor allem aber hat sich seine Technologie verändert: Zu Beginn bestanden Alkans maschinell erstellte Texte größten­teils aus einer Art Lückentext, in den ein Computer­programm Zahlen oder Daten einfügte. Das war quasi die Epoche der Aufklärung in der Text­generierung: Die Menschen gewöhnten sich an den Gedanken, dass Computer sinnvolle Texte schreiben können.

Inzwischen ist AX Semantics im Sturm und Drang angekommen, Firmenchef Alkan ist nicht mehr auf Lücken­texte angewiesen. „Die Maschine kann perfekt Grammatik“, sagt der 53-Jährige. Man braucht sie nur mit ein paar Beispielen zu füttern, damit sie lernt, wie die Inhalte aussehen sollen. Und zwar in einer von 110 Sprachen.

Die Maschinen können Menschen jetzt also abnehmen, was deren Gehirne bisher besser konnten als Schaltkreise und Chips. Um die menschliche Sprache zu lernen, brauchen die Algorithmen heute vor allem ausreichend Daten. Regeln wie etwa die richtige Komma­setzung muss man ihnen nicht mehr erklären. Besonders beeindruckend beherrscht das die Software ChatGPT, die das amerikanische Unternehmen OpenAI im November veröffentlicht hat: Ein sogenannter Chatbot, den man alles fragen kann und der auf alles eine kluge oder zumindest klug klingende Antwort weiß.

Selbst die sonst so technologie­skeptischen Deutschen sind auf einmal ganz optimistisch: Laut einer aktuellen Umfrage des Branchen­verbands der deutschen Informations- und Telekommunikations­branche (Bitkom) sind etwa drei Viertel der Bundes­bürgerinnen und Bundes­bürger inzwischen der Meinung, dass künstliche Intelligenz (KI) eine Chance ist. Nur 14 Prozent halten KI für eine Gefahr. Außerdem sind 79 Prozent der Befragten überzeugt, dass KI die Wettbewerbs­fähigkeit der deutschen Wirtschaft stärken wird.

Auch eine Umfrage bei den Leserinnen und Lesern von ZEIT für Unternehmer bestätigt dieses Bild. Danach sind acht von zehn Befragten der Meinung, der Mittel­stand unterschätze die Bedeutung von KI. Und gut die Hälfte der Befragten geben an, in ihrem Unternehmen bereits KI einzusetzen oder zumindest zu erproben – etwa um Werbetexte oder Beiträge für das Firmen-Blog zu verfassen oder E-Mails zu übersetzen.

Was vielen Menschen aber aktuell auch klar wird angesichts der falschen Antworten, die ChatGPT immer wieder produziert: Moderne textende KI ist ziemlich unberechenbar. Dass die Software ChatGPT Fragen korrekt beantwortet, sei nicht garantiert, bestätigt Tina Klüwer, Director AI beim Berliner Künstliche Intelligenz Entrepreneur­ship Zentrum. Klüwer ist Computer­linguistin und beschäftigt sich seit vielen Jahren mit maschineller Sprache. Wie immer beim maschinellen Lernen beruhe der Output solcher Systeme auch auf den Trainings­daten – und diese seien nicht immer aktuell oder passten nicht immer zum Anwendungs­fall. „Unsere Welt dreht sich sekündlich weiter und verändert sich“, sagt Klüwer. Die Welt sei zudem zu mehrdeutig, um von den Maschinen immer verstanden zu werden.

Können Firmen die neuen intelligenten Text­generatoren angesichts solcher Einschränkungen überhaupt sinnvoll benutzen?

Die KI, die strukturierte Daten braucht

Saim Alkan glaubt: Ja, das geht. Allerdings nicht mit ChatGPT. Wenn man mit einer solchen Software Produkte in einem Online-Shop betexte, kämen zwar schöne Texte heraus. Sie träfen aber häufig nicht zu. Die Gefahren: Kunden könnten Produkte zurückschicken, den Anbieter oder Hersteller schlecht bewerten oder sogar rechtlich gegen ihn vorgehen. Alkan sagt: „ChatGPT würde alles Mögliche antworten, das kann sich kein Händler leisten.“

Damit das nicht passiert, bietet Alkan seinen Kunden eine Software an, die auf strukturierte Daten setzt. Das bedeutet: Wer Rucksäcke verkauft, muss Listen mit Merkmalen bereit­stellen wie Material, Größe oder Gewicht, die dann von der KI verarbeitet werden. Zudem benötigt die Software Text­proben von Menschen, die ihr helfen, die Tonalität des Unternehmens zu lernen. Manche Kunden geben sogar vor, welche Wörter vorzugs­weise benutzt werden sollen – und welche nicht benutzt werden dürfen. „Adidas will anders klingen als Puma“, sagt Alkan. So sollen Texte entstehen, die authentisch wirken und korrekt sind.

Anders als maschinell seien viele Dinge heute nicht mehr zu betexten, sagt Alkan. AX Semantics hat 300 aktive Kunden, darunter Obi, Daimler, Adidas und Otto. Einer der Kunden erstellt beispiels­weise gut 60 Millionen Texte im Monat, weil er seine Produkte auf 28 Plattformen verkauft – „und jede hat ihren eigenen Ton“. Die Maschine optimiere die Texte über jedes einzelne T-Shirt oder jede einzelne Bluse. „Das kann kein Mensch leisten.“

Und das will auch kein Mensch leisten, meint der gelernte Werbetexter. „Otto hat zum Beispiel 40.000 verschiedene Sofa-Kombinationen“, sagt er. „Spätestens wenn du das zwanzigste Woll­misch­gewebe beschrieben hast, kriegst du doch die Krise.“ Seine Algorithmen sollen den Menschen diese nervige Arbeit abnehmen. Kürzlich habe sich die Produkttexterin eines Büromittelversenders bei ihm gemeldet und bedankt: Endlich mache ihr Job Spaß. „Das waren extrem repetitive Texte“, sagt Alkan, „die verkaufen allein 28 verschiedene DIN-A4-Papier­sorten.“ Jetzt trainiere die Frau die Maschine, was wesentlich interessanter sei als das Betexten unzähliger Büroartikel. „Früher ging es um den Wettstreit Mensch oder Maschine“, sagt Alkan, „jetzt geht es um die Zusammen­arbeit von Mensch und Maschine.“

Die Computerlinguistin Tina Klüwer gibt Alkan recht. Für nutzlos hält sie Sprach­modelle wie ChatGPT aber nicht, die nur auf Basis einer Wahrscheinlichkeit Texte generieren, ohne dass ihnen durch strukturierte Daten klare Grenzen gesetzt sind. Bei diesen Modellen ist der Mensch für eine Qualitäts­kontrolle nötig: „Wenn ich einen Text oder ein Bild von solch einem KI-Modell generieren lasse, sollte ich das Ergebnis schon noch mal anschauen und überprüfen, ob es für meinen Zweck in Fakten, Tonalität und Qualität passt“, sagt Klüwer. „Wenn ich einem anderen Menschen den Auftrag gebe, einen Text für mich zu verfassen, schaue ich mir den ja auch noch einmal an.“

Die KI, die vorhandenes Wissen abgreift

Ralf Mühlenhöver benennt weitere Defizite von Software wie ChatGPT. So falle es den in den USA entwickelten Sprach­modellen oft schwer, deutsche Formulierungen wie „ich habe gekündigt“, „ich werde kündigen, wenn das nicht passiert“ oder „ich will die Kündigung rück­gängig machen“ aus­einanderzuhalten. Und das kann für viel Ärger sorgen.

Mühlenhöver ist Produktentwickler und Marketing-Chef bei der Vier GmbH aus Hannover. Die Firma bietet unter anderem Chat­systeme an, mit denen Firmen Kunden­anfragen beantworten können oder die Callcenter-Agenten helfen, bei einem Anruf schnell die nötigen Informationen zu finden. „Dafür braucht es nicht immer KI“, sagt Mühlenhöver. Um die Kündigungs-Sätze zu verstehen, würde er eine sogenannte semantische Intelligenz einsetzen, die auf Regeln basiert und dabei hilft, deutsche Schachtel­sätze zu verstehen oder Bezüge klar­zu­machen.

Ein anderes Beispiel der Vier GmbH zeigt, wofür KI-Technologien bereits gut geeignet sind: Sie können Anfragen verstehen und Informationen kombinieren, die gut strukturiert vorhanden sind. So könne eine Kundin einer Miet­wagen­firma etwa einen Chatbot fragen, ob sie ihre Jacke am Vortag im Mietwagen vergessen hat. „Der Mensch würde am Telefon das Gleiche machen wie der Chatbot“, sagt Mühlenhöver. Also: in das System der Miet­wagen­firma schauen, die Buchung identifizieren, das Protokoll des Autos abfragen. Und wenn das Reinigungs­personal da eine vergessene Jacke notiert hat, dann kann es der Kundin sagen, wo sie die abholen kann. Wenn die Daten ohnehin schon so gespeichert würden, sei es ein „logischer Schritt“, einer Maschine die Kommunikation zu überlassen. Ist die Anfrage dagegen komplizierter, sei weiterhin der Mensch gefordert, weil er mehr versteht als die Maschine und empathischer reagieren kann. Mühlenhöver sagt: „Der Mensch wird weiterhin gebraucht.“

Und dann gibt es da noch die Idee, die Fähigkeiten einer sehr kreativen und erfindungs­freudigen KI – wie etwa ChatGPT – mit der einer beschränkten und exakten KI zu vermischen. Also das „unfassbare Welt­wissen“ der einen Technologie mit dem „präzisen Domänen­wissen“ der anderen zu kombinieren, wie Mühlenhöver sagt.

An dieser Kombination arbeitet AlephAlpha. Das Start-up aus Heidelberg gilt als einer der Hoffnungs­träger der deutschen KI-Gründungen. Es entwickelt eigene große Sprach­modelle und trainiert damit eigene Konversations­agenten – das ist recht ähnlich wie bei ChatGPT. „Aber unsere Modelle können jede Aussage mit einer Quelle belegen“, sagt Gründer JonasAndrulis, der schon als Teenager angefangen hatte zu programmieren. Damit schafft Andrulis etwas, was auch Microsoft und Google vorhaben: Sie wollen, dass ihre intelligenten Chatbots zuverlässige und korrekte Antworten geben. Denn nur dann können die Tech-Konzerne damit ihre Suchmaschinen aufrüsten.

Die KI, die in engen Grenzen kreativ werden darf

Aber kann AlephAlpha mit OpenAI überhaupt ernsthaft mithalten? Das Heidelberger Start-up hat von Investoren gut 28 Millionen Euro Wagnis­kapital bekommen. OpenAI soll Medien­berichten zufolge von Microsoft zehn Milliarden Dollar erhalten haben – also ein Vielfaches dieser Summe. Der Gründer Andrulis beteuert dennoch: „Wir haben einen Vorsprung vor OpenAI.“ Der Grund für diesen Optimismus: AlephAlpha hat von Anfang an auf den Einsatz in Unternehmen hin­gearbeitet – und dabei war klar, dass mit zufälligen, unberechen­baren Antworten wenig zu erreichen ist. Das ganze erste Jahr hat das Start-up laut Andrulis damit verbracht, die Trainings­daten zu „reinigen“, auf deren Basis der Konversations­agent die menschliche Sprache lernen sollte. Das heißt konkret: Das Team hat massen­haft Texte aus Büchern, Wikipedia oder auch dem europäischen Parlament händisch aussortiert. „Das wäre sonst zu messy gewesen und könnte die komplexe Sprache unserer Kunden nicht repräsentieren“, sagt Andrulis.

AlephAlphas Kunden kommen aus dem juristischen Bereich, dem Gesundheits­wesen, der Finanz­industrie oder der Verwaltung. So hat die Stadt Heidelberg einen Chatbot beauftragt, der mit den Bürgerinnen und Bürgern interagiert. Ein Dienst­leister der Bundeswehr hat einen Chatbot bestellt, der Angestellten in der Vielzahl von Vorschriften schnell die richtige Antwort auf ihre Fragen ermittelt. Im Gesundheits­bereich arbeiteten Fach­leute mit dem Chatbot, um in Daten­banken mit verschiedenen Diagnosen oder Symptomen schnell eingrenzen zu können, was sie für einen aktuellen Fall brauchen. Andrulis sagt: „Im Prinzip können unsere Chatbots alles machen, was ein pfiffiger Praktikant auch machen könnte.“

Der Gründer denkt nicht, dass die neue Generation erfindungsfreudiger KI-Modelle per se nicht geeignet sei für Unternehmen und dass es immer Regeln brauche, um sie zu zügeln. So mache auch der eigene Chatbot manchmal noch Fehler, aber er sei deutlich zuverlässiger als ChatGPT. „Außerdem haben wir in keiner einzigen Installation das System voll automatisiert“, betont Andrulis, „es schaut immer noch ein Mensch drauf.“

Für Andrulis ist es zudem wichtig, dass Kunden seine Software in ihre eigenen Dienste integrieren können. Das habe ihm sogar einige größere Auftrag­geber aus den USA eingebracht, die unabhängig sein wollen von Tech-Konzernen. Expertinnen wie Tina Klüwer nennen das software as a service. Dabei wird die KI genutzt, als würde man beim Baumarkt eine Hebebühne mieten – einsatz­fertig und nur solange man sie braucht. Und noch etwas habe sich geändert, sagt Tina Klüwer. Früher hätten viele Chatbots einfach „Das habe ich nicht verstanden“ auf Fragen geantwortet, die nicht exakt so in ihren Daten­banken vorkamen. Heute können die Chatbots der neusten Generation nicht nur zwischen den Zeilen lesen, sie wissen auch sehr viel besser, was sie nicht wissen. Sie würden so auch den sogenannten Turing-Test bestehen, den der Informatiker Alan Turing schon 1950 erfunden hat. Das bedeutet: Würde man der Maschine und einem Menschen dieselben Fragen stellen, könnte man anhand der Antworten nicht sagen, wer Mensch und wer Maschine ist.