LLMs: Was hat es mit Large Language Models auf sich?

Ob man Siri nach der Uhrzeit, Alexa nach dem Wetter, Gemini nach dem Weg fragt oder den KI Chatbot ChatGPT einen Text schreiben lässt – künstliche Intelligenzen haben mittlerweile Einzug in den Alltag vieler Menschen gehalten. Sie alle basieren auf sogenannten Large Language Models, kurz LLMs. Doch was sind LLMs überhaupt und wie funktionieren sie? Diesen Fragen geht SpardaSurfSafe, eine Initiative der Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg, in diesem Monat auf den Grund.

Künstliche Intelligenzen, die den Menschen im Alltag unterstützen sind mittlerweile allgegenwärtig. Seien es die mobilen Assistenten wie Siri, Gemini und Alexa oder KI-Chatbots wie ChatGPT – immer häufiger zieht man bei Fragen einfach die KI zu Rate. Selbst Schulaufgaben werden so delegiert und schneller erledigt, als man es selbst je könnte. Doch das ist nicht ratsam, wie Götz Schartner vom Verein Sicherheit im Internet e.V., einem der Mitveranstalter von SpardaSurfSafe, erklärt.

KI-Chatbots wie ChatGPT sind selbstlernende Systeme, die ihre Informationen aus den Daten generieren, mit denen sie trainiert wurden. „Das kann gut gehen und man bekommt eine tolle Zusammenfassung der Schullektüre. Es kann aber auch furchtbar schief gehen und die KI liefert einen Text, den man besser nicht abgeben sollte“, so der Experte. Das liege schlicht und einfach an der Funktionsweise der künstlichen Intelligenzen, erklärt er.

Den Chatbots zugrunde liegen sogenannte Large Language Models, kurz LLMs. Dabei handelt es sich um einen Sammelbegriff für KI-gestützte Programme, die darauf trainiert wurden, Sprache zu verstehen und selbstständig Texte zu erzeugen. Diese werden mit riesigen Mengen an Texten aus Büchern, von Webseiten und anderen Quellen gefüttert und trainiert. So lernt die KI anhand von Milliarden Wörtern und Texten, wie Sprache funktioniert und wie sie diese reproduzieren kann.

Doch man sollte sich nicht täuschen lassen: Auch wenn die KI logische Zusammenhänge erkennen und wiedergeben kann und die Antworten der Chatbots teilweise verblüffend klug und realitätsnah sind, gibt es Unterschiede zwischen den Antworten von LLMs und Menschen. „Der Mensch baut beim Erlernen von Wörtern ein wirkliches Verständnis für deren Bedeutung auf. Wenn wir also lernen, dass Zucker süß ist, wissen wir, was das Wort ‚süß‘ bedeutet. Für die KI ist es hingegen nur ein abstraktes Konstrukt, da sie ‚süß‘ nur als solches begreifen aber nie erleben kann“, erklärt Schartner. Das zeigt sich beispielsweise auch darin, dass die Antworten der KI oft weit über das hinausgehen, was ein Mensch antworten würde. So beinhaltet die errechnete KI-Antwort beispielsweise oft auch weitreichende Erklärungen physikalischer Zusammenhänge.

LLMs machen also nichts anderes, als Muster zu erkennen. Auf Frage X kommt mit hoher Wahrscheinlichkeit Antwort Y. Was beim LLM also wie verstehen aussieht, ist in Wirklichkeit nichts anderes als die Berechnung mathematischer Wahrscheinlichkeiten – und genau in diesem mangelnden Verständnis liegt auch einer der Gründe, warum LLMs trotz ihrer scheinbaren Allwissenheit regelmäßig falsche oder problematische Antworten geben.

„Wir Menschen sind in der Lage, einzuordnen, ob eine Antwort Sinn ergibt oder nicht. Bei manchen Fragestellungen ist es einfach so, dass es nach menschlichem Ermessen keine passende oder sinnvolle Antwort gibt. Das können wir auch so kommunizieren. Ein LLM hingegen ist darauf programmiert, immer eine Antwort zu generieren, auch wenn es eigentlich keine gibt – und dann kann es mitunter sehr skurril werden“, erklärt Schartner.

Noch viel kritischer ist es, dass LLMs eine gewisse Voreingenommenheit entwickeln können, wenn die eingespeisten Daten fehlerhaft oder nicht ausreichend sind. Das kann beispielsweise der Fall sein, wenn Arbeitgeber eine KI einsetzen, um Mitarbeiter oder potenzielle Arbeitnehmer zu beurteilen. So könnte die KI, eingeschränkt durch ihre Trainingsdaten mit möglicherweise vorhandenen Einstellungen und Vorurteilen, bestimmte Personengruppen benachteiligen. Genau das könnte schlussendlich dazu führen, dass fehlerhafte oder voreingenommene Bewertungen abgegeben und qualifizierte Bewerber ungerecht behandelt werden.

Auch beim Datenschutz hapert es oftmals, denn die Nutzer:innen wissen oft nicht, ob und in welchem Umfang ihre Eingaben vom Anbieter gespeichert und weiterverarbeitet werden. Oft ist auch unklar, in welchem Umfang die Software im Vorfeld mit persönlichen und vertraulichen Informationen anderer Nutzer:innen trainiert wurde.

Zusammenfassend lässt sich sagen, dass LLMs bei verantwortungsvollem Einsatz ungeahnte Möglichkeiten bieten, die uns den Alltag enorm erleichtern können. Sie fassen selbst komplexe Sachverhalte gut verständlich zusammen, liefern innerhalb von Sekunden relevante Informationen zu einer Vielzahl an Themen oder übersetzen Texte in die eigene Muttersprache. Doch man sollte sich nicht zu sehr auf die KI verlassen, denn nicht immer liefert sie das, was man von ihr erwartet. Wichtig dabei bleibt also weiterhin der verantwortungsvolle Umgang sowie das Wissen um die Probleme und Gefahren. Die Ergebniskontrolle durch menschlichen Sachverstand ist und bleibt daher immer unerlässlich.

Über die 8com GmbH & Co. KG

Über SpardaSurfSafe – eine Initiative der Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg

Veranstalter und Träger von SpardaSurfSafe ist die Stiftung Bildung und Soziales der Sparda-Bank Baden-Württemberg, die gemeinsam mit dem Kultusministerium Baden-Württemberg und dem Verein Sicherheit im Internet e. V. das Großprojekt im 14. Jahr durchführt. In Kooperation mit den IT-Sicherheitsexperten der 8com GmbH & Co. KG wurde ein Konzept entwickelt, das die Schüler im Rahmen des Unterrichts im Umgang mit den Neuen Medien aufklärt. „SpardaSurfSafe ist für uns ein Herzensprojekt, das wir mittlerweile in 35 verschiedenen Städten in Baden-Württemberg durchgeführt haben. Über 500.000 Teilnehmer konnten seit dem Start von dem Programm profitieren. Dafür bekommen wir durchweg positives Feedback von den Teilnehmern, ob Schüler, Eltern oder Lehrer“, erklärt Patrick Löffler vom Verein Sicherheit im Internet e. V.

Firmenkontakt und Herausgeber der Meldung:

8com GmbH & Co. KG
Europastraße 32
67433 Neustadt an der Weinstraße
Telefon: +49 (6321) 48446-0
Telefax: +49 (6321) 48446-29
http://www.8com.de

Ansprechpartner:
Felicitas Kraus
Pressereferentin
Telefon: +49 (30) 30308089-14
E-Mail: kraus@quadriga-communication.de
Julia Olmscheid
Head of Communications
Telefon: +49 6321 484460
E-Mail: redaktion@8com.de
Für die oben stehende Story ist allein der jeweils angegebene Herausgeber (siehe Firmenkontakt oben) verantwortlich. Dieser ist in der Regel auch Urheber des Pressetextes, sowie der angehängten Bild-, Ton-, Video-, Medien- und Informationsmaterialien. Die United News Network GmbH übernimmt keine Haftung für die Korrektheit oder Vollständigkeit der dargestellten Meldung. Auch bei Übertragungsfehlern oder anderen Störungen haftet sie nur im Fall von Vorsatz oder grober Fahrlässigkeit. Die Nutzung von hier archivierten Informationen zur Eigeninformation und redaktionellen Weiterverarbeitung ist in der Regel kostenfrei. Bitte klären Sie vor einer Weiterverwendung urheberrechtliche Fragen mit dem angegebenen Herausgeber. Eine systematische Speicherung dieser Daten sowie die Verwendung auch von Teilen dieses Datenbankwerks sind nur mit schriftlicher Genehmigung durch die United News Network GmbH gestattet.

counterpixel