LLM: Large Language Model
Ein großes Sprachmodell ist ein künstliches Intelligenzsystem, das darauf trainiert wurde, menschliche Sprache zu verstehen und zu erzeugen.
Als eine Art von "Text-Vorhersage-Maschine", liest LLM riesige Mengen an Text (Bücher, Webseiten, Artikel usw.). Daraus lernt es, welche Wörter typischerweise zusammenpassen.
Wenn man ihm eine Eingabe gibt (Prompt), sagt es Wort für Wort voraus, was wahrscheinlich als Nächstes kommt.
"Groß" bezieht sich auf:
Menge an Trainingsdaten (Milliarden von Textseiten).
Anzahl der Parameter. Das sind die "Gewichte" im neuronalen Netzwerk, oft Milliarden oder sogar Billionen.
Komplexität der Sprachfähigkeiten:
LLMs können nicht nur Sätze bilden, sondern auch:
Texte zusammenfassen
Fragen beantworten
Sprachen übersetzen
Programmcode schreiben
Dialoge führen
Ein einfaches Beispiel
Eingabe: "Die Hauptstadt von Österreich ist …"
Das Modell hat gelernt, dass nach diesem Satzteil mit sehr hoher Wahrscheinlichkeit das Wort "Wien" folgt.
Wie funktioniert das technisch (vereinfacht)?
Grundlage ist ein Neuronales Netz (meist ein Transformer), das Text in Token (Wortteile) "zerlegt".
Dann berechnet es für jedes Token Wahrscheinlichkeiten für das nächste Token.
Beispiel "Wien": 0,95
"London": 0,03
"Berlin": 0,01
… und wählt das wahrscheinlichste.
Anwendungen von LLMs
Chatbots (wie ChatGPT)
Automatische Übersetzung (DeepL, Google Translate)
Suchmaschinen mit KI-Antworten
Content-Generierung (Texte, Marketing,
Zusammenfassungen)
Analyse großer Textmengen (z. B. in Forschung, Recht, Medizin, ...)
Kurz gesagt:
Ein großes Sprachmodell (LLM) ist eine KI, die gelernt hat, Sprache wie ein Mensch zu verarbeiten, weil sie auf Baisi gigantischer Textmengen trainiert wurde.
MML: Meta-Machine Learning ist ein Ansatz, bei dem Machine Learning auf Machine Learning angewendet wird.
Ziel: ML-Modelle automatisch verbessern, optimieren oder auswählen.
Ein Beispiel: Statt von Menschen manuell erstellter Hyperparameter, wählt ein MML-System automatisch den besten Algorithmus oder die besten Parameter. Wird oft in AutoML (Automated Machine Learning) eingesetzt.
Praxisrelevanz: Im praktischen KI-Umfeld hört man unter "MML" meistens Meta-Machine Learning, speziell im Zusammenhang mit AutoML.
Ziel: KI-Modelle bauen sich quasi selbstständig intelligenter auf – ohne dass Data Scientists Details manuell einstellen müssen.
Warum ist MML wichtig für KI?
Maschinenlesbar: KI versteht nicht nur die Grafik, sondern die Struktur der Formel.
Barrierefreiheit: Screenreader können Formeln "vorlesen".
Suche: Spezielle Suchmaschinen (z. B. für Forschung) können nach mathematischen Ausdrücken suchen.
Verknüpfung: MathML lässt sich mit semantischem Markup* (Schema.org) verbinden → KI erkennt Formeln im Kontext.
* Was ist der Unterschied zwischen semantischen und strukturierten markups?