So sprichst du KI: Das kleine KI-Glossar für Einsteiger
top of page

So sprichst du KI: Das kleine KI-Glossar für Einsteiger

Von AGI bis Zero-Shot – Seit Künstliche Intelligenz in unserem Alltag angekommen ist, reiht sich ein Fachbegriff an den nächsten. Vielen nicken, aber nur wenige verstehen wirklich, was dahintersteckt.


Dabei ist KI längst kein Thema nur für Tech-Fans mehr. Sie steckt heute in Office-Tools, in so ziemlich jedem Smartphone und im digitalen Arbeitsplatz von morgen. Ob man nun selbst Künstliche Intelligenz nutzt oder einfach nur verstehen möchte, worüber gerade alle sprechen – dieser Beitrag hilft weiter.

 

Klar, verständlich und ohne Fachjargon nehmen wir die wichtigsten KI-Begriffe und erklären sie in diesem Glossar.


Ideal für Unternehmen, Selbstständige und alle, die sich einen schnellen Überblick über den KI-Dschungel verschaffen möchten.

 

AGI

Artificial General Intelligence – oder kurz AGI – bezeichnet eine hypothetische Form von KI. Diese soll in der Lage sein, jede intellektuelle Aufgabe zu erfüllen, die ein Mensch bewältigen kann.


Im Gegensatz zu heutigen spezialisierten KI-Systemen wäre AGI universell einsetzbar.

 

Chain of Thought & Reasoning

Diese Methode ermöglicht es KI-Modellen, komplexe Aufgaben durch schrittweises Denken zu lösen. Statt sofort eine Antwort zu geben, durchläuft das Modell mehrere Überlegungen, um zu einer fundierten Lösung zu gelangen.

 

Destillation & Quantisierung

Diese Techniken werden verwendet, um KI-Modelle effizienter zu machen.

Destillation überträgt das Wissen eines großen Modells auf ein kleineres, während Quantisierung die Präzision der Modellparameter reduziert, um Speicherplatz zu sparen.

 

Deep Learning

Deep Learning ist ein Teilbereich des maschinellen Lernens, bei dem künstliche neuronale Netze große Datenmengen analysieren, um Muster zu erkennen und Entscheidungen zu treffen.


Diese Methode ermöglicht es KI-Systemen, komplexe Aufgaben wie Bild- oder Spracherkennung zu bewältigen.

 

Embeddings

Embeddings sind numerische Darstellungen von Wörtern oder Sätzen und helfen großen Sprachmodellen dabei, Gemeinsamkeiten in eingegebenen Sätzen zu erkennen und zu verarbeiten.

 

Fine-Tuning

So nennt man den Prozess, bei dem ein bereits trainiertes KI-Modell mit spezifischen Daten nachtrainiert wird. Das Ziel ist die Anpassung auf bestimmte Aufgaben oder Branchen.

Das verbessert die Genauigkeit und Relevanz der KI-Ausgaben.

 

GPT & LLM

GPT steht für „Generative Pre-trained Transformer“ und ist ein KI-Modell, das Texte generieren kann.

LLM (Large Language Model) bezeichnet allgemein große Sprachmodelle wie GPT-4, die durch umfangreiche Textdateien trainiert wurden und in der Lage sind, menschenähnliche Texte zu erstellen.

 

Halluzinationen

In der KI sind „Halluzinationen“ plausibel klingende, aber falsche oder erfundene Informationen durch ein Modell. Das können u.a. faktische Aussagen sein, die sich schnell widerlegen lassen.


Halluzinationen sind aber nicht nur auf KI-Sprachmodelle reduziert. Bildgeneratoren können diese z.B. als eine Hand mit 7 Fingern statt 5 darstellen oder als Mensch mit drei Beinen.

 

KI-Agenten

KI-Agenten sind autonome Systeme, die in der Lage sind, Aufgaben selbstständig zu planen und auszuführen. Sie können in verschiedenen Bereichen eingesetzt werden. Von virtuellen Assistenten bis hin zu industriellen Anwendungen.

 

Prompt Engineering

Prompt Engineering ist die Kunst, Eingaben (Prompts) so zu gestalten, dass KI-Modelle die gewünschten Ergebnisse liefern. Ein gut formulierter Prompt kann die Qualität der KI-Antwort erheblich verbessern.

 

Transformer

Ein Transformer hilft der KI dabei, den Sinn eines Textes zu erkennen.


Er erkennt somit was gemeint ist, selbst wenn es kompliziert oder doppeldeutig ist. Der Transformer ist also das Gehirn hinter modernen KI-Modellen wie ChatGPT.

 

Token

Ein Token ist ein kleines Stück Text, z.B. ein Wort oder ein Teil davon. Wenn eine KI etwas liest oder schreibt, zerlegt sie den Text zuerst in diese kleinen Stücke. So kann sie besser verstehen und berechnen, was als Nächstes kommen soll.


Je mehr Tokens ein Text hat, desto länger und komplexer ist er für die KI zu bearbeiten. Deshalb spricht man oft von einer „Token-Grenze“ – das ist die maximale Länge, die ein Text für eine KI haben darf.


Die Anzahl der Tokens beeinflusst somit die Länge und Komplexität der Eingaben und Ausgaben eines Modells.

 

Zero-Shot & Few-Show Learning

Zero-Shot Learning ermöglicht es einem KI-Modell, Aufgaben zu lösen, für die es nicht explizit trainiert wurde. Few-Shot Learning bedeutet, dass das Modell mit nur wenigen Beispielen eine neue Aufgabe erlernen kann.

 

Fazit

 

Künstliche Intelligenz ist kein Hexenwerk. Mit ein wenig Grundverständnis kann man sie sowohl im Unternehmen wie auch im Alltag nutzen, um smarter zu entscheiden und sich viele manuelle Aufgaben zu ersparen.

 

Wer KI versteht, kann sie auch besser nutzen und wenn man die Begriffe kennt, hat man den ersten Schritt schon gemacht.

 

 

Quellenverzeichnis:

 

 

 

 
 
 
bottom of page