top of page

So sprichst du KI – Teil 2: Das Einsteiger-Glossar für alle, die lieber Klartext reden

Künstliche Intelligenz ist überall, aber die Sprache dahinter bleibt oft noch ein Rätsel. Wenn Begriffe wie „Multimodalität“, „RAG“ oder „LLMs“ fallen, schalten viele gedanklich ab oder halten sich aus Angst davor, dumm dazustehen, gleich ganz aus Gesprächen heraus.

Das muss nicht sein.


In Teil 2 unseres KI-Glossars erklären wir erneut die wichtigsten Begriffe – dieses Mal etwas vertiefender und mit Blick auf Trends, Konzepte und Entwicklungen. Für mehr Klartext und weniger Fachjargon.

 

Damit auch wirklich jeder mitreden kann!

 

Bias – Wenn die Maschine Vorurteile hat


Bias sind Verzerrungen oder Voreingenommenheit in den Vorhersagen von KI-Modellen. Das passiert meist nicht absichtlich, sondern weil sie mit einseitigen oder fehlerhaften Daten trainiert wurden.


Wenn z.B. eine KI fast nur mit Bildern von hellhäutigen Personen trainiert wurde, erkennt sie später womöglich dunklere Hauttypen schlechter. Oder wenn Texte im Training oft Männer mit bestimmten Berufen verbinden, übernimmt die KI auch dieses Muster.


Es ist deshalb wichtig, immer die Daten zu prüfen und die Ergebnisse zu hinterfragen!

 

Fine-Tuning – Spezialtraining für Aufgaben


Beim Fine-Tuning wird ein bereits vortrainiertes KI-Modell weitertrainiert, um es gezielt an Bedürfnisse anzupassen.


Zum Beispiel kann man ein Modell damit für eine bestimmte Branche oder ein Unternehmen trainieren, indem man Daten aus E-Mails, FAQs oder Produkttexten einliest. So wird aus einer allgemeinen KI ein Profi und das mit weniger Aufwand als beim kompletten Neulernen.

 

Foundation Model – das Alleskönner-Modell


Ein Foundation Model ist ein riesiges, vortrainiertes KI-Modell, das viele Dinge auf einmal kann: Text verstehen, Bilder analysieren, Code schreiben, je nachdem, womit es trainiert wurde. Bei Bedarf kann man es auch noch auf konkrete Aufgaben „spezialisieren“.

 

Generative KI – Wenn die Maschine selbst etwas erstellt


Generative KI ist eine besondere Form von künstlicher Intelligenz, die neue Inhalte erzeugen kann. Das können Bilder, Texte, Videos oder sogar Codes sein – abhängig von dem, was die KI vorher gelernt hat. Bei einer Eingabe (Prompt) liefert sie ein Ergebnis, das nicht von irgendwo kopiert, sondern selbst generiert wurde.


Bekannt Tools, die das nutzen sind ChatGPT, DALL-E oder Midjourney.

 

KI-Augmentation – Wenn Mensch und Maschine sich ergänzen


KI-Augentation bedeutet: Die KI unterstützt den Menschen bei der Arbeit - ersetzt ihn aber nicht.


Statt Entscheidungen komplett an die Maschine abzugeben, nutzt man ihre Stärken gezielt zum Recherchieren, Zusammenfassen, Formulieren oder Analysieren. Der Mensch bleibt am Steuer!


Das ist der Weg, den viele Unternehmen heute gehen: Mensch + Maschine = starkes Team.

 

LLM – Wenn Maschinen mit Sprache umgehen können


Ein LLM (Large Language Model) ist ein spezielles KI-Modell, das große Datensätze verwendet, um neue Inhalte nicht nur zu verstehen, sondern auch selbst zu erzeugen.


Durch Training gesammelt, verfügt ein LLM über Milliarden von Parametern, die Erinnerungen ähneln. Das erweckt den Eindruck, als würde man mit einem Menschen sprechen. LLMs kommen in Anwendungen wie Chatbots, Übersetzungstools und Sprachassistenten vor.

 

Maschinelles Lernen – Wie KI aus Daten lernt

 

Das ist eine Methode, mit der Computer aus Beispielen lernen, ohne dass ihnen jeder Schritt einzeln beigebracht wird. Statt fester Regeln bekommt die Maschine viele Daten und erkennt darin selbst Muster und Zusammenhänge.


So lernt sie u.a. ob eine E-Mail Spam ist, ob ein Bild eine Katze oder eine Maus zeigt oder welche Antwort zu einer Frage passt. Maschinelles Lernen ist die Grundlage vieler KI-Anwendungen, die wir heute kennen (Chatbots, Sprachassistenten oder Produktempfehlungen).

 

Multimodale KI – wenn Maschinen mehr als nur Text verstehen


Multimodal bedeutet: Eine KI kann mit verschiedenen „Sinneseindrücken“ gleichzeitig arbeiten.


Sie versteht Texte, Bilder, Videos oder Sprache und kann daraus sinnvolle Schlüsse ziehen. Zum Beispiel, wenn man der KI ein Foto zeigt und fragt „Was passiert hier?“ und die KI erkennt, dass auf dem Bild zwei Menschen ein Diagramm besprechen.


Die KI bekommt dadurch tieferes Kontextverständnis und vermittelt ein Gefühl von menschlicher Informationsverarbeitung.

 

RAG – Die KI, die bei Ihnen nachliest


RAG steht für „Retrieval-Augmented Generation“ und ist eine Methode, bei der die KI zusätzlich zu ihrem Wissen auch in einer externen Datenquelle nachschaut, bevor sie antwortet.


Diese Datenquelle kann das Internet, eine interne Datenbank, ein Firmenwiki oder eine andere Informationsquelle sein. Hat das Modell hier die passenden Daten gefunden, werden diese in eine verständliche und präzise Antwort generiert.


Der Vorteil: Die Ergebnisse basieren nachweislich auf echten Inhalten.

Das Ergebnis: präzisere Antworten mit echten Quellen aus Ihrem Umfeld.

 

Synthetische Daten – Künstlich, aber datenschutzkonform


Synthetische Daten sind erfundene, aber realistisch wirkende Daten. Sie basieren auf echten Strukturen, enthalten aber keine echten Personen oder Firmendaten. So kann man KI trainieren oder Tests durchführen - ganz ohne Datenschutzsorgen.

 

Transfer Learning – Wissen wiederverwenden


Beim Transfer Learning nimmt man ein bereits trainiertes Modell und wendet es auf eine andere Aufgabenstellung an.


Statt bei null anzufangen, baut man auf dem auf, was die KI schon weiß und spart nicht nur Zeit, sondern auch Geld und Rechenleistung.  Das Model lernt Neues viel schneller, weil bereits eine Basis vorhanden ist.

 

Fazit: Wissen gibt Sicherheit

 

Die Begriffe rund um KI sind manchmal sperrig, aber nicht unverständlich.

Je mehr man weiß, desto leichter fällt der Einstieg in Gespräche, Projekte oder Entscheidungen und auch die Angst und die Unsicherheit im Zusammenhang mit dieser neuen Technik wird geringer.


Dieses Glossar soll genau dabei helfen – für mehr Orientierung, weniger Angst und mehr Selbstbewusstsein.

 

Mehr KI-Begriffe finden Sie in unserem Teil 1!





Quellenverzeichnis:

 

 
 
 

Comments


bottom of page