Glossar: KI-Schlüsselbegriffe

Einige KI-Begriffe haben eine englische und eine deutsche Bezeichnung. Im Glossar haben wir die im deutschsprachigen Raum gängigere Bezeichnung vorangestellt, auch wenn es sich dabei um das englische Fachvokabular handelt.

Adversarial Learning oder gegnerisches Lernen
Adversarial Learning oder gegnerisches Lernen

Beim gegnerischen Lernen wird versucht, ein Modell durch Lernen mit sogenannten gegnerischen Beispielen (Adversarial Examples) robuster gegenüber Angriffen zu machen. Diese Beispiele sind gezielt gestört, um falsche Ergebnisse herbeizuführen.

AI Act
AI Act

Der AI Act, zu Deutsch »Verordnung über Künstliche Intelligenz« oder KI-Verordnung, ist das erste transnationale Gesetz zur Regulierung Künstlicher Intelligenz. Ein Anliegen der Europäi- schen Union ist es, EU-Bürger*innen vor möglichen negativen Auswirkungen von KI-Anwendungen zu schützen und gleich- zeitig die Innovation im Bereich vertrauenswürdiger Künstlicher Intelligenz zu fördern.

Algorithmus, Lernalgorithmus
Algorithmus, Lernalgorithmus

In der Informatik ist ein Algorithmus eine genaue Berechnungsvorschrift zur Lösung einer Aufgabe. Ein Lernalgorithmus ist ein Algorithmus, der Beispieldaten (Lerndaten oder Trainingsdaten) erhält und ein Modell für die gesehenen Daten berechnet, das auf neue Beispieldaten angewendet werden kann.

Assistenzsysteme
Assistenzsysteme

Digitale Assistenzsysteme optimieren die Zusammenarbeit zwischen Mensch und Computer. Sie sind in zahlreichen Handlungsfeldern anzutreffen: vom Dokumentenmanagement im kaufmännischen Bereich, über Sprachassistenten, die Fragen beantworten oder Anweisungen entgegennehmen, bis hin zur Produktion und Montage, wo sie mit Methoden der Künstlichen Intelligenz den Menschen kontextabhängig unterstützen.

Autonome Systeme
Autonome Systeme

Als autonome Systeme werden Geräte und Softwaresysteme bezeichnet, die ohne Steuerung durch den Menschen und ohne vorprogrammierte Abläufe selbstständig agieren und reagieren. Sie sind von automatisierten Systemen zu unterscheiden, die vorgegebene Handlungsabläufe ausführen, sie aber nicht selbstständig ändern können. Um situativ zu reagieren, müssen autonome Geräte Sensoren haben und Softwaresysteme digitale Datenströme beobachten. Das Verhalten wird meist durch Maschinelles Lernen antrainiert und kann laufend verbessert werden.

Autonomes Fahren
Autonomes Fahren

Beim Autonomen Fahren übernimmt ein Autonomes System vollumfänglich die Aufgaben des Fahrers – verlässlich unter verschiedensten Bedingungen. Es basiert zunehmend auf Künstlicher Intelligenz. Um auch komplexe Situationen im Straßenverkehr zuverlässig zu meistern, ist die Absicherung der maschinellen Wahrnehmung und der daraus abgeleiteten Entscheidungen eine der Herausforderungen des autonomen Fahrens

Basismodelle oder Foundation Models
Basismodelle oder Foundation Models

Basismodelle sind große maschinelle Lernmodelle, die auf Basis einer großen Menge allgemeiner Daten trainiert wurden. Nach diesem Vortraining können die Modelle für eine Vielzahl spezifischer Aufgaben feinjustiert werden.

Ein bekanntes Beispiel für Foundation Models sind große Sprachmodelle oder Large Language Models (LLMs), die Milliarden von Parametern besitzen und komplexe NLP-Aufgaben wie Textklassifikation, Textgenerierung, Sprachübersetzung, Sentimentanalyse und Frage-Antwort-Systeme beherrschen. Neben der Verwendung in Sprachmodellen gibt es auch visuelle und multimodale Foundation Models, die z. B. aus Text Bilder erzeugen.

Big Data
Big Data

Mit Big Data werden Mengen von Daten bezeichnet, die zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert sind, um sie mit herkömmlichen Datenbanksystemen zu verwalten und auszuwerten.

Bot
Bot

Unter einem Bot versteht man ein Computerprogramm, das wiederkehrende Aufgaben weitgehend automatisch oder autonom abarbeitet. Beispiele, die von Maschinellem Lernen profitieren könnten, sind Chatbots, Social Bots oder Gamebots.

Data Mining
Data Mining

Unter Data Mining wird die Anwendung von Methoden der Statistik und des Maschinellen Lernens verstanden, um in vorhandenen Datenbeständen Muster, Trends oder Zusammenhänge aufzuspüren.

Data Science oder Datenwissenschaft
Data Science oder Datenwissenschaft

Data Science ist ein interdisziplinäres Wissenschaftsfeld, das sich mit Methoden, Prozessen und Algorithmen zur Extraktion von Erkenntnissen aus strukturierten und unstrukturierten Daten beschäftigt. Im Berufsfeld eines Data Scientist sind Kenntnisse aus den Bereichen Mathematik, Betriebswirtschaftslehre, Informatik und Statistik erforderlich. Ein Data Scientist identifiziert und analysiert verfügbare Datenressourcen, eruiert Bedarfe und entwickelt Konzepte, um die Daten gewinnbringend zu nutzen

Deep Learning (DL) oder Tiefes Lernen
Deep Learning (DL) oder Tiefes Lernen

Deep Learning ist maschinelles Lernen in Künstlichen Neuronalen Netzen mit mehreren bis sehr vielen Schichten, die aus einer Vielzahl künstlicher Neuronen zusammengesetzt sind. Tiefes Lernen ist verantwortlich für die Erfolge in der Sprach- und Text-, Bild- und Videoverarbeitung.

Diffusionsmodelle oder Diffusion Models
Diffusionsmodelle oder Diffusion Models

Diffusionsmodelle können Daten erzeugen, die ihren Trainingsdaten ähneln. Als generative KI-Modelle sind sie in der Lage, Bilder auf der Grundlage eines Text-Prompts zu erzeugen. Dies wird erreicht, indem den Trainingsbildern Gaußsches Rauschen hinzugefügt wird und das Modell darauf trainiert wird, das Bild wieder zu entrauschen. Das trainierte Modell kann dann aus einem zufälligen Rauschen ein Bild erzeugen, das seinen Trainingsbildern ähnelt.

Diskriminative KI oder Discriminative AI
Diskriminative KI oder Discriminative AI

Diskriminative KI-Modelle lernen, Daten zu unterscheiden und zu klassifizieren. Im Gegensatz zu generativen KI-Modellen, die neue Daten erzeugen, ordnen diskriminative Modelle Eingabedaten ihnen bekannten Kategorien zu, z.B. Tierbilder in Bilder von Hunden oder Katzen.

Echtzeit oder Realtime
Echtzeit oder Realtime

Echtzeit bedeutet die ständige Betriebsbereitschaft eines Systems und die Fähigkeit, alle Reaktionen und Rechenschritte in einer bestimmten kurzen Zeitspanne durchzuführen.

Erklärbare KI oder Explainable AI
Erklärbare KI oder Explainable AI

Black-Box-Modelle, wie insbesondere die tiefen Künstlichen Neuronalen Netze, sind für Menschen nicht nachvollziehbar. Die Erklärbare KI sucht nach Möglichkeiten, die versteckte Logik oder die einzelnen Ausgaben besser nachvollziehbar oder erklärbar zu machen.

Generative KI oder Generative AI
Generative KI oder Generative AI

Generative KI-Modelle werden eingesetzt, um neue Daten zu erzeugen, die ähnliche statistische Eigenschaften wie ein gegebener Datensatz haben. So können z.B. Text, Bilder, Audio, Video, Programmcode, 3D-Modelle oder Simulationen erzeugt werden, die den Anweisungen des Nutzenden folgen.

Große Sprachmodelle oder Large Language Models (LLMs)
Große Sprachmodelle oder Large Language Models (LLMs)

Große Sprachmodelle sind Basismodelle oder Foundation Models , die für die Verarbeitung natürlicher Sprache mit großen Mengen von Textdaten trainiert wurden. Die Modelle lernen, Texte fortzusetzen, indem sie statistische Beziehungen zwischen Wörtern herstellen, und damit Wissen über Syntax, Semantik und Ontologie der Sprache, aufbauen. Nach diesem Vortraining können die Modelle für ihren spezifischen Einsatz, z.B. als Chatbot, feinjustiert werden. Ihre Transformer-Architektur ermöglicht die effiziente Verarbeitung großer Datenmengen und die Berücksichtigung entfernter Abhängigkeiten in Daten.

Hybride KI
Hybride KI

Hybride KI kombiniert datenbasiertes Maschinelles Lernen, Wissensrepräsentation und logisches Schließen. Wissen und die jeweiligen Schlussfolgerungen werden direkt in den Lernprozess eingebracht, um beispielsweise die menschliche Fähigkeit nachzubilden, Bedeutungen aus dem Kontext heraus korrekt zu verstehen und das KI-System insgesamt robuster auszugestalten.

Internet of Things (IoT) oder Internet der Dinge
Internet of Things (IoT) oder Internet der Dinge

Als Internet of Things wird die Vernetzung von physischen Produkten, Maschinen, Fahrzeugen etc. bezeichnet, die dazu führt, dass diese untereinander Daten austauschen oder über das Internet bereitstellen können. Die gesammelten Informationen können dazu genutzt werden, Prozesse zu automatisieren oder Autonome Systeme aufzubauen.

Kognitive Maschinen, kognitive Systeme
Kognitive Maschinen, kognitive Systeme

Kognitive Maschinen oder Systeme sind alternative Begriffe für künstliche intelligente Systeme oder auch Künstliche Intelligenz. Sie zeichnen sich durch Fähigkeiten des Lernens und Schlussfolgerns sowie der Sprachverarbeitung, Bildverarbeitung und Interaktion mit dem Nutzer aus.

Künstliche Intelligenz (KI) oder Artificial Intelligence (AI)
Künstliche Intelligenz (KI) oder Artificial Intelligence (AI)

Künstliche Intelligenz ist ein Teilgebiet der Informatik, das sich mit der Automatisierung von intelligentem Verhalten befasst. Dabei ist weder festgelegt, was »intelligent« bedeutet, noch welche Technik zum Einsatz kommt. Eine der Grundlagen der modernen Künstlichen Intelligenz ist das Maschinelle Lernen. Weitere wichtige Methoden sind logisches Schließen auf symbolischem Wissen, Wissensrepräsentation oder Planungsverfahren. In Fachkreisen wird zwischen Starker KI und Schwacher KI unterschieden.

Künstliche Neuronale Netze (KNN)
Künstliche Neuronale Netze (KNN)

Künstliche Neuronale Netze sind Modelle des Maschinellen Lernens, deren Vorbild die natürlichen neuronalen Netze des Gehirns sind. Sie bestehen aus vielen in Software realisierten Schichten von Knoten, die als künstliche Neuronen bezeichnet werden. Mithilfe von Beispielen verändert ein Lernalgorithmus die Gewichte, Zahlenwerte an den Verbindungen zwischen den Knoten, solange, bis die Ergebnisse für die Aufgabe gut genug sind. Die Anzahl der Knoten, Schichten und ihre Verknüpfung untereinander wirkt sich maßgeblich auf die Lösungskompetenz des Modells aus.

Maschinelles Lernen oder Machine Learning (ML)
Maschinelles Lernen oder Machine Learning (ML)

Maschinelles Lernen bezweckt die Generierung von Wissen aus Erfahrungswerten, indem Lernalgorithmen aus Beispielen ein komplexes Modell entwickeln. Das Modell kann anschließend auf neue, potenziell unbekannte Daten derselben Art angewendet werden. Damit kommt das Maschinelle Lernen ohne manuelle Wissenseingabe oder explizite Programmierung eines Lösungswegs aus.

Maschinelle Sprachverarbeitung oder Natural Language Processing (NLP)
Maschinelle Sprachverarbeitung oder Natural Language Processing (NLP)

Maschinelle Sprachverarbeitung umfasst Techniken zur Erkennung, Interpretation und Erzeugung von natürlicher Sprache in Wort und Schrift. Dazu gehören die Vertextung gesprochener Sprache, Stimmungserkennung, Informationsextraktion aus Texten, maschinelle Übersetzung und das Führen von Gesprächen.

Modell
Modell

Ein Modell ist eine Abstraktion der Wirklichkeit. Im Maschinellen Lernen erzeugt ein Lernalgorithmus ein Modell, das die eingespeisten Daten generalisiert. Das Modell kann anschließend auch auf neue Daten angewandt werden.

Multimodale KI
Multimodale KI

Während unimodale KI-Systeme nur einen Datentyp verarbeiten oder erzeugen können, kann multimodale KI mit verschiedenen Datentypen wie Text, Bild und Audio umgehen. Multimodale Modelle sind daher flexibler, da sie mit unterschiedlichen Datentypen trainiert werden.

Predictive Maintenance (PM) oder vorausschauende Wartung
Predictive Maintenance (PM) oder vorausschauende Wartung

Bei vorausschauender Wartung soll eine Störung erkannt werden, bevor sie auftritt. Die von Sensoren erfassten Daten werden in Echtzeit ausgewertet, um frühzeitigen Verschleiß oder Fehler in der Produktionskette zu erkennen, die entsprechenden Produktionsmittel rechtzeitig zu warten und letztlich Ausfallzeiten oder Fehlproduktionen zu vermeiden. Maschinelles Lernen ist eine erfolgreiche Methode für die Prognose von Ausfällen.

Quantencomputer
Quantencomputer

Quantencomputer basieren ihre elementaren Rechenschritte auf quantenmechanischen Zuständen – sogenannte Qubits – anstelle der binären Zustände (Bits) in digitalen Computern. Qubits werden anhand quantenmechanischer Prinzipien verarbeitet, wodurch für manche Anwendungen ein enormer Geschwindigkeitsvorteil erwartet wird. Durch die neuen Rechnerarchitekturen sind auch Potenziale bezogen auf Maschinelles Lernen und somit die Quanten-KI prognostizierbar.

Reinforcement Learning oder Bestärkendes Lernen
Reinforcement Learning oder Bestärkendes Lernen

Beim bestärkenden Lernen erhält der Lernalgorithmus gelegentliches Feedback für Interaktionen mit der Umwelt und lernt, die Erfolgsaussichten der einzelnen Aktionen in den verschiedenen Situationen besser einzuschätzen. Reinforcement Learning wird gern für Autonome Systeme und Spiele eingesetzt.

Roboter
Roboter

Als Roboter werden Maschinen oder Geräte bezeichnet, die darauf abzielen, bestimmte physische und kommunikative Aufgaben des Menschen zu übernehmen. Typische Beispiele sind Service- und Industrieroboter. Die Autonomie von Robotersystemen steigt in dem Maße, wie sie selbstständig durch Maschinelles Lernens komplexe Aufgaben lösen können. Ein Beispiel hierfür sind vollautonome Fahrzeuge.

Schwache KI
Schwache KI

Schwache KI setzt KI-Methoden zur Lösung eng umrissener Aufgaben. Während sie in einzelnen Bereichen, wie z.B. der Bildanalyse, menschliche Fähigkeiten bereits übertreffen kann, erreicht Schwache KI bei weiter gefassten Aufgaben im größeren Kontext oder bei Aufgaben, die Weltwissen erfordern, bei weitem nicht das gleiche Niveau. Alle derzeitigen KI-Lösungen sind Beispiele Schwacher KI.

Starke KI oder Artificial General Intelligence
Starke KI oder Artificial General Intelligence

Starke KI steht für die Vision, mit KI-Techniken menschliche Intelligenz in vollem Umfang und außerhalb einzelner, eng definierter Handlungsfelder nachzubilden. Starke KI findet man bisher nur in Science Fiction. Seit Künstliche Intelligenz in den 1950er Jahren entstand, gab es Prognosen, dass eine starke KI in wenigen Jahrzehnten realisierbar wird.

Transformer
Transformer

Ein Transformer ist eine Deep-Learning-Architektur, die einen Aufmerksamkeitsmechanismus (Attention Mechanism) verwendet, um Beziehungen zwischen Wörtern abzubilden. Aufgrund der effizienten Verarbeitung großer Datenmengen und der Berücksichtigung entfernter Abhängigkeiten in Daten werden Transformer-Modelle in der maschinellen Sprachverarbeitung zum Verstehen, Übersetzen oder Generieren von Texten, aber auch in der Bildverarbeitung eingesetzt. Am bekanntesten sind Transformer für ihren Einsatz in großen Sprachmodellen.

Turing-Test
Turing-Test

Der Turing-Test wurde vom britischen Mathematiker Alan Turing entworfen, um die Intelligenz von künstlichen Systemen zu bewerten. Kann ein Mensch, der zugleich mit einem künstlichen System und mit einem menschlichen Gesprächspartner kommuniziert, letztlich nicht bestimmen, bei welchem Dialogpartner es sich um den Menschen handelt, gilt das System als intelligent. Heutzutage bezeichnet man solche Systeme als Chatbots.

Überwachtes Lernen oder Supervised Learning
Überwachtes Lernen oder Supervised Learning

Beim überwachten Lernen bestehen die Trainingsdaten aus Beispielen mit Ein- und Ausgabe. Das Modell soll eine Funktion erlernen, um auch neue Beispiele gut vorherzusagen. Um die Qualität des Modells zu bestimmen, trainiert man dieses nur mit einem Teil der verfügbaren Daten und testet das fertige Modell mit den verbleibenden.

Verteilte KI oder Distributed AI
Verteilte KI oder Distributed AI

Beim Maschinellen Lernen in der Cloud befindet sich das Modell nur in der Cloud. Um es zu trainieren und anzuwenden, müssen die Endgeräte alle Rohdaten zum Server schicken. Bei verteilter KI bleiben die Modelle in den Endgeräten. Statt der Rohdaten werden die Modelle in die Cloud geladen, dort miteinander kombiniert und wieder verteilt. So profitiert jedes Endgerät von dem Training auf allen anderen Endgeräten. Das datenschutzfreundliche Konzept des Edge Computing geht einher mit Einsparungen bei Rechenzeiten, Kommunikationsaufwand und -kosten sowie einer Erhöhung der Sicherheit gegenüber Cyberangriffen.

Vertrauenswürdige KI oder Trustworthy AI
Vertrauenswürdige KI oder Trustworthy AI

Nur vertrauenswürdige KI-Anwendungen garantieren IT-Sicherheit, Kontrolle, Rechtssicherheit, Verantwortlichkeit und Transparenz. Aus diesem Grund werden unternehmensintern, auf gesellschaftlicher und politischer Ebene Leitlinien für eine ethische Gestaltung von Künstlicher Intelligenz erarbeitet. Diese fokussieren beispielsweise die Dimensionen Ethik und Recht, Fairness, Autonomie und Kontrolle, Transparenz, Verlässlichkeit, Sicherheit und Privatsphäre.

Wissensrepräsentation
Wissensrepräsentation

Um Wissen formal abzubilden, werden unterschiedliche Methoden der Wissensrepräsentation angewandt, z.B. Ontologien, Klassen oder semantische Netze oder Regelsysteme. Die Expertensysteme der 1980er Jahre bestanden aus solchen Wissensbasen. Heute benutzt man Regelsysteme gern zur Programmierung von Chatbots.

Zertifizierung
Zertifizierung

Aktuelle Bestrebungen zur Entwicklung eines Prüfkatalogs für KI-Anwendungen zielen darauf ab, eine Zertifizierung von KI-Anwendungen zu ermöglichen. Die so gesetzten Standards sollen die Qualität von KI-Anwendungen differenziert beurteilbar machen, zur Transparenz im Markt beitragen und die Akzeptanz in der Anwendung fördern.