Wissen & Orientierung

Künstliche
Intelligenz
verstehen.

Von maschinellem Lernen bis zu generativer KI — diese Seite gibt Ihnen einen fundierten Überblick über die wichtigsten Technologien, die unsere Gegenwart und Zukunft prägen.

180Mrd.
GPT-4 Parameter
2,5×
KI-Leistung / Jahr
1B+
ChatGPT-Nutzer
15T
Trainings-Tokens GPT-4

Kernbereiche

Die wichtigsten Felder
der modernen KI

Ein strukturierter Überblick über die zentralen Disziplinen, die das Feld der Künstlichen Intelligenz heute ausmachen.

🧠

Maschinelles Lernen

Algorithmen, die aus Daten lernen, ohne explizit programmiert zu werden. Systeme verbessern ihre Leistung durch Erfahrung und Muster in großen Datensätzen.

ML / Supervised Learning
🔗

Neuronale Netze

Vom menschlichen Gehirn inspirierte Architekturen aus miteinander verbundenen Knoten. Tiefe Netze (Deep Learning) ermöglichen heute Bild- und Spracherkennung auf menschlichem Niveau.

Deep Learning / CNN
💬

Verarbeitung natürlicher Sprache

NLP-Modelle analysieren und generieren menschliche Sprache. Transformer-Architekturen wie BERT und GPT haben die Sprachverarbeitung revolutioniert.

NLP / Transformers
🎨

Generative KI

Modelle, die neue Inhalte erzeugen — Texte, Bilder, Audio, Video und Code. GANs, VAEs und Diffusionsmodelle sind die technologischen Grundlagen.

GenAI / Diffusion
🤖

Reinforcement Learning

Ein Agent lernt durch Belohnung und Bestrafung, optimale Entscheidungen zu treffen. Grundlage für autonome Systeme und Spielagenten wie AlphaGo.

RL / Policy Optimization
⚖️

KI-Ethik & Regulierung

Bias, Transparenz, Datenschutz und gesellschaftliche Folgen stehen im Zentrum der KI-Ethik. Der EU AI Act setzt weltweit erste verbindliche Standards.

AI Act / Fairness

Historischer Überblick

Meilensteine der
Künstlichen Intelligenz

Von den theoretischen Grundlagen bis zu modernen Sprachmodellen — ein Überblick über sieben Jahrzehnte KI-Forschung.

1950

Alan Turings Denkexperiment

Alan Turing publiziert „Computing Machinery and Intelligence" und stellt die Frage: „Kann eine Maschine denken?" — der Turing-Test als Grundlage der KI-Forschung.

1956

Dartmouth-Konferenz

Der Begriff „Artificial Intelligence" wird offiziell geprägt. John McCarthy, Marvin Minsky und andere legen den Grundstein für die KI als wissenschaftliche Disziplin.

1986

Backpropagation-Algorithmus

Rumelhart und Hinton popularisieren die Backpropagation, die das Training tiefer neuronaler Netze erst möglich macht — Grundstein des modernen Deep Learning.

1997

Deep Blue besiegt Garri Kasparow

IBMs Schachcomputer schlägt den amtierenden Weltmeister — ein Wendepunkt in der öffentlichen Wahrnehmung von KI-Fähigkeiten.

2012

AlexNet & der Deep-Learning-Durchbruch

Ein tiefes neuronales Netz gewinnt den ImageNet-Wettbewerb mit einem großen Vorsprung und läutet die Ära des Deep Learning ein.

2017

„Attention is All You Need"

Google veröffentlicht das Transformer-Paper — die Architektur, auf der heute GPT, Claude, Gemini und nahezu alle großen Sprachmodelle basieren.

2022–heute

Das Zeitalter der generativen KI

ChatGPT, Stable Diffusion, Gemini und Claude markieren den Beginn eines breiten gesellschaftlichen Einsatzes von KI — in Arbeit, Kreativität und Wissenschaft.

„KI ist wahrscheinlich das transformativste und potenziell gefährlichste Werkzeug, das die Menschheit je entwickelt hat — und auch das nützlichste."
Sam Altman, CEO von OpenAI
Grundbegriffe

Schlüsselkonzepte
im Überblick

Die essenziellen Begriffe, die man kennen sollte, um KI-Diskussionen fundiert zu verfolgen.

01

Large Language Model (LLM)

Großes Sprachmodell, trainiert auf Milliarden von Texten, um Sprache zu verstehen und zu erzeugen. Beispiele: GPT-4, Claude, Gemini, Llama.
02

Halluzination

KI-Modelle können überzeugend wirkende, aber sachlich falsche Aussagen produzieren. Ein zentrales Qualitätsproblem heutiger Systeme, an dessen Lösung intensiv gearbeitet wird.
03

Prompt Engineering

Die Kunst, Eingaben an KI-Systeme so zu formulieren, dass optimale Ausgaben erzielt werden. Eine neue Kompetenz, die in vielen Berufsfeldern an Bedeutung gewinnt.
04

Fine-Tuning

Anpassung eines vortrainierten Modells an spezifische Aufgaben durch weiteres Training auf domänenspezifischen Daten. Effizienter als das Training von Grund auf.
05

Multimodalität

Moderne KI-Systeme können mehrere Datentypen gleichzeitig verarbeiten: Text, Bild, Audio und Video in einem einzigen Modell vereint.
06

Alignment

Das Problem, KI-Systeme mit menschlichen Werten und Absichten in Einklang zu bringen. Eine der zentralen Herausforderungen für sichere und vertrauenswürdige KI.