KI-Wissen

Grundlagen der Künstlichen Intelligenz verständlich erklärt — für Eltern, Lehrkräfte und alle Interessierten.

Was ist Künstliche Intelligenz?

Künstliche Intelligenz (KI) bezeichnet Computersysteme, die Aufgaben ausführen können, für die normalerweise menschliche Intelligenz erforderlich wäre — zum Beispiel Sprache verstehen, Bilder erkennen, Entscheidungen treffen oder Texte verfassen. Dabei geht es nicht darum, dass ein Computer tatsächlich „denkt" wie ein Mensch, sondern darum, dass er bestimmte kognitive Leistungen nachahmen kann.

Unterschied zu normaler Software

Herkömmliche Software folgt festen Regeln, die von Programmierern Schritt für Schritt vorgegeben werden: „Wenn X eintritt, dann tue Y." Ein Taschenrechner beispielsweise kennt exakte Rechenvorschriften und liefert immer dasselbe Ergebnis für dieselbe Eingabe. KI-Systeme hingegen lernen aus Daten und erkennen darin Muster. Statt einer starren Wenn-Dann-Logik entwickeln sie statistische Modelle, mit denen sie auch für bisher ungesehene Eingaben plausible Antworten liefern können. Diese Fähigkeit zur Verallgemeinerung — also das Übertragen des Gelernten auf neue Situationen — ist das zentrale Unterscheidungsmerkmal.

Schwache KI vs. Starke KI

In der Forschung unterscheidet man zwei grundlegende Konzepte:

  • Schwache KI (Narrow AI): Systeme, die für eine einzige, klar definierte Aufgabe optimiert sind. Ein Schachcomputer kann herausragend Schach spielen, versteht aber kein einziges Wort einer Unterhaltung. Sprachassistenten wie Siri oder Alexa verstehen gesprochene Befehle, können aber nicht eigenständig kreative Probleme lösen. Alle heute existierenden KI-Systeme — einschließlich ChatGPT, Bildgeneratoren und selbstfahrender Autos — fallen in diese Kategorie.
  • Starke KI (Artificial General Intelligence, AGI): Ein hypothetisches System, das die gesamte Bandbreite menschlicher Intelligenz beherrschen würde — abstraktes Denken, Kreativität, emotionales Verständnis, Transfer zwischen völlig unterschiedlichen Aufgabenbereichen. AGI existiert bislang nur als theoretisches Konzept. Ob und wann sie realisierbar sein wird, ist in der Fachwelt umstritten. Manche Forscher halten sie für Jahrzehnte entfernt, andere bezweifeln ihre grundsätzliche Machbarkeit.

Für den Bildungskontext ist diese Unterscheidung wichtig: Wenn Kinder mit KI-Werkzeugen arbeiten, begegnen sie ausschließlich schwacher KI. Das Wissen darum hilft, unrealistische Erwartungen (und unbegründete Ängste) einzuordnen.

Gut zu wissen: Der Begriff „Künstliche Intelligenz" wurde 1956 auf der Dartmouth-Konferenz in den USA geprägt. Die Forscher John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon schlugen damals vor, zu untersuchen, ob sich jedes Merkmal des Lernens und der Intelligenz so präzise beschreiben lässt, dass man eine Maschine bauen kann, die es nachahmt. Dieses ehrgeizige Ziel ist bis heute Forschungsgegenstand.

Maschinelles Lernen

Maschinelles Lernen (Machine Learning, ML) ist das Teilgebiet der KI, das heute die meisten praktischen Anwendungen antreibt. Die Grundidee: Statt einem Computer explizite Regeln zu programmieren, füttert man ihn mit großen Mengen an Daten und lässt ihn selbst Muster und Zusammenhänge darin erkennen. Der Computer wird gewissermaßen zum Schüler, der aus Beispielen lernt.

Supervised Learning (Überwachtes Lernen)

Beim überwachten Lernen erhält das System Trainingsbeispiele, die jeweils mit der „richtigen Antwort" versehen sind (sogenannte Labels). Ein Beispiel: Um eine KI zu trainieren, die Hunde von Katzen auf Fotos unterscheidet, zeigt man ihr Tausende Bilder, bei denen jeweils vermerkt ist, ob ein Hund oder eine Katze zu sehen ist. Das System lernt, welche visuellen Merkmale (Ohrenform, Schnauze, Körperbau) mit welcher Kategorie zusammenhängen. Nach dem Training kann es diese Unterscheidung auch bei völlig neuen, noch nie gesehenen Bildern treffen.

Typische Anwendungen: Spam-Erkennung in E-Mails, medizinische Diagnoseunterstützung (z.B. Hautkrebs auf Fotos erkennen), Spracherkennung und Übersetzung.

Unsupervised Learning (Unüberwachtes Lernen)

Hier bekommt das System Daten ohne Labels — es muss selbst herausfinden, welche Strukturen und Gruppen in den Daten verborgen sind. Das kann beispielsweise bedeuten, dass eine KI Kundendaten analysiert und dabei Gruppen mit ähnlichem Kaufverhalten entdeckt, ohne dass ihr jemand vorab gesagt hat, welche Gruppen es geben soll. Man spricht von Clustering (Gruppierung) oder Dimensionsreduktion (Vereinfachung komplexer Daten).

Typische Anwendungen: Empfehlungssysteme (Netflix, Spotify), Anomalieerkennung in Netzwerken (Cybersicherheit), Kundensegmentierung im Marketing.

Reinforcement Learning (Bestärkendes Lernen)

Beim bestärkenden Lernen agiert ein sogenannter Agent in einer Umgebung und lernt durch Versuch und Irrtum. Für gute Ergebnisse erhält er eine Belohnung (Reward), für schlechte eine Bestrafung. Im Laufe vieler tausend Versuche entwickelt der Agent eine Strategie, die seine Belohnung maximiert. Dieses Prinzip ähnelt dem menschlichen Lernen durch Erfahrung.

Das bekannteste Beispiel ist AlphaGo von DeepMind, das 2016 den Weltmeister im Brettspiel Go besiegte — ein Spiel, das als für Computer unlösbar galt. AlphaGo spielte Millionen von Partien gegen sich selbst und entwickelte dabei Strategien, die selbst Experten überraschten. Reinforcement Learning kommt auch in der Robotik, der Verkehrssteuerung und bei der Feinabstimmung von Sprachmodellen (RLHF — Reinforcement Learning from Human Feedback) zum Einsatz.

Die Rolle der Trainingsdaten

Trainingsdaten sind das Fundament jedes ML-Systems — ihre Qualität bestimmt die Qualität des Modells. Dabei gelten wichtige Grundsätze:

  • Repräsentativität: Die Daten müssen die Realität möglichst gut abbilden. Wenn ein Gesichtserkennungssystem hauptsächlich mit Fotos hellhäutiger Menschen trainiert wird, funktioniert es bei dunkelhäutigen Personen schlechter — ein reales und gut dokumentiertes Problem (Bias).
  • Menge: Komplexe Aufgaben erfordern sehr große Datensätze. Moderne Sprachmodelle werden mit Hunderten Milliarden Wörtern aus dem Internet trainiert.
  • Qualität: Fehlerhafte oder verzerrte Daten führen zu fehlerhaften oder verzerrten Ergebnissen. Der Grundsatz „Garbage in, Garbage out" gilt in der KI besonders stark.
  • Datenschutz: Trainingsdaten enthalten häufig personenbezogene Informationen. Die Frage, ob und wie solche Daten verwendet werden dürfen, ist ein zentrales ethisches und rechtliches Thema (siehe Abschnitt KI und Ethik).

Neuronale Netze und Deep Learning

Künstliche neuronale Netze sind Rechenmodelle, die lose von der Funktionsweise biologischer Nervensysteme inspiriert sind. Sie bilden das Rückgrat nahezu aller modernen KI-Durchbrüche — von der Bilderkennung über Sprachverarbeitung bis hin zu generativer KI.

Wie neuronale Netze funktionieren

Ein künstliches neuronales Netz besteht aus miteinander verbundenen Recheneinheiten, die man Neuronen oder Knoten nennt. Diese Neuronen sind in Schichten (Layers) angeordnet:

  • Eingabeschicht (Input Layer): Nimmt die Rohdaten entgegen — zum Beispiel die einzelnen Pixelwerte eines Bildes oder die Buchstaben eines Wortes.
  • Verborgene Schichten (Hidden Layers): Hier geschieht die eigentliche Verarbeitung. Jedes Neuron empfängt Signale von Neuronen der vorherigen Schicht, verrechnet sie und gibt ein Ergebnis an die nächste Schicht weiter. Je tiefer die Schicht, desto abstraktere Merkmale werden erkannt: Die erste Schicht erkennt vielleicht Kanten und Kontraste, die zweite einfache Formen und die dritte komplexe Objekte wie Gesichter.
  • Ausgabeschicht (Output Layer): Liefert das Endergebnis — etwa die Wahrscheinlichkeit, dass auf einem Bild eine Katze zu sehen ist, oder das nächste Wort in einem Satz.

Gewichte und Training

Jede Verbindung zwischen zwei Neuronen hat ein Gewicht — eine Zahl, die bestimmt, wie stark das Signal eines Neurons das nächste beeinflusst. Zu Beginn des Trainings sind diese Gewichte zufällig gesetzt. Das Netz macht also zunächst viele Fehler. Der Trainingsvorgang besteht darin, die Gewichte systematisch so anzupassen, dass die Fehler immer kleiner werden.

Dazu verwendet man einen Algorithmus namens Backpropagation (Fehlerrückführung): Nach jedem Durchlauf wird gemessen, wie weit das Ergebnis vom gewünschten Ziel abweicht. Diese Abweichung wird rückwärts durch das Netz geleitet, und die Gewichte werden schrittweise korrigiert. Dieser Vorgang wird Millionen oder Milliarden Mal wiederholt, bis das Netz die Trainingsdaten zuverlässig verarbeiten kann.

Was macht Deep Learning „deep"?

Deep Learning bedeutet schlicht: ein neuronales Netz mit vielen verborgenen Schichten — daher „deep" (tief). Während frühe Netze aus den 1980er-Jahren vielleicht zwei oder drei Schichten hatten, besitzen moderne Architekturen Hunderte oder sogar Tausende Schichten mit Milliarden von Gewichten (Parametern). Das 2017 eingeführte Transformer-Modell (die Architektur hinter ChatGPT) war ein entscheidender Durchbruch, weil es besonders gut darin ist, Zusammenhänge in langen Texten und großen Datenmengen zu erfassen.

Die enorme Tiefe ermöglicht es diesen Netzen, extrem komplexe Muster zu erlernen — beispielsweise die grammatische Struktur menschlicher Sprache, den visuellen Aufbau einer Szene oder die Klangmuster von Musik. Der Preis dafür sind immense Rechenanforderungen: Das Training großer Modelle verursacht hohe Energie- und Hardwarekosten und einen erheblichen CO₂-Fußabdruck.

Anschaulich erklärt: Man kann sich ein neuronales Netz wie ein Team aus sehr vielen einfachen Helfern vorstellen. Jeder Helfer kann nur eine winzige Aufgabe erledigen — zum Beispiel prüfen, ob ein bestimmter Punkt in einem Bild hell oder dunkel ist. Aber wenn Tausende solcher Helfer zusammenarbeiten und ihre Ergebnisse weitergeben, kann das Gesamtsystem erstaunlich komplexe Dinge erkennen, die kein einzelner Helfer allein verstehen könnte.

Generative KI

Generative KI bezeichnet Systeme, die neue Inhalte erzeugen können — Texte, Bilder, Musik, Programmcode oder sogar Videos. Im Gegensatz zu klassischen KI-Systemen, die Daten analysieren und klassifizieren, produzieren generative Modelle etwas, das vorher nicht existierte. Seit Ende 2022 prägen diese Werkzeuge zunehmend den Alltag und die öffentliche Debatte.

Was sind Large Language Models (LLMs)?

Large Language Models sind sehr große neuronale Netze, die auf riesigen Textmengen trainiert wurden — typischerweise auf einem substantiellen Anteil des gesamten frei verfügbaren Internets, Büchern, wissenschaftlichen Artikeln und anderen Textquellen. Die bekanntesten Beispiele sind GPT-4 (OpenAI), Claude (Anthropic), Gemini (Google) und LLaMA (Meta).

Das Grundprinzip ist verblüffend einfach: Ein LLM ist im Kern ein Textvervollständiger. Es wurde darauf trainiert, für eine gegebene Textfolge das wahrscheinlichste nächste Wort (genauer: Token) vorherzusagen. Aus dieser scheinbar simplen Aufgabe — der Vorhersage des nächsten Wortes — emergiert eine bemerkenswerte Fähigkeit: Das Modell entwickelt ein tiefes statistisches Verständnis von Sprache, Grammatik, Weltwissen und sogar logischem Schließen.

Wie funktioniert ChatGPT?

ChatGPT und vergleichbare Chatbots durchlaufen mehrere Trainingsphasen:

  • Pre-Training: Das Basismodell wird auf Hunderten Milliarden Wörtern trainiert, um statistische Zusammenhänge in Sprache zu erlernen. Dieser Schritt erfordert Tausende Hochleistungs-GPUs über Wochen oder Monate und ist mit hohem Ressourcenaufwand verbunden.
  • Supervised Fine-Tuning (SFT): Menschliche Trainer erstellen Beispieldialoge, die zeigen, wie ein hilfreicher, harmloser und ehrlicher Assistent antworten sollte. Das Modell wird auf diese Beispiele feinabgestimmt.
  • RLHF (Reinforcement Learning from Human Feedback): Menschliche Bewerter vergleichen verschiedene Modellantworten und bewerten, welche besser ist. Aus diesen Bewertungen wird ein Belohnungsmodell trainiert, mit dem das Sprachmodell weiter optimiert wird. Dieser Schritt macht den entscheidenden Unterschied zwischen einem rohen Textgenerator und einem nützlichen Assistenten aus.

Halluzinationen und Limitationen

Trotz ihrer beeindruckenden Fähigkeiten haben generative KI-Systeme grundlegende Einschränkungen, die besonders im Bildungskontext verstanden werden müssen:

  • Halluzinationen: LLMs „erfinden" regelmäßig Fakten, die plausibel klingen, aber falsch sind — zum Beispiel frei erfundene Quellenangaben, nicht existierende historische Ereignisse oder falsche Berechnungen. Dies geschieht, weil das Modell nicht „weiß", was wahr ist, sondern vorhersagt, was statistisch wahrscheinlich klingt.
  • Kein echtes Verständnis: LLMs verarbeiten Sprache als statistische Muster. Ob sie dabei echtes „Verstehen" entwickeln oder nur sehr überzeugend Verständnis simulieren, ist Gegenstand intensiver wissenschaftlicher Debatte.
  • Verzerrungen (Bias): Da die Trainingsdaten das Internet widerspiegeln, übernehmen LLMs auch gesellschaftliche Vorurteile, Stereotypen und kulturelle Einseitigkeiten.
  • Kein aktuelles Wissen: Das Wissen eines LLM endet mit dem Trainingszeitraum. Ereignisse nach dem letzten Training sind dem Modell unbekannt — es sei denn, es wird durch Suchergebnisse oder andere externe Quellen ergänzt (Retrieval-Augmented Generation, RAG).
  • Datenschutzrisiken: Alles, was Nutzer in ein KI-Tool eingeben, kann potenziell zum weiteren Training verwendet werden. Persönliche Daten, Schularbeiten oder vertrauliche Informationen sollten nie unbedacht geteilt werden.

Für den Unterricht: Ein zentrales Lernziel im Umgang mit generativer KI ist die Fähigkeit, KI-generierte Inhalte kritisch zu prüfen. Schülerinnen und Schüler sollten lernen, Quellen zu verifizieren, Ergebnisse zu hinterfragen und die Grenzen der Technologie zu verstehen — nicht als Angstmacherei, sondern als Ausdruck mündiger Medienkompetenz.

AI4K12 — Five Big Ideas der KI-Bildung

Die AI4K12-Initiative (Touretzky, Gardner-McCune, Martin & Seehorn) hat fünf große Leitideen formuliert, die beschreiben, was jeder Mensch über KI wissen sollte. Dieses Rahmenwerk bildet die wissenschaftliche Grundlage unserer Workshops und Unterrichtsbausteine.

Perception
Wahrnehmung

  • Computer nehmen die Welt mit Sensoren wahr (Kameras, Mikrofone, Beschleunigungssensoren)
  • Sensorische Daten müssen in digitale Repräsentationen umgewandelt werden
  • KI-Systeme können Gesichter, Sprache, Gesten und Objekte erkennen
  • Wahrnehmung ist fehlbar: Lichtverhältnisse, Rauschen und Mehrdeutigkeiten führen zu Fehlern

Representation & Reasoning
Darstellung & Schlussfolgerung

  • KI-Agenten speichern Wissen in internen Modellen (Wissensgraphen, Entscheidungsbäume, neuronale Netze)
  • Die Wahl der Wissensrepräsentation beeinflusst, was die KI leisten kann und was nicht
  • Algorithmen wie Suche, Planung und logisches Schließen ermöglichen Entscheidungen
  • Jede Darstellung ist eine Vereinfachung — und damit eine potenzielle Fehlerquelle

Learning
Lernen

  • Computer können aus Daten lernen, ohne explizit programmiert zu werden
  • Supervised, Unsupervised und Reinforcement Learning als Hauptparadigmen
  • Die Qualität und Menge der Trainingsdaten bestimmt die Leistungsfähigkeit
  • Trainingsdaten können Verzerrungen (Bias) enthalten und dadurch unfaire Ergebnisse produzieren

Natural Interaction
Natürliche Interaktion

  • KI-Systeme interagieren mit Menschen über Sprache, Bilder, Gesten und Berührung
  • Natürliche Sprache ist mehrdeutig — Sarkasmus, Kontext und Kultur erschweren das Verstehen
  • Chatbots, Sprachassistenten und Avatare erzeugen den Eindruck eines Gegenübers
  • Transparenz darüber, dass man mit einer KI interagiert, ist eine ethische Grundforderung

Societal Impact
Gesellschaftliche Auswirkung

  • KI kann Menschen helfen (Medizin, Barrierefreiheit, Bildung), aber auch schaden (Überwachung, Manipulation, Diskriminierung)
  • Algorithmische Entscheidungen betreffen zunehmend Lebenschancen (Bewerbungen, Kreditvergabe, Justiz)
  • KI verändert Berufsbilder und Arbeitsmärkte — Anpassung und lebenslanges Lernen werden wichtiger
  • Demokratische Gesellschaften müssen entscheiden, wie sie KI regulieren und gestalten wollen

In der Praxis: Die Five Big Ideas der AI4K12-Initiative sind kein abstraktes Theoriemodell, sondern ein konkreter Leitfaden für den Unterricht. In unseren Workshops greifen wir alle fünf Leitideen altersgerecht auf — vom Unplugged-Sortierexperiment in der Grundschule (Big Idea 3: Learning) bis zum Hackathon-Projekt zu algorithmischer Fairness in der Oberstufe (Big Idea 5: Societal Impact).

KI und Ethik

Künstliche Intelligenz ist nicht neutral. Jedes KI-System spiegelt die Werte, Vorurteile und Entscheidungen der Menschen wider, die es entwickelt, trainiert und einsetzt haben. KI-Ethik beschäftigt sich mit der Frage, wie wir sicherstellen können, dass KI-Systeme fair, transparent, sicher und im Einklang mit menschlichen Grundrechten arbeiten.

Bias — Vorurteile in KI-Systemen

Bias (Verzerrung) entsteht, wenn Trainingsdaten oder Modellentscheidungen systematische Ungleichheiten aufweisen. Bekannte Beispiele:

  • Gesichtserkennungssysteme, die bei dunkelhäutigen Personen und Frauen signifikant schlechtere Erkennungsraten haben (MIT-Studie „Gender Shades", 2018).
  • Bewerbungsfilter bei Amazon, die Frauen systematisch benachteiligten, weil das System aus historischen (männlich dominierten) Einstellungsdaten gelernt hatte.
  • Risikobewertungssysteme in der US-Justiz (z.B. COMPAS), die afroamerikanische Angeklagte als rückfallgefährdeter einstuften als weiße Angeklagte — bei gleicher Faktenlage.
  • Bildgeneratoren, die bei Eingaben wie „CEO" überwiegend weiße Männer erzeugen und damit Stereotypen visuell verstärken.

Bias ist kein Programmfehler im klassischen Sinne — er entsteht, weil KI-Systeme Muster in historischen Daten lernen, und diese Daten spiegeln bestehende gesellschaftliche Ungleichheiten wider. Das Erkennen und Reduzieren von Bias ist eine der größten Herausforderungen der KI-Forschung.

Fairness und Transparenz

Algorithmische Fairness bedeutet, dass KI-Systeme Menschen nicht aufgrund von Merkmalen wie Geschlecht, Hautfarbe, Alter oder Herkunft benachteiligen dürfen. In der Praxis ist das komplizierter, als es klingt: Es gibt verschiedene mathematische Definitionen von Fairness, die sich gegenseitig widersprechen können. Ein System, das nach einer Definition fair ist, kann nach einer anderen unfair sein.

Transparenz (Explainability oder Erklärbarkeit) bedeutet, dass nachvollziehbar sein muss, warum eine KI eine bestimmte Entscheidung getroffen hat. Bei einfachen Modellen (z.B. Entscheidungsbäumen) ist das möglich. Bei tiefen neuronalen Netzen mit Milliarden Parametern ist die Entscheidungsfindung häufig eine „Black Box" — selbst die Entwickler können nicht immer erklären, warum das Modell eine bestimmte Antwort gibt.

Datenschutz

KI-Systeme sind datengetrieben — und genau das macht sie aus Datenschutzperspektive besonders sensibel. Zentrale Fragen sind:

  • Welche personenbezogenen Daten fließen in das Training ein, und haben die Betroffenen dem zugestimmt?
  • Können KI-Modelle personenbezogene Daten „auswendig lernen" und bei Anfragen wiedergeben (Memorization-Problem)?
  • Wer hat Zugriff auf die Eingaben, die Nutzer in KI-Tools machen (z.B. Chatverläufe)?
  • Wie werden Daten von Kindern und Jugendlichen besonders geschützt (vgl. Art. 8 DSGVO, Children's Code)?

In unseren Workshops thematisieren wir Datenschutz nicht als abstraktes Rechtsthema, sondern als konkrete Handlungskompetenz: Welche Informationen gebe ich in ein KI-Tool ein? Was passiert mit meinen Daten? Wie schütze ich meine Privatsphäre und die anderer?

EU AI Act — Europas KI-Regulierung

Der EU AI Act, der 2024 verabschiedet und schrittweise ab 2025 in Kraft tritt, ist das weltweit erste umfassende KI-Gesetz. Er verfolgt einen risikobasierten Ansatz und teilt KI-Systeme in vier Kategorien ein:

  • Inakzeptables Risiko (verboten): Social Scoring, Echtzeit-Gesichtserkennung im öffentlichen Raum (mit Ausnahmen), manipulative KI-Techniken, die Schwächen von Personen ausnutzen.
  • Hohes Risiko (streng reguliert): KI in Bildung, Bewerbungsverfahren, Kreditvergabe, Strafverfolgung und kritischer Infrastruktur. Diese Systeme müssen strenge Anforderungen an Transparenz, Datenschutz, menschliche Aufsicht und Dokumentation erfüllen.
  • Begrenztes Risiko (Transparenzpflichten): Chatbots und generative KI müssen offenlegen, dass sie KI-Systeme sind. KI-generierte Inhalte müssen als solche gekennzeichnet werden.
  • Minimales Risiko (frei nutzbar): Spam-Filter, KI-gestützte Videospiele und ähnliche Anwendungen des Alltags.

Für den Bildungsbereich ist besonders relevant: KI-Systeme, die über Bildungszugang oder -ergebnisse entscheiden (z.B. automatisierte Benotung, Zugangsfilter), werden als Hochrisiko-Systeme eingestuft und unterliegen besonderen Anforderungen. Dies betrifft potenziell auch KI-gestützte Lernplattformen und Bewertungstools in Schulen.

Glossar — Wichtige KI-Begriffe von A bis Z

Die wichtigsten Begriffe rund um Künstliche Intelligenz kurz und verständlich erklärt.

Agent
Ein KI-System, das eigenständig Ziele verfolgen, Entscheidungen treffen und Aktionen in einer Umgebung ausführen kann. KI-Agenten können z.B. im Internet recherchieren, Code schreiben oder Werkzeuge bedienen.
Algorithmus
Eine eindeutige, schrittweise Handlungsvorschrift zur Lösung eines Problems. Vergleichbar mit einem Kochrezept: Wenn man alle Schritte genau befolgt, kommt immer das gleiche Ergebnis heraus.
Backpropagation
Der Algorithmus, mit dem neuronale Netze lernen. Er misst den Fehler am Ausgang des Netzes und leitet diese Information rückwärts durch alle Schichten, um die Gewichte schrittweise zu verbessern.
Bias (Verzerrung)
Systematische Fehler oder Vorurteile in KI-Systemen, die häufig aus unausgewogenen oder historisch vorbelasteten Trainingsdaten entstehen. Bias kann dazu führen, dass bestimmte Personengruppen benachteiligt werden.
Chatbot
Ein Computerprogramm, das in natürlicher Sprache mit Menschen kommuniziert. Moderne Chatbots wie ChatGPT basieren auf Large Language Models und können komplexe Dialoge führen.
Clustering
Ein Verfahren des unüberwachten Lernens, bei dem ein Algorithmus Daten automatisch in Gruppen (Cluster) einteilt, die sich in bestimmten Merkmalen ähneln.
Deepfake
Täuschend echte, KI-generierte Bild-, Video- oder Audioaufnahmen, in denen Personen Dinge tun oder sagen, die sie nie getan oder gesagt haben. Deepfakes stellen eine erhebliche Gefahr für Desinformation und persönliche Sicherheit dar.
Deep Learning
Ein Teilgebiet des maschinellen Lernens, das mit neuronalen Netzen arbeitet, die viele Schichten (daher „deep") besitzen. Deep Learning ermöglicht Durchbrüche bei Bild-, Sprach- und Texterkennung.
EU AI Act
Das 2024 verabschiedete KI-Gesetz der Europäischen Union — die weltweit erste umfassende KI-Regulierung. Es stuft KI-Systeme nach Risikokategorien ein und legt Anforderungen an Sicherheit, Transparenz und menschliche Aufsicht fest.
Fine-Tuning
Die Anpassung eines bereits vortrainierten KI-Modells an eine spezielle Aufgabe oder Domäne durch weiteres Training mit einem kleineren, spezialisierten Datensatz.
Generative KI
KI-Systeme, die neue Inhalte erzeugen können — Texte, Bilder, Musik, Code oder Videos. Beispiele: ChatGPT (Text), DALL-E und Midjourney (Bilder), Suno (Musik).
Halluzination
Wenn ein KI-System überzeugend klingende, aber faktisch falsche Informationen generiert — z.B. erfundene Zitate, nicht existierende Studien oder falsche historische Daten. Halluzinationen entstehen, weil das Modell statistische Wahrscheinlichkeiten und keine Fakten verarbeitet.
LLM (Large Language Model)
Ein sehr großes Sprachmodell, das auf Milliarden von Textdokumenten trainiert wurde. LLMs können Texte verstehen, zusammenfassen, übersetzen, beantworten und generieren. Beispiele: GPT-4, Claude, Gemini, LLaMA.
Maschinelles Lernen (Machine Learning)
Ein Teilgebiet der KI, bei dem Computer aus Daten lernen, anstatt explizit programmiert zu werden. Das System erkennt Muster in den Trainingsdaten und kann diese auf neue, ungesehene Daten anwenden.
Modell
Das Ergebnis eines maschinellen Lernprozesses — eine mathematische Struktur (z.B. ein neuronales Netz mit trainierten Gewichten), die auf Eingaben reagieren und Vorhersagen treffen kann.
Neuronales Netz
Ein Rechenmodell, das aus miteinander verbundenen künstlichen Neuronen besteht, die in Schichten angeordnet sind. Neuronale Netze können komplexe Muster in Daten erlernen und bilden die Grundlage der meisten modernen KI-Systeme.
Parameter
Die trainierbaren Gewichte in einem neuronalen Netz. Große Sprachmodelle haben Hunderte Milliarden Parameter. Mehr Parameter ermöglichen das Erlernen komplexerer Muster, erfordern aber auch mehr Rechenleistung und Energie.
Prompt
Die Eingabe oder Anweisung, die ein Nutzer an ein KI-System gibt. Die Qualität des Prompts beeinflusst maßgeblich die Qualität der Antwort. Prompt Engineering bezeichnet die Kunst, KI-Systeme durch geschickte Formulierungen zu besseren Ergebnissen zu führen.
RAG (Retrieval-Augmented Generation)
Eine Technik, bei der ein Sprachmodell vor der Antwortgenerierung relevante Informationen aus externen Quellen (z.B. Datenbanken, Webseiten) abruft. RAG reduziert Halluzinationen und ermöglicht den Zugriff auf aktuelles Wissen.
Supervised Learning (Überwachtes Lernen)
Lernverfahren, bei dem das KI-System mit Beispieldaten trainiert wird, die jeweils mit der „richtigen Antwort" versehen sind (Labels). Das System lernt, die Zuordnung von Eingabe zu Ausgabe zu verallgemeinern.
Token
Die kleinste Einheit, die ein Sprachmodell verarbeitet. Ein Token kann ein ganzes Wort, ein Wortteil oder ein Satzzeichen sein. Der Satz „Künstliche Intelligenz ist spannend" besteht aus etwa 5–7 Tokens, je nach Modell.
Training
Der Prozess, bei dem ein KI-Modell aus Daten lernt. Dabei werden die internen Parameter des Modells schrittweise angepasst, um Fehler bei der Vorhersage zu minimieren. Training kann Wochen dauern und mit hohen Kosten verbunden sein.
Transformer
Eine 2017 von Google-Forschern vorgestellte Architektur für neuronale Netze, die besonders gut mit sequenziellen Daten (Texte, Zeitreihen) umgehen kann. Der Attention-Mechanismus erlaubt es dem Modell, Zusammenhänge zwischen weit entfernten Textelementen zu erfassen. Transformer sind die Grundlage aller modernen Sprachmodelle (GPT, BERT, Claude, Gemini).
Unsupervised Learning (Unüberwachtes Lernen)
Lernverfahren, bei dem das KI-System Muster und Strukturen in Daten ohne vorgegebene Labels erkennt. Typische Aufgaben: Gruppierung (Clustering), Dimensionsreduktion und Anomalieerkennung.

KI-Wissen in die Praxis bringen?

In unseren Workshops erleben Kinder, Lehrkräfte und Eltern Künstliche Intelligenz nicht nur in der Theorie, sondern begreifen sie durch Mitmachen — altersgerecht, praxisnah und fachlich fundiert.