Einfuehrung in KI
Prüfungsvorbereitung EF 26
Im folgenden Abschnitte wird kurz aufgelistet, was für die Probe relevant ist (und v.A. was nicht):
Teil der Probe
- Die im Detail behandelten Algorithmen BFS, DFS (und eingschränkt Greedy-BFS). Ihr solltet die Algorithmen verstanden haben, die Eigenschaften kennen und teile davon implementieren können. Für Greedy-BFS solltet ihr das Konzept verstehen (-> Heuristik), nachvollziehen können (z.B. anhand eines Beispiels) müsste aber keine Implementation kennen.
- Die Theorie-Inhalte dieser Seite zu Arten von Agenten und Umfelden
- Änliche Aufgaben wie im Vorbereitungs-Arbeitsblatt
- Minimax Algorithmus: Auch hier, im Umfang der Vorbereitungsaufgaben. Also Baum zeichnen für ein einfaches Beispiel, Herausfinden wo abgeschnitten werden kann. Rolle der Heuristik verstehen.
Nicht Teil der Probe
Die meisten Theorie-Inhalte aus den Seiten Informierte Suche und die Inhalte aus der Seite Graphen und Bäume, die wir im Unterricht nicht explizit und verieft besprochen haben.
Fazit
Orientiert euch grundsätzlich für die Art der Aufgaben am Arbeitsblatt der letzten Stunde und schaut noch einmal auf die Theorie auf dieser Seite und zu BFS/DFS.
Was ist KI?
Kuenstliche Intelligenz beschaeftigt sich mit der Erstellung von Agenten, die intelligent handeln. Ein Agent ist etwas, das:
- Seine Umgebung durch Sensoren wahrnimmt
- Auf diese Umgebung durch Aktuatoren einwirkt
- Ein Ziel hat, das es zu erreichen versucht
Beispiele fuer KI-Agenten:
- Staubsaugerroboter: Sensoren (Schmutz-Erkennung, Stossstangen), Aktuatoren (Raeder, Sauger), Ziel (Boden reinigen)
- Schachprogramm: Sensoren (Brett-Zustand), Aktuatoren (Zuege ausfuehren), Ziel (Matt setzen)
- Selbstfahrendes Auto: Sensoren (Kameras, Lidar), Aktuatoren (Lenkung, Beschleunigung), Ziel (Ziel sicher erreichen)
Arten von AI-Agenten
Es gibt verschiedene Arten von AI-Agenten, die sich in ihrer Komplexitaet und Funktionsweise unterscheiden:
Einfacher Reflex-Agent
- Verwendet Wenn/Dann-Regeln
- Fuehrt keine Planung durch
- Handelt nach dem YOLO-Prinzip (You Only Live Once) - reagiert nur auf aktuelle Situation
- Beispiel: Ein Thermostat, der die Heizung einschaltet, wenn die Temperatur unter 20 Grad Celsius faellt
Goal-Based Agent (Zielbasierter Agent)
- Hat ein explizites Ziel
- Plant fuer Zielerreichung - ueberlegt sich Schritte im Voraus
- Hat Wissen ueber Umgebung und moegliche Aktionen
- Beispiel: Ein Navigationssystem, das den kuerzesten Weg zum Ziel plant
Nutzenbasierter Agent
- Verfolgt ein Ziel, indem er eine Nutzenfunktion maximiert
- Kann Unsicherheit in der Umgebung beruecksichtigen
- Waehlt nicht nur irgendeine Loesung, sondern die beste verfuegbare
- Beispiel: Ein Schachprogramm, das nicht nur gewinnen will, sondern die beste Position anstrebt
Lernender Agent
- Passt Verhalten durch Erfahrung an
- Kann aus vergangenen Aktionen lernen und sich verbessern
- Beispiel: Ein Spam-Filter, der lernt, welche E-Mails Spam sind
Das Argument des chinesischen Zimmers
Das Argument des chinesischen Zimmers ist ein Gedankenexperiment, das die Frage stellt, ob ein Computer wirklich "denkt" oder nur Symbole manipuliert.
Das Argument besagt: Ein System, das nur Symbole manipuliert, ohne deren Bedeutung zu verstehen, besitzt keine echte Intelligenz. Es folgt lediglich Regeln, ohne zu verstehen, was es tut.
Beispiel: Ein Computer koennte perfekt Chinesisch beantworten, indem er Regeln befolgt, aber versteht er wirklich die Bedeutung der Woerter? Oder manipuliert er nur Symbole nach vorgegebenen Regeln?
Dieses Argument wirft wichtige Fragen ueber die Natur von Intelligenz und Bewusstsein auf.
Arten von Umgebungen
Umgebungen koennen nach verschiedenen Kriterien klassifiziert werden:
Vollstaendig beobachtbar vs. Teilweise beobachtbar
- Vollstaendig beobachtbar: Der Agent kann den gesamten Zustand der Umgebung sehen (z.B. Schachbrett)
- Teilweise beobachtbar: Der Agent sieht nur einen Teil der Umgebung (z.B. Poker, wo man die Karten der Gegner nicht sieht)
Deterministisch vs. Stochastisch
- Deterministisch: Die gleiche Aktion fuehrt immer zum gleichen Ergebnis (z.B. Schach)
- Stochastisch: Aktionen haben zufaellige Ergebnisse (z.B. Wuerfelspiel)
Episodisch vs. Sequentiell
- Episodisch: Jede Episode ist unabhaengig, fruehere Aktionen beeinflussen spaetere nicht (z.B. Bilderkennung)
- Sequentiell: Fruehere Aktionen beeinflussen spaetere Entscheidungen (z.B. Schach, Labyrinth)
Statisch vs. Dynamisch
- Statisch: Die Umgebung aendert sich nicht, waehrend der Agent ueberlegt (z.B. Schach, wenn der Gegner wartet)
- Dynamisch: Die Umgebung aendert sich waehrend der Agent handelt (z.B. Verkehr, andere Autos bewegen sich)
Diskret vs. Kontinuierlich
- Diskret: Endliche Anzahl von Zustaenden und Aktionen (z.B. Schach, endliche Anzahl von Positionen)
- Kontinuierlich: Unendliche Anzahl von Zustaenden (z.B. Robotersteuerung, kontinuierliche Positionen)
Single Agent vs. Multi-Agent
- Single Agent: Nur ein Agent in der Umgebung (z.B. Labyrinth-Loesung allein)
- Multi-Agent: Mehrere Agenten interagieren (z.B. Schach, Verkehr)
Beispiel: Schach-Umgebung
- Vollstaendig beobachtbar
- Deterministisch
- Sequentiell
- Dynamisch (Gegner macht Zuege)
- Diskret
- Multi-Agent
Problemformulierung
Um Probleme mit KI zu loesen, muessen wir sie formal definieren:
Komponenten eines Suchproblems:
- Anfangszustand - Wo wir starten
- Aktionen - Was wir in jedem Zustand tun koennen
- Uebergangsmodell - Was passiert, wenn wir eine Aktion ausfuehren
- Zieltest - Wie pruefen wir, ob wir das Ziel erreicht haben
- Pfadkosten - Wie teuer ist eine Loesung (optional)
Beispiel: Labyrinth-Navigation
- Anfangszustand: Position (0, 0) - obere linke Ecke
- Aktionen: [HOCH, RUNTER, LINKS, RECHTS]
- Uebergangsmodell: Bewege zu benachbarter Zelle, wenn nicht durch Wand blockiert
- Zieltest: Haben wir Position (5, 5) erreicht?
- Pfadkosten: Anzahl der Schritte
Beispiel: 8-Puzzle
Anfangszustand:
md1 2 3 4 5 6 7 8 _Aktionen: Schiebe Stein in leeres Feld (bis zu 4 moegliche Zuege)
Uebergangsmodell: Tausche leeres Feld mit benachbartem Stein
Zieltest: Ist das Brett in der Zielkonfiguration?
Pfadkosten: Anzahl der Zuege