Künstliche Neuronale Netze In diesem Kapitel werden die weiter oben behandelten einzelnen Perzeptronen nun zusammengesetzt zu einem so genannten künstlichen neuronalen Netzwerk (KNN). qStartseite13. Informatiksysteme1. Künstliche Intelligenz+1. KI - Eine Übersicht+1. KI: Faszination und Ängste+2. Automatisierung und KI+3. Expertensysteme und Maschinelles Lernen+4. Ethische und moralische Aspekte+1. Unbegründbarkeit von KI-Entscheidungen+2. Werbetracking als Quelle für persönliche Daten+3. Zum Weiterhören-2. Überwachtes maschinelles Lernen mit Neuronalen Netzen+1. Neuronen+2. Perzeptron als künstliches Neuron+3. Separationsgerade+4. Perzeptron+5. Maschinelles Lernen: Delta-Regel nach Rosenblatt+6. XOR-Problem-7. Künstliche Neuronale Netze+1. Erweiterung Klassifikation Tiere+2. Forward Propagation+8. Maschinelles Lernen+1. Gradientenabstiegverfahren+2. Backward Propagation+3. Bestärkendes maschinelles Lernen mit Q-Learning+1. Wahrnehmungs-Aktions-Schleife+1. Erkundung: Ein einfaches Computerspiel+2. Fachkonzept: Wahrnehmungs-Aktions-Schleife+2. Hartkodierte Intelligenz+3. Weicher kodierte Intelligenz+1. Die Q-Tabelle+2. Verhalten aus der Q-Tabelle+3. Fachkonzept: Gierig und neugierig+4. Implementation einer neugierigen Strategie+4. Anpassung der Q-Werte+1. Kurzsichtiges Lernen+2. Fachkonzept: Verzögerte Belohnung+3. Implementation+5. Umgang mit Chancen und Risiken+1. Bisheriges Verfahren bei Chancen und Risiken+2. Fachkonzept: Lernrate+3. Implementation+4. Überwachtes maschinelles Lernen mit Neuronalen Netzen (ohne numpy)+1. Biologische Neuronen+2. Einfaches Perzeptron als künstliches Neuron+3. Eine weitere Vereinfachung+4. Schrittweises Verbessern+5. Maschinelles Lernen: Delta-Regel nach Rosenblatt+6. Einfaches Perzeptron in Python+7. XOR-Problem+8. Mehrlagige Perzeptrone+9. Mehrlagige Perzeptrone in Python+10. Fehler-Rückleitung+11. Fehler-Rückleitung in Python