Allergic 发表于 2025-3-23 11:19:16

http://reply.papertrans.cn/83/8260/825933/825933_11.png

Instrumental 发表于 2025-3-23 16:48:49

http://reply.papertrans.cn/83/8260/825933/825933_12.png

粗糙滥制 发表于 2025-3-23 19:29:25

Entscheiden und Lernen in einer unbekannten Umwelt,zum einen zielen sie darauf ab, gemachte Erfahrungen so zu verarbeiten, dass sich der Agent unter gleichen Bedingungen künftig besser verhält „modellfreie Methoden“, zum anderen gibt es Ansätze, die darauf abzielen, Modelle, die vorhersagen können, was bei der Auswahl bestimmter Aktionen passieren würde, zu optimieren.

压倒性胜利 发表于 2025-3-24 02:05:51

http://reply.papertrans.cn/83/8260/825933/825933_14.png

Induction 发表于 2025-3-24 04:30:49

,Grundbegriffe des Bestärkenden Lernens,reagent ist und wie er mithilfe seiner „Taktik“ (engl. policy) in einer Umgebung mehr oder weniger intelligentes Verhalten erzeugt. Der Aufbau des Grundmodells des „Bestärkenden Lernen“ wird beschrieben und der Intelligenzbegriff im Sinne einer individuellen Nutzenmaximierung vorgestellt. Außerdem w

Salivary-Gland 发表于 2025-3-24 06:38:00

Optimal entscheiden in einer bekannten Umwelt,keiten berechnet werden kann. Sie lernen den Unterschied zwischen einer off-Policy und einer on-Policy Bewertung von Zustandsübergängen kennen. Es werden die Verfahren der Wertiteration und der iterativen Taktiksuche vorgestellt und in Übungsszenarien mit dem Java Hamster angewendet und ausprobiert.

Grasping 发表于 2025-3-24 10:58:18

Entscheiden und Lernen in einer unbekannten Umwelt,Belohnungen und muss zum einen die Pfade zu diesen Zielen optimieren („Performanz verbessern“), zum anderen aber auch neue Ziele erkunden („Kompetenzen erlangen“). Hierbei muss er einen trade-off zwischen Ausbeutung und Erkundung berücksichtigen. Einerseits muss er den möglichen Lohn bereits entdeck

Cholesterol 发表于 2025-3-24 15:47:30

,Schätzer für Zustandsbewertung und Aktionsauswahl,em Kapitel parametrisierte Schätzer eingeführt, mit denen wir z. B. die Bewertung von Zuständen auch dann abschätzen können, wenn sie nicht in genau gleicher Form zuvor beobachtet worden sind. Im Besonderen wird auf die sogenannten „künstliche neuronale Netze“ eingegangen. Wir werden auch Möglichkei

Scleroderma 发表于 2025-3-24 19:05:04

,Leitbilder in der Künstlichen Intelligenz,tikel der Zeitschrift „Philosophy of Science“ (Rosenblueth et al. 1943). Die Veröffentlichung der drei renommierten Wissenschaftler war dazu geeignet, eine Welle von Diskussionen unter Forschern in vielen Disziplinen anzuregen, darunter Philosophen, Biologen, Neurologen und später auch unter Wissens

挣扎 发表于 2025-3-25 02:02:01

http://reply.papertrans.cn/83/8260/825933/825933_20.png
页: 1 [2] 3 4
查看完整版本: Titlebook: Reinforcement Learning; Aktuelle Ansätze ver Uwe Lorenz Book 20201st edition Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenzier