Aromatic 发表于 2025-3-26 21:01:50

http://reply.papertrans.cn/71/7016/701549/701549_31.png

LANCE 发表于 2025-3-27 04:02:49

https://doi.org/10.1007/978-3-658-42505-0Python; OML; Data Science; Internet of Things; Datenstrom; Echtzeit; Machine Learning; IoT

chronicle 发表于 2025-3-27 08:52:46

http://reply.papertrans.cn/71/7016/701549/701549_33.png

cauda-equina 发表于 2025-3-27 10:23:30

Praxisanwendungen,ng in nationalen und internationalen Statistikinstitutionen evaluiert. Ergänzend werden in Abschn. . ausgewählte Beispiele, die denen der amtlichen Statistik sehr nahe sind, dargestellt. Generelle, für den Praxiseinsatz wichtige Aspekte werden in Abschn. . kurz zusammengefasst.

Pathogen 发表于 2025-3-27 14:22:45

Hyperparameter-Tuning,nn. Neben der Optimierung des OML-Verfahrens ist das mit Sequential Parameter Optimization Toolbox (SPOT) durchgeführte Hyperparameter Tuning (HPT) auch für die Erklärbarkeit und Interpretation von OML-Verfahren von Bedeutung und kann zu einem effizienteren und somit ressourcenschonenden Algorithmus führen („Green IT“).

嘲笑 发表于 2025-3-27 20:34:35

http://reply.papertrans.cn/71/7016/701549/701549_36.png

VEIL 发表于 2025-3-27 22:46:28

,Open-Source-Software für Online Machine Learning, an die sich eine Beschreibung der entsprechenden Pakete anschließt. Anschließend gibt Abschn. . einen vergleichenden Überblick über den Umfang der einzelnen Softwarepakete. Das Kapitel schließt mit einem Vergleich der wichtigsten Programmiersprachen im Bereich Machine Learning (ML) (Abschn. .).

脱离 发表于 2025-3-28 03:30:22

Ein experimenteller Vergleich von Batch- und Online-Machine-Learning-Algorithmen,rliegen, die mit einer Drift versehen sind. Hierfür wird der synthetische Friedman-Drift-Datensatz (siehe Definition .) verwendet. Alle Datensätze wurden mit der .-Methode standardisiert, so dass die Modelle auf Daten mit Mittelwert null und Standardabweichung eins trainiert wurden.

颂扬本人 发表于 2025-3-28 07:03:32

,Initiale Auswahl und nachträgliche Aktualisierung von OML-Modellen,rgessen (katastrophale Interferenz) wird in Abschn. . im OML-Kontext betrachtet: Die kontinuierliche Aktualisierung der OML-Modelle birgt das Risiko, dass dieses Lernen nicht erfolgreich ist, wenn korrekt gelernte ältere Zusammenhänge fälschlicherweise vergessen (entlernt, engl. „de-learned“) werden.

同义联想法 发表于 2025-3-28 10:53:12

http://reply.papertrans.cn/71/7016/701549/701549_40.png
页: 1 2 3 [4] 5
查看完整版本: Titlebook: Online Machine Learning; Eine praxisorientier Thomas Bartz-Beielstein,Eva Bartz Book 20241st edition Der/die Herausgeber bzw. der/die Autor