Verbesserung von Klassifikationsverfahren

Informationsgehalt der k-Nächsten-Nachbarn nutzen

de

Éditeur :

Springer Spektrum


Collection :

BestMasters

Paru le : 2015-11-26



eBook Téléchargement , DRM LCP 🛈 DRM Adobe 🛈
Lecture en ligne (streaming)
46,34

Téléchargement immédiat
Dès validation de votre commande
Ajouter à ma liste d'envies
Image Louise Reader présentation

Louise Reader

Lisez ce titre sur l'application Louise Reader.

Description

Dominik Koch weist in seinen Studien nach, dass es mit Hilfe der k-Nächsten-Nachbarn möglich ist, die Ergebnisse anderer Klassifikationsverfahren so zu verbessern, dass sie wieder eine Konkurrenz zu dem meist dominierenden Random Forest darstellen. Das von Fix und Hodges entwickelte k-Nächste–Nachbarn-Verfahren ist eines der simpelsten und zugleich intuitivsten Klassifikationsverfahren. Nichtsdestotrotz ist es in den meisten Fällen in der Lage, ziemlich gute Klassifikationsergebnisse zu liefern. Diesen Informationsgehalt der k-Nächsten-Nachbarn kann man sich zu Nutze machen, um bereits etablierte Verfahren zu verbessern. In diesem Buch werden die Auswirkungen der k-Nächsten-Nachbarn auf den Boosting-Ansatz, Lasso und Random Forest in Bezug auf binäre Klassifikationsprobleme behandelt.
Pages
224 pages
Collection
BestMasters
Parution
2015-11-26
Marque
Springer Spektrum
EAN papier
9783658114756
EAN PDF
9783658114763

Informations sur l'ebook
Nombre pages copiables
2
Nombre pages imprimables
22
Taille du fichier
1884 Ko
Prix
46,34 €