Machine Learning-Algorithmen verstehen: Interaktionseffekte

Machine Learning-Algorithmen zu verstehen ist eine Herausforderung. Mit dem folgenden Text möchte ich einen Beitrag dazu leisten, indem ich ein Spezialthema betrachte: Wie gehen verschiedene Machine Learning-Algorithmen mit Interaktionseffekten um? Folgende Machine-Learning-Algorithmen werden betrachtet: Lineare Regression GAM = Generalized Additive Model KNN = K nächste Nachbarn = k nearest neighbors Ein einzelner Entscheidungsbaum (rpart) Ein … „Machine Learning-Algorithmen verstehen: Interaktionseffekte“ weiterlesen

Regressionsmodelle visualisieren in R: Mit Interaktionseffekten, 3D (ggplot2, plotly)

Regressionsmodelle sind nach wie vor sehr populär in der Statistik, dem Data Mining, Data Science und Machine Learning – das belegen aktuelle Zahlen, die KDNuggets kürzlich via Twitter präsentierte: Heute geht es um Möglichkeiten, solche Modelle mit der frei erhältlichen Software R / RStudio zu visualisieren. Wir nutzen den weit verbreiteten Datensatz mtcars, der in … „Regressionsmodelle visualisieren in R: Mit Interaktionseffekten, 3D (ggplot2, plotly)“ weiterlesen

R Zertifizierung: ggplot2 – 3. Kurs

Kürzlich konnte ich den dritten Kurs zu Hadley Wickhams ggplot2-Paket bei DataCamp abschließen. Diesen empfand ich als etwas Besonderes: bereits nach dem zweiten Kurs ist man in der Lage, eine Vielzahl professioneller Diagramme zu erstellen. Dennoch hat sich diese Vertiefung mehr als gelohnt.   Nach einer kurzen Auffrischung ging es u. a. um folgende Themen: Dichteplots … „R Zertifizierung: ggplot2 – 3. Kurs“ weiterlesen

Diagramme für Präsentationen, Berichte, Abschlussarbeiten: Beispiele mit der freien R-Software (Boxplots, Histogramme, Streudiagramme)

Sind Sie gelangweilt von Standard-Excel-Diagrammen in Präsentationen, Berichten oder Abschlussarbeiten? Hier ein paar Beispiele, die mit der freien Statistik-Software R erstellt wurden, und zwar mit Hadley Wickhams ggplot2-Paket (sofern nicht anders angegeben). Beispiele für Boxplots mit Untergruppen Eine besondere Stärke von R besteht im sog. „faceting“: man kann Diagramme für Untergruppen elegant anordnen. Wer schon mal … „Diagramme für Präsentationen, Berichte, Abschlussarbeiten: Beispiele mit der freien R-Software (Boxplots, Histogramme, Streudiagramme)“ weiterlesen

R Zertifizierung: Machine Learning Toolbox (DataCamp)

Nach einer Phase intensiverer Projektarbeit schaute ich nach längerer Zeit mal wieder bei DataCamp rein: Dort wurde inzwischen das Kursangebot erheblich erweitert. Einer der etwas neueren Kurse heißt Machine Learning Toolbox, rund um das caret-Paket, gelehrt vom Haupt-Entwickler Max Kuhn sowie dem Co-Autor Zachary (Zach) Mayer. Es geht um Supervised Learning, „überwachtes Lernen“: Modelle, die auf eine … „R Zertifizierung: Machine Learning Toolbox (DataCamp)“ weiterlesen

R Zertifizierung: R für SAS / SPSS / Stata Anwender (DataCamp)

Weitere R-Zertifizierung abgeschlossen: R für SAS / SPSS / Stata Anwender. Im Vergleich zu anderen Kursen bei DataCamp war dieser wesentlich umfangreicher, mit insgesamt 21 statt der üblichen drei bis fünf Kapiteln. Für Neueinsteiger bei DataCamp empfehle ich, diesen Kurs früh zu absolvieren, wenn man bereits Erfahrung mit wenigstens einem der Statistik-Pakete SAS, SPSS oder … „R Zertifizierung: R für SAS / SPSS / Stata Anwender (DataCamp)“ weiterlesen

R Zertifizierung: Machine Learning (DataCamp)

Nun ist auch der Machine Learning-Kurs von DataCamp abgeschlossen. Es ging um die drei Themenbereiche Klassifikation, Regression und Clustering. Von maschinellem Lernen wird nur gesprochen, wenn ein Algorithmus ein Modell ermittelt, das auf andere Daten (z. B. künftige Beobachtungen) angewendet werden kann. Deskriptive Statistiken (häufigste Farbe, durchschnittliche Größe) zählen somit nicht zum maschinellen Lernen. Einige Kursinhalte: … „R Zertifizierung: Machine Learning (DataCamp)“ weiterlesen

Zertifizierung Stanford University: Statistical Learning

Kurs abgeschlossen: Statistical Learning, Stanford University. Basiert auf: An Introduction to Statistical Learning: with Applications in R (Springer Texts in Statistics)   Kursinhalte: Einführung, Überblick über Statistisches Lernen Lineare Regression Klassifikation Resampling-Methoden Modell-Optimierung, Modell-Auswahl Nichtlineare Modelle Entscheidungsbäume (tree-based methods) Support Vector Machines Unüberwachtes Lernen (Unsupervised Methods) Sie / Ihre Firma arbeiten mit R? Gern biete … „Zertifizierung Stanford University: Statistical Learning“ weiterlesen

R Anwendungsbeispiel mit Video: R-Funktionen auf Variablenliste anwenden

Wie kann man R-Funktionen auf eine lange Variablenliste anwenden, ohne jeden einzelnen Variablennamen eintippen zu müssen? Das wird am Beispiel eines Datensatzes mit 235 NIR-Wellenlängen (NIR = near infrared spectroscopy) gezeigt. Dazu werden 235 einfache lineare Regressionsmodelle mit jeweils einer unabhängigen (und einer abhängigen) Variable aufgestellt, um dann die R²-Werte grafisch zu vergleichen. Es wird gezeigt, … „R Anwendungsbeispiel mit Video: R-Funktionen auf Variablenliste anwenden“ weiterlesen

Was ist Overfitting? Regressionsanalyse mit R, nichtlineare Terme, Kreuzvalidierung

Lineare Regressionsmodelle können mit Hilfe von Polynomen auch nichtlineare Zusammenhänge abbilden. Die Modellanpassung im Sinne von R² und korrigiertem R² kann dadurch erheblich steigen. Doch ist ein solches Modell tatsächlich „besser“ als ein einfacheres? Ein Praxistest wäre, die Modellgleichung auf andere Daten anzuwenden. Oft stehen jedoch keine neuen Daten zur Verfügung, die genau die gleichen … „Was ist Overfitting? Regressionsanalyse mit R, nichtlineare Terme, Kreuzvalidierung“ weiterlesen