| Cover | 1 |
---|
| Titel | 3 |
---|
| Impressum | 4 |
---|
| Inhaltsverzeichnis | 5 |
---|
| Einleitung | 13 |
---|
| Über die Autoren | 21 |
---|
| Kapitel 1: Einführung: Datenanalytisches Denken | 23 |
---|
| 1.1 Allgegenwärtige Datenerfassungsmöglichkeiten | 23 |
| 1.2 Beispiel: Hurrikan Frances | 25 |
| 1.3 Beispiel: Vorhersage der Kundenfluktuation | 26 |
| 1.4 Data Science, Engineering und datengestützte Entscheidungsfindung | 27 |
| 1.5 Datenverarbeitung und »Big Data« | 31 |
| 1.6 Von Big Data 1.0 zu Big Data 2.0 | 32 |
| 1.7 Daten und Data-Science-Fähigkeiten als strategisches Gut | 33 |
| 1.8 Datenanalytische Denkweise | 36 |
| 1.9 Dieses Buch | 38 |
| 1.10 Data Mining und Data Science | 39 |
| 1.11 In der Chemie geht es nicht um Reagenzgläser: Data Science vs. die Aufgabe des Data Scientists | 40 |
| 1.12 Zusammenfassung | 41 |
| Kapitel 2: Geschäftliche Aufgaben und Data-Science-Lösungen | 43 |
---|
| 2.1 Von geschäftlichen Aufgaben zum Data-Mining- Verfahren | 44 |
| 2.2 Überwachte vs. unüberwachte Verfahren | 49 |
| 2.3 Ergebnisse des Data Minings | 51 |
| 2.4 Der Data-Mining-Prozess | 52 |
| 2.4.1 Aufgabenverständnis | 53 |
| 2.4.2 Datenverständnis | 54 |
| 2.4.3 Datenaufbereitung | 56 |
| 2.4.4 Modellbildung | 57 |
| 2.4.5 Beurteilung | 57 |
| 2.4.6 Deployment | 59 |
| 2.5 Auswirkungen auf das Management des Data-Science-Teams | 61 |
| 2.6 Weitere Analyseverfahren und -Technologien | 62 |
| 2.6.1 Statistik | 63 |
| 2.6.2 Datenbankabfragen | 65 |
| 2.6.3 Data Warehouses | 66 |
| 2.6.4 Regressionsanalyse | 67 |
| 2.6.5 Machine Learning und Data Mining | 67 |
| 2.6.6 Geschäftliche Aufgaben durch diese Verfahren lösen | 68 |
| 2.7 Zusammenfassung | 70 |
| Kapitel 3: Einführung in die Vorhersagemodellbildung: Von der Korrelation zur überwachten Segmentierung | 71 |
---|
| 3.1 Modelle, Induktion und Vorhersage | 73 |
| 3.2 Überwachte Segmentierung | 77 |
| 3.2.1 Auswahl informativer Merkmale | 78 |
| 3.2.2 Beispiel: Merkmalsauswahl anhand des Informationsgewinns | 86 |
| 3.2.3 Überwachte Segmentierung mit Baumstrukturmodellen | 92 |
| 3.3 Segmentierungen visualisieren | 98 |
| 3.4 Bäume als Regelsätze | 100 |
| 3.5 Wahrscheinlichkeitsabschätzung | 101 |
| 3.6 Beispiel: Abwanderungsrate per Entscheidungsbaum ermitteln | 104 |
| 3.7 Zusammenfassung | 108 |
| Kapitel 4: Ein Modell an Daten anpassen | 111 |
---|
| 4.1 Klassifizierung via mathematischer Funktionen | 113 |
| 4.1.1 Lineare Diskriminanzfunktion | 115 |
| 4.1.2 Optimieren der Zielfunktion | 118 |
| 4.1.3 Beispiel: Extraktion einer linearen Diskriminanzfunktion aus Daten | 119 |
| 4.1.4 Lineare Diskriminanzfunktionen zur Beurteilung und zum Erstellen einer Rangfolge von Instanzen | 121 |
| 4.1.5 Support Vector Machines kompakt erklärt | 122 |
| 4.2 Regression via mathematischer Funktionen | 125 |
| 4.3 Wahrscheinlichkeitsabschätzung der Klassenzugehörigkeit und logistische »Regression« | 127 |
| 4.3.1 * Logistische Regression: Technische Details | 131 |
| 4.4 Beispiel: Logistische Regression vs. Entscheidungsbaumverfahren | 134 |
| 4.5 Nichtlineare Funktionen, Support Vector Mach
|