Schulungsübersicht
Einführung
- Überblick über Spark und Hadoop Funktionen und Architektur
- Verstehen von Big Data
- Python Grundlagen der Programmierung
Erste Schritte
- Einrichten von Python, Spark und Hadoop
- Verstehen der Datenstrukturen in Python
- Verstehen der PySpark API
- Verstehen von HDFS und MapReduce
Integrieren von Spark und Hadoop mit Python
- Implementierung von Spark RDD in Python
- Datenverarbeitung mit MapReduce
- Erstellen von verteilten Datensätzen in HDFS
Machine Learning mit Spark MLlib
Verarbeitung von Big Data mit Spark Streaming
Arbeiten mit Recommender Systems
Arbeiten mit Kafka, Sqoop, Kafka und Flume
Apache Mahout mit Spark und Hadoop
Fehlersuche
Zusammenfassung und nächste Schritte
Voraussetzungen
- Erfahrung mit Spark und Hadoop
- Python Programmiererfahrung
Zielgruppe
- Datenwissenschaftler
- Entwickler
Erfahrungsberichte (3)
Die Tatsache, dass wir die meisten Informationen, Kurse, Präsentationen und Übungen mitnehmen konnten, sodass wir sie noch einmal durchgehen und eventuell das Wiederholen können, was wir beim ersten Mal nicht verstanden haben, oder das Verbessern, was wir bereits gemacht haben.
Raul Mihail Rat - Accenture Industrial SS
Kurs - Python, Spark, and Hadoop for Big Data
Maschinelle Übersetzung
Mir hat gefallen, dass es die Grundlagen des Themas vermittelt und gleichzeitig zu ziemlich fortgeschrittenen Übungen vorgeschritten ist. Es bot auch einfache Möglichkeiten, den Code zu schreiben und zu testen.
Ionut Goga - Accenture Industrial SS
Kurs - Python, Spark, and Hadoop for Big Data
Maschinelle Übersetzung
Die Live-Beispiele
Ahmet Bolat - Accenture Industrial SS
Kurs - Python, Spark, and Hadoop for Big Data
Maschinelle Übersetzung