In diesem Seminar machen sich die Teilnehmer mit den verschiedenen Implementierungs-Strategien für „Big Data“ vertraut und lernen mögliche Einsatzszenarien im Überblick kennen. Darüber hinaus werden praktische Erfahrungen für die Durchführung von „Big Data“-Projekten vermittelt.
Personen, die im Umgang mit Datenbanken und strukturierten Daten vertraut sind, tun sich schwer mit dem Ansatz für „Big Data“, denn Hadoop „tickt“ gänzlich anders als die vertraute relationale Welt. In diesem Abschnitt erfahren Teilnehmer das Wichtigste darüber, was Hadoop von dem klassischen Ansatz unterscheidet.
Von der Sandbox auf dem Notebook bis zu einem global aufgespannten Hadoop-Cluster über mehrere Rechenzentren – alles ist möglich. In diesem Abschnitt erfahren die Teilnehmer Wissenswertes über Hardware-Anforderungen, Sizing und Betriebsaspekte von Hadoop.
Hadoop spielt seine Vorteile aus, wenn große und/oder unterschiedliche Datenmengen mit vertretbarem Aufwand analysiert werden sollen. In diesem Abschnitt lernen die Teilnehmer verschiedene Fragestellungen und die Ansätze, wie sie mit Hadoop beantwortet werden können, kennen.
Vorhersagen aus unterschiedlichsten Daten schnell und zeitnah zu treffen ist eine der wichtigen Möglichkeiten für den Einsatz von Hadoop. In diesem Abschnitt erwerben die Teilnehmer Kenntnisse darüber, welche grundsätzlichen Möglichkeiten bestehen.
In diesem Abschnitt lernen die Teilnehmer die grundsätzlichen Techniken kennen, um die in Texten zum Ausdruck gebrachte Stimmung zu bewerten und wie man Hadoop dafür nutzen kann.
Ein fast schon klassisches Anwendungs-Szenario für Hadoop ist die Analyse von Inhalten aus sozialen Netzwerken. Hier erfahren die Teilnehmer, wie dies praktisch umzusetzen ist.
Die Integration von klassischen Datenbanksystemen und Hadoop ist einfach und schwierig zugleich. In diesem Abschnitt erfahren die Teilnehmer die Gründe dafür.
Geht es um die schnelle Analyse von großen Datenmengen, ist Hadoop erste Wahl. Ist die Frage geklärt, wie „echt“ Echtzeit ist, ist die Wahl der technologischen Mittel (fast) vorherbestimmt. In diesem Abschnitt lernen die Teilnehmer die grundsätzlichen Lösungsansätze kennen.
„Big Data“ stellt für die meisten Anwender Neuland dar, weshalb es immer eine gute Idee ist, diese Technologie zu evaluieren, um praktische Erfahrungen zu sammeln und die richtigen Entscheidungen zu treffen.
In diesem Abschnitt lernen die Anwender die Herausforderungen für einen PoC für und mit „Big Data“ kennen und diskutieren einen Leitfaden für die praktische Umsetzung.
Nicht nur die Technologie ist grundverschieden im Vergleich zu bisherigen Datenbank-Lösungen, auch die Umsetzung im Projekt stellt neue Herausforderungen. Schwerpunkt dieses Abschnittes ist, die Besonderheiten und Unterschiede zu „klassischen“ BI-Projekten herauszuarbeiten und die Teilnehmer für die relevanten Erfolgskriterien zu sensibilisieren.