Newsletter 07/2016

Liebe Leser und Abonnenten,

endlich Sommer! In unserem Sommer-Newsletter bieten wir Ihnen eine Expedition durch die Jahreszeiten zum großen Thema „Kundendaten“. Aus vier unterschiedlichen Blickwinkeln beleuchten wir aktuelle Themen und Herausforderungen auf dem Weg zu einem erfolgreicheren Unternehmen:  die stärkere Fokussierung auf Ihre Kundendaten.

Der Sommer aus dem Blick des Marketings: In der Marketing-Community wird heiß und kontrovers das Thema „Programmatic Advertising“ diskutiert. Entscheidet der Online-Marketer mit seiner Agentur auf welchen Webseiten und Plattformen Online-Banner platziert werden oder tut dies ein Algorithmus vollautomatisch und individuell? Auf Basis der Nutzerdaten und dem Erfolg der entsprechenden Platzierung wird diese dann laufend optimiert. Die Erfolge (30% Marktanteil nach einem Jahr) zeigen auf, welche Mehrwerte mit integriert vorliegenden Daten möglich sind. Unser Artikel „8 Herausforderungen für ein erfolgreiches datenfokussiertes Marketing“ beleuchtet, was es zu meistern gilt und welche Potentiale in einem auf relevanten Kundendaten ausgerichteten Marketing stecken.

Hadoop ist als eine Basistechnologie für Big Data sicherlich noch nicht im Herbst seiner Blüte. Nach mittlerweile vier Jahren können wir hier auf einen großen Erfahrungsschatz zurückgreifen. Der Beitrag „So wird das Potential von Hadoop ausgeschöpft“ zeigt auf, wie im Zusammenspiel von Hadoop mit NoSQL, strukturierte und unstrukturierte Massendaten erfolgreich verarbeitet werden.

Eiskalt läuft es einem den Rücken herunter, wenn man sieht, wie viele Unternehmen noch mit Problemen rund um die Qualität ihrer Kundendaten zu kämpfen haben. Eine kontinuierlich ansteigende Zahl von Kundendaten aus den unterschiedlichsten Systemen hat einige Erfolge der Qualitätsverbesserung dahinschmelzen lassen. Mehr hierzu lesen Sie in unserem Winter-Beitrag „Kundendaten-Bereinigung – Daten werden zu wertvollem Wissen“.

Virtual Reality und Augmented Reality ist aktuell seit zehn Tagen mit „Pokémon Go“ in aller Munde. Die Business-Chancen, die hinter VR/AR stehen, werden hier sehr erfolgreich und plastisch aufgezeigt. Virtual Reality wird 2016 businessrelevant! Sie erinnern sich? Wir haben dies bereits im Frühjahr prognostiziert und eine erste Publikation zu „Virtual Reality Analytics - How VR and AR change Business Intelligence“ unseres Partners Jörg Osarek mit Beiträgen unterstützt. Unter „Aktuelles“ erfahren Sie mehr über „Was bedeuten VR und AR für Customer Data Integration?“ und die modulbasierten VR/AR Trainings.

Wie jedes Jahr haben einige its-peopler wieder mit viel Spaß am NighRun in Frankfurt teilgenommen, wie Sie unseren Impressionen entnehmen können. Unter „Veranstaltungen“ finden sie weitere Details und Links zur „Virtual und Augmented Reality Business Models Training Week“ unseres VR/AR Pioniers Jörg Osarek und die Ankündigung für die DOAG Big Data Days in Nürnberg.

Und trotz der heißen Temperaturen: Ihnen ein erfrischendes Leseerlebnis!

Ihr
Frank Sommerer
Leiter Marketing enterpriser GmbH & Co. KG
Geschäftsführer its-people GmbH

 

Berichte & Informationen

8 Herausforderungen für ein erfolgreiches datenfokussiertes Marketing

Autor: Frank Sommerer, Geschäftsführer its-people GmbH

Das Thema Kundendaten und deren Analyse und Verwertung rückt seit einigen Jahren immer stärker in den Fokus der Marketing-Fachabteilungen. Lösungsanbieter für Digitalmarketing sprechen davon, wie einfach online und offline gewonnene Kundendaten integriert, in Echtzeit analysiert und mit allen im Unternehmen vorliegenden Informationen kombiniert werden können. Und dies alles, um quasi per Mausklick die bestehenden Marketing-Aktionen zu optimieren. Die Zusammenführung von CRM, BI und Webanalyse liefert hier eine realistische Sicht auf den Kunden und ermöglicht Entscheidungen in Echtzeit, die in kanalübergreifenden Marketingkampagnen effizient und erfolgreich umgesetzt werden.

So die Theorie - die Praxis sieht hingegen anders aus: Marketingfachleute und ihre IT-Experten stehen vor einer großen, teils unüberschaubaren Anzahl aus Datenströmen mit unterschiedlichen Datenqualitäten und Software-Schnittstellen. Marketingexperten sind sich zwar einig, dass der Zukunft des Marketings fundierten Daten zugrunde liegen, allerdings ist ihnen auch bewusst, dass die entsprechende Umsetzung einer großen Herausforderung gleichkommt. Sie benötigen die auf das Unternehmen ausgerichtete, datenfokussierte Strategie, passgenaue Lösungen sowie die dafür benötigte Infrastruktur. Daraus leiten sich acht Herausforderungen für ein datenfokussiertes Marketing ab.

1. Verschmelzung der Datenwelten - Data Connectivity

Unternehmen werden zukünftig erfolgreicher agieren können, wenn sie ihre Kunden unabhängig von Kanal und Endgerät auch als Kunde erkennen. Die kanalübergreifenden Informationen dienen dazu, den Kunden und sein individuelles Kauf- und Entscheidungsverhalten zu verstehen.

2. Eine integrierte Gesamtsicht - Digital Intelligence

Web Analytics, Daten-Analyse mit aggregierten Nutzer-Interaktionen und digitale Kampagnen reichen nicht aus, um den Nutzer ganzheitlich zu verstehen und die für ihn maßgebliche Werbebotschaft zu vermitteln. Bei Digital Intelligence stehen die Onlinedaten im Fokus und werden mit den vorhandenen CRM Kundenmerkmalen verknüpft. Es kommen spezielle Analysemethoden zum Einsatz, die es ermöglichen, aus anonymisierten Daten individuelle Ergebnisse für den einzelnen Nutzer zu erhalten und diese in Echtzeit an die digitalen Vermarktungskanäle auszuliefern.

3. Unternehmen benötigen Datenstrategien

Um immer größere Datenbestände mit nebulöser Datenqualität und unklarer Aussagekraft zu vermeiden, ist eine entsprechende Datenstrategie zur erfolgreichen Verwendung der CRM- und Big-Data-Nutzerdaten notwendig. Ziel muss es sein, Transparenz in die Datenströme zu bekommen, um die Synchronisation der Daten entsprechend zu steuern. Da sich Schnittstellen und gelieferte Daten heute deutlich schneller ändern als früher, bedarf es neuer Integrationskonzepte durch die entsprechende Anpassungen erfolgreich und schnell erfolgen können. Unternehmen mit hohem Direktmarketinganteil und einer Vielzahl an Dienstleistern haben hier deutlich mehr Erfahrung, als das Gros der klassischen Markenartikelhersteller.

4. Big Data - Von der Evaluation zur integrierten Nutzung

Nach drei Jahren Big Data ist der Aufbau einer Big-Data-Umgebung heute keine Herausforderung mehr. Viele Unternehmen erkennen die Chance und die damit verbundenen Potentiale für Big Data in der Vermarktung. Sie wissen allerdings noch nicht, über welche konkreten Anwendungsfälle sie das Potential bestmöglich ausschöpfen können.

Für Marketing-Experten besteht heute die Herausforderung darin, gemeinsam mit Datenspezialisten konkrete “Use Cases“ für Kampagnen, Kommunikation und Kundenprofile abzuleiten. Sie müssen die Daten begreifen, korrekt interpretieren und die relevantesten nutzen. Dies ist sehr viel wichtiger, als alles im Blick haben zu wollen und am Ende an der Komplexität und der Menge zu scheitern.

5. Data Scientists

Um den Nutzen der verfügbaren Big Data zu realisieren, indem Daten korrekt analysiert und interpretiert werden, benötigt es einen besonderen Mix an Kompetenzen. Data Scientists (dt. Datenwissenschaftler) nutzen Konzepte und Techniken aus Informatik, Mathematik und Statistik in Kombination mit entsprechender Fachkompetenz zur korrekten Interpretation der Daten. Dies geschieht mit dem Ziel, aus Informationen spezifisches Wissen zu generieren. Das Ergebnis sind individuelle, auf das Unternehmen zugeschnittene Kundenprofile, Prognosesysteme und Erklärungsmodelle.

6. Chief Data Officer (CDO)

Bei Unternehmen, deren Geschäftsmodell stark auf Digitalisierung ausgerichtet ist, wurde die Position des CDO geschaffen. Dies ist eine zentrale Verankerung des Daten-Managements, um übergeordnet alle Unternehmensbereiche auf den Kunden und die integrierte Bereitstellung der relevanten Informationen auszurichten. Eine weitere Aufgabe dieser Position ist, die digitalen Geschäftsmodelle durchgehend zu implementieren und nicht identifizierte Dateninformationen zu gewinnen.

7. Datenfokussiertes Marketing - Gefahr der Überforderung

Den Marketing-Bereichen stehen heute eine Vielzahl von Daten zur Verfügung, doch erst die richtige Information zum passenden Zeitpunkt, stellt den eigentlichen Wert der Daten dar.

Ein Überangebot an Informationen kann schnell zu falschen Interpretationen und Entscheidungen führen. Vielen Unternehmen fehlt die Kompetenz, die Daten richtig zu analysieren, auszuwerten und zu interpretieren. Bereitgestelltes Kundenwissen aus Kundendaten sollte zukünftig für Marketing-Entscheider ein wichtiger Baustein in ihrem Strategieportfolio sein. In den USA setzen viele Marketer ihren Fokus auf Daten und Analytics, deutsche Marketing-Fachleute sehen ihre Kernkompetenz noch zu stark im kreativen Umfeld.

8. Von datenorientiert zu Datendominanz

Wenn man die bisherige Entwicklung der digitalen Wirtschaft und die Dominanz amerikanischer datenbasierter Unternehmen sieht, dann wird datenorientiertes Handeln in Zukunft nicht mehr genügen. Ein Umschwung hin zur Datendominanz steht bevor. Die konsequente Umsetzung dieses Prinzips wird zu beträchtlichen Veränderungen in der Unternehmensstruktur und zu Kompetenzverschiebungen im Management führen. „Datendominiert zu handeln wird zur Voraussetzung, um nicht auf der Strecke zu bleiben", so eine Prognose.

Die Erfahrungen der letzten Jahre zeigen deutlich, das Big Data herausfordernder ist als viele Marketing-Experten erwartet haben. Es gibt einige vielversprechende Erfolge, doch die meisten Unternehmen kämpfen mit einer nicht-integrierten Kundendatenwelt und evaluieren Lösungen, die nur einzelne Aspekte abdecken.

Die Anwendungen eines Lösungsanbieters werden daher nie eine Gesamtsicht und eine Gesamtarchitektur abbilden können. Umso wichtiger ist es daher, diese Herausforderungen anzunehmen, Digitalkompetenzen zu bündeln und die entsprechenden Weichen zu stellen.

So wird das Potenzial von Hadoop optimal ausgeschöpft

Autor: Frank Sommerer, Geschäftsführer its-people GmbH

Die Entwicklung von Hadoop wurde ursprünglich durch Unternehmen wie Google® und Yahoo!® getragen, um Big Data in älteren RDBMS oder Data Warehouses verarbeiten zu können. Bisher gibt es allerdings nur wenige Hadoop basierte Anwendungen in Produktionsumgebungen. Viele heutige Hadoop Vorhaben sind daher Pilotprojekte.

Das Dateisystem von Hadoop unterstützt eine Vielzahl von Datentypen und eignet sich somit hervorragend für Big Data-Projekte. Die Lösung ist jedoch kein Allheilmittel für Unternehmen, die nach einer Datenorientierung streben. Manchmal bringt Hadoop zusätzliche Herausforderungen mit sich. Daher fällt es vielen schwer, ohne Hilfe von IT-Mitarbeitern und ohne erheblichen Zeit- und Kostenaufwand das volle Potenzial von Hadoop auszuschöpfen.

Bisher haben Anbieter Hadoop als Datenquelle positioniert, die in ein relationales Datenbank-Management-System oder ein Data Warehouse einfließt. Dabei ist die Lösung mit Hilfe einer NoSQl-Datenbank sehr viel einfacher – beispielsweise mit der NoSQL-Datenbankplattform MarkLogic mit Enterprise-Funktionen.

MarkLogic ist die einzige NoSQL-Datenbank, die Enterprise Ansprüche erfüllt, wie z. B. ACID Transaktionen, Hochverfügbarkeit, tiered Storage und einiges mehr. Diese Datenbank der neuen Generation basiert auf einem flexiblen Datenmodell. Sie kann alle heutigen Daten (strukturierte und unstrukturierte) speichern, verwalten und durchsuchen, ohne Abstriche bei der Ausfallsicherheit oder Konsistenz zu machen. Dank dieser Merkmale eignet sich MarkLogic ideal für die einfache und schnelle Integration heterogener Daten.

Optimierung von Hadoop durch den Einsatz von MarkLogic

MarkLogic kann mit jeder Hadoop Distribution verwendet werden und ermöglicht es Administratoren, die vorhandene Infrastruktur zu nutzen. Die MarkLogic Enterprise NoSQL-Plattform ist nicht von Hadoop abhängig, sondern ergänzt diese in einem Big Data-Ökosystem. MarkLogic arbeitet mit den beiden Kernelementen von Hadoop: Hadoop Distributed File System (HDFS) und MapReduce. Dies sind die ausgereiftesten Komponenten des Ökosystems und bilden die Grundlagen für alle anderen Bestandteile.

HDFS bietet Speicher für Daten, die für herkömmliche Datenbanken oder Data Warehouses zu groß oder zu unvorhersehbar sind. HDFS ist zwar nicht für Echtzeitzugriffe auf Daten konzipiert, für die Indexe und interaktive Abfragefunktionen erforderlich sind, stellt aber eine kostengünstige Möglichkeit zum Speichern von Daten dar, die anderenfalls gelöscht oder auf Band archiviert werden müssten.

MapReduce führt verteilte Berechnungen auf Grundlage der in HDFS gespeicherten Daten aus und eignet sich für die Batch-Verarbeitung, bei der die Analyse oder Anreicherung von riesigen Mengen von Datensätzen erforderlich ist. Doch was tun, wenn Benutzer schnellen Zugriff auf bestimmte Daten fordern oder wenn granulare Aktualisierungen der Daten in Echtzeit nötig sind? Wenn es um umgehende Analysen und Benachrichtigungen zu Betrugserkennung, Notfallmanagement, Risikominimierung oder -beurteilung geht, können sie es sich nicht leisten, auf den Abschluss eines MapReduce-Vorgangs zu warten.

Bewältigung komplexer Herausforderungen im Datenbereich

Hadoop erfüllt drei Hauptaufgaben:

  • Verarbeitung: kostengünstig, jedes beliebige Datenformat
  • Speicherung: Aufbewahrung der Rohdaten für die Analyse ohne Verlust des ursprünglichen Kontexts
  • Analytik: umfassende Analysen auf Grundlage von Roh- oder aufbereiteten Daten

Doch Hadoop allein ist nicht in der Lage, Echtzeitanwendungen bereitzustellen oder die in modernen Unternehmen erforderliche Data Governance zu gewährleisten.

MarkLogic optimiert Hadoop dank der Leistungsfähigkeit von Enterprise NoSQL. Das Produkt ist eine bewährte Datenbanktechnologie, die Unternehmen die Vorteile von NoSQL bietet.

MarkLogic wurde 2001 auf den Markt gebracht, um Organisationen das format- und strukturunabhängige Speichern, Verwalten, Abfragen und Durchsuchen von Daten zu ermöglichen.

Die Plattform bietet die folgenden NoSQL-Eigenschaften:

  • flexibel, mit einem Schema-agnostischen, dokumentenzentrierten Datenmodell (JSON, XML, Text, Binärdateien, RDF-Tripel)
  • schnell, in C++ implementiert, für moderne E/A-Systeme optimiert
  • skalierbar, mit einer verteilten Shared-Nothing-Architektur und nicht blockierenden Lesevorgängen

Darüber hinaus bietet MarkLogic Hochverfügbarkeit, Transaktionskonsistenz, automatisches Failover und Replikation. Als Enterprise NoSQL-Datenbank-Plattform wurde MarkLogic speziell für die Unterstützung von unternehmensweit eingesetzten Anwendungen konzipiert und verfügt über die folgenden Funktionen:

  • ACID-Transaktionen (atomic, consistent, isolated, durable; atomar, konsistent, isoliert, dauerhaft) wie bei relationalen DBMS
  • höchste Sicherheitsanforderungen wie granulare Berechtigungen, rollenbasierte Sicherheit, Sicherheit auf Dokumentenebene, Berechtigungen auf Dokumentenebene und HTTPS-Zugriff
  • Echtzeit-Indexierung, Volltextsuche, Geodaten-Suche, semantische Suche und Benachrichtigung
  • bewährte Zuverlässigkeit und Verfügbarkeit, über 500 implementierte betriebskritische Projekte bei Regierungsbehörden und in Unternehmen aus den Bereichen Medien, Finanzdienstleistung, Energie usw.

Echtzeitanwendungen – MarkLogic für Hadoop bestens geeignet

HDFS ist zwar ein kostengünstiges Dateisystem, verfügt jedoch über keine Indexe. Das bedeutet, dass jeder Datensatz in einer großen Datei durchsucht werden muss, um einen bestimmten Datensatz zu finden. Bei großen Analyseprojekten, bei denen jeder Datensatz gelesen wird, ist dies möglicherweise akzeptabel. Doch Abfragen mit geringer Latenz und granulare Aktualisierungen, wie sie beispielsweise für Echtzeit-Workloads und Echtzeit-Endnutzer-Anwendungen erforderlich sind, lassen sich damit nicht realisieren. Hierfür benötigt man eben eine Datenbank. Hadoop alleine ist für diese Art von Workload schlicht und einfach nicht geeignet.

Kundendaten-Bereinigung – Daten werden zu wertvollem Wissen

Autor: Sven Bosinger, its-people Portfolio Manager BI & DWH

Es ist erstaunlich, dass das Thema Kundendaten-Qualität immer noch zu einem der Top-Themen in der IT zählt. Dieses zieht sich seit nunmehr über 25 Jahren durch die Systeme und ist noch lange nicht zu einem befriedigenden Abschluss gelangt. Daher lohnt es sich auch jetzt, in Zeiten von Big Data und Advanced Analytics, wieder diese Problematik zu beleuchten.

Big Data lebt, zumindest bei nicht technischen Daten (Internet of Things), von dem Versprechen der Individualisierung von Massendaten. Das bedeutet, im Gegensatz zu den klassischen Data Warehouse Ansätzen, die mit Clustering und Segmentierung Gruppen von gleich zu behandelnden Kunden zu identifizieren versucht, soll mit den ungleich größeren Datenmengen im Big Data, der Kunde als einzelnes Individuum erfasst, vermessen und marketing-technisch bearbeitet werden. Das Ziel ist es für ein Unternehmen, egal ob Onlineshop, Versicherung oder Autohersteller, dass maßgeschneiderte Angebot für einen dedizierten Kunden zu finden. Dies scheitert allerdings grandios, wenn man die ureigensten Kundeninformationen wie zum Beispiel Name, Geschlecht und Adresse datentechnisch dabei nicht im Griff hat!

Die Ursachen aller Kundendaten-Qualitätsprobleme liegen in der Quelle: der Datenerfassung.

Hierbei kommt es klassischerweise zu folgenden Fehlern:

  • Fehlende Angaben:
    Die Kundeninformationen werden nicht vollständig erfasst. Das ist meist darin begründet, dass die Felder der Eingabemasken, in denen die Kundeninformationen erstmalig erfasst werden, nicht genügend auf Vollständigkeit und Korrektheit überprüft werden

  • Abweichende Schreibweisen:
    Der Klassiker ist hier der Umlaut, München und Muenchen ist zwar fachlich, aber nicht technisch gleich

  • Widersprüchliche Angaben:
    Die Postleitzahl passt nicht zur Stadt oder die Hausnummer existiert in der Straße nicht. Alles Fehler, die auf ungenügende Prüfungen bei der Eingabe deuten

  • Dubletten:
    Diese können durch obigen Fehler entstehen, oder aber durch die Erfassung des Kunden in unterschiedlichen Systemen mit unterschiedlichen Eingaben. Die Erfassungssysteme sind hierbei nicht ausreichend integriert

  • (Familien)-Cluster:
    Zwei oder mehr Personen werden nicht als zu einem Haushalt gehörend identifiziert. Oder der umgekehrte Fall: zwei namensähnliche Bewohner einer Adresse werden fälschlicherweise zu einem Haushalt gezählt

  • Veraltete Daten:
    Umzüge, Namensänderungen usw. sind dem Unternehmen nicht bekannt und führen zu Dubletten oder ungültigen Daten

Die gravierendsten Folgen von derartigen Qualitätsproblemen sind:

  • Rechnungen können nicht zugestellt werden
  • Werbemittel werden unnötig mehrfach versandt
  • Der Kunde fühlt sich nicht adäquat angesprochen

Die Lösung all dieser Probleme liegt idealerweise dort, wo sie auch entstehen: in den Systemen, die den Kundenerstkontakt managen. Leider kann aber diese Forderung meist nicht umgesetzt werden. Zum einen treten die Probleme in der Regel nicht in den Systemen selbst auf, sondern erst in den nachgelagerten Verarbeitungsprozessen oder den BI-Systemen. Hierbei spielt die Frage der Zuständigkeit eine große Rolle.

Zum anderen gibt es technische Restriktionen, die es nicht erlauben, dass die Erfassungssysteme ausreichend miteinander oder auch mit einem klärenden Drittsystem kommunizieren. Den für BI-verantwortlichen Abteilungen bleibt meist nichts anderes übrig, als diese Probleme im Rahmen ihrer ETL-Aktivitäten zu lösen. Leider wird hierbei viel zu wenig auf standardisierte Produkte gesetzt, die zugegebenermaßen preislich recht hoch angesiedelt sind. Viel zu häufig wird versucht, mit Individuallösungen zu arbeiten, die meist daran kranken, dass der zum Vergleich herangezogene Referenz-Datenbestand selbst nicht den Umfang und die Qualität hat, die vonnöten ist. Auch die Algorithmen zum mustertoleranten Vergleich sind bei Individual-Entwicklungen meist weniger ausgeklügelt, als bei Spezial-Produkten.

Eine optimale Kundendaten-Bereinigung besteht aus mindestens zwei Schritten:

  • Adress-Verifikation

Hierbei werden postalische Adressen auf Vollständigkeit, korrekte Schreibweise, Gültigkeit und Akronyme kontrolliert. Fehlende Angaben werden, soweit möglich ergänzt. Wichtig ist hier die Qualität des Referenzdatenbestands.

Beispiel:

  • Namens-/Adress-Vergleich

Beim Namens- und Adressvergleich kann in der Regel nicht auf einen Referenz-Datenbestand zurückgegriffen werden, da es kein Namensverzeichnis der aktuellen Weltbevölkerung gibt und auch kein öffentlich zugängliches Verzeichnis aller Namen in Deutschland. Hier wird von den Werkzeugen her anders vorgegangen. Der Namen und die Namensbestandteile werden in phonetische Strukturen zerlegt. Diese werden dann miteinander verglichen und eine Trefferwahrscheinlichkeit ermittelt. Diese gibt an, mit welcher Wahrscheinlichkeit zwei angegebene Namen in unterschiedlicher Schreibweise, zusammen mit ihrer Adresse identisch sind. Die Genauigkeit der Aussage steigt, je mehr Attribute über den betroffenen Kunden bekannt sind.  Es wird dann ein Schwellwert definiert (z.B. 95%), ab dessen die Gleichheit angenommen wird.

Der Namens-/Adress-Vergleich wird nach der Adress-Verifikation durchgeführt, so dass auf standardisierte Adressen zurückgegriffen werden kann.

Beispiel:

Im Rahmen eines Datenbewirtschaftungs-Prozesses müssen alle eingehenden Adress- und Kunden-Daten durch die entsprechende Spezialsoftware geschleust werden. Die Ergebnisse können dann im weiteren Verlauf als Basis verwendet werden.

Im Idealfall werden die Ergebnisse der Kundendaten-Bereinigung an die Quellsysteme zurückgemeldet, so dass auch hier eine Korrektur erfolgen kann.

Zusammengefasst: Eine funktionierende Kundendaten-Bereinigung muss Bestandteil einer funktionierenden BI-Lösung sein. Die Vorstellung nur valide und qualitätsgesicherte Kundendaten aus den Quellsystemen zu bekommen, ist ansonsten in den wenigsten Fällen zu realisieren.

Aktuelles

Was bedeuten VR und AR für Customer Data Integration?

Autor: Jörg Osarek, Partner its-people GmbH

Serviceorientierte Architekturen (SOA) haben die Verbindung unserer Daten gelockert. Die Möglichkeit, sich mit seinem Google oder Facebook Account auf diversen Plattformen zu identifizieren, stellt wieder einen festeren Bezugspunkt für die eindeutige Identifikation einer Person dar. Allerdings ist eines klar geworden: die Vielschichtigkeit der Daten hat in den letzten Jahren durch „mobile internet“ und „location based services“ immens zugenommen. Dieser Trend setzt sich beschleunigt fort.

Durch die Vielzahl unterschiedlichster Anwendungen und anfallender Daten ist es für eine erfolgreiche "Customer Data Integration" erforderlich geworden, Ontologien bei der Datenbeurteilung heranzuziehen, um deren Semantik zu klären, bevor man sie integriert. In diversen Quellen können Informationen mit gleichem Namen nämlich völlig unterschiedliche Bedeutungen haben. Daher wird es immer wichtiger, Daten nicht nur zu integrieren, sondern auch sich die Quellen dazu zu merken und zu historisieren. Dies ist nötig, um ggf. gemachte Fehler bei der Integration wieder rückgängig machen zu können, ohne dabei die Daten zu zerstören. Ein weiterer, beobachtbarer Trend ist die Individualisierung der Datenstrukturen an einer Person, da immer mehr Kombinationsmöglichkeiten unterschiedlicher Datenquellen aus verschiedenen Applikationen existieren (kartesisches Produkt).

Mit den nächsten Wellen immersiven Computings kommen nun eine Unmenge weiterer Datenströme hinzu, wie dem Erleben aus Experiences in Virtual Reality (VR) und Augmented Reality (AR). Dies verwandelt das gerade etablierte Themenfeld Big Data in Gigantic Data (GiganData).

Vor einer Integration und Nutzung von Kundendaten ist es zunächst einmal hierbei wichtig, gesammelte Messdaten (Position, Rotation, Speed) zu interpolieren, um die Datenmenge zu reduzieren und sie zu interpretieren. So zum Beispiel: "Der Nutzer hat 5 Sekunden das rote Auto angeschaut, dabei Freude empfunden, Herzfrequenz erhöht." Schritt für Schritt übernehmen Algorithmen der „Künstlichen Intelligenz“ solche Aufgaben, z.B. NeuralTalk 2.

Weshalb eine solche semantischen Interpretation keine Science Fiction mehr ist, sondern nur noch lineare Weiterentwicklung bzw. Integration heute am Markt befindlicher Technologien, können Sie am 05. September 2016 in Frankfurt während des ersten Trainingstages der "Virtual and Augmented Reality Business Models Training Week" erfahren.  

Sie erhalten eine umfassende Vertiefung des Themas aus Business-Sicht. Sie erfahren, wie Sie branchenunabhängig VR/AR zur Unterstützung Ihres Business nutzen und einen entscheidenden Wettbewerbsvorteil daraus schmieden können.

Die weiteren Tage der Trainingswoche werden dann die Themen dVR/AR Analytics, VR/AR User Experience Design, VR/AR im Marketing, Public Relations und Journalismus beleuchten.

Nähere Informationen zur Veranstaltung finden Sie dazu hier

Über Jörg Osarek: Das its-people Gründungsmitglied Jörg Osarek ist Herausgeber des Buchs: "Virtual Reality Analytics" und VR/AR Business Pionier. Seit 2012 ist er auf VR und AR fokussiert und international für Kunden und mit Vorträgen und Keynotes unterwegs, um Business-Chancen aufzuzeigen und für VR/AR Herausforderungen zu sensibilisieren.

Partnerschaften

Expertenwissen kurzfristig verfügbar!

IT-Experte im Bereich Oracle Datenbanken Administration sucht neue Herausforderung

Matthias Baumann ist bereits seit vielen Jahren im Bereich Oracle Datenbanken unterwegs und verfügt über weitreichende Erfahrung des Fachgebietes der Oracle Datenbankadministration (RAC, DataGuard und Performance Tuning). Im Laufe seines Berufslebens war er dabei mehrfach in langfristigen Einsätzen im Enterprise-Umfeld bei großen international tätigen Unternehmen eingesetzt und konnte so seinen Erfahrungsschatz immer weiter ausbauen. Matthias Baumann ist "Oracle Certified Professional" für 10g und 11g sowie "Oracle Certified Expert" für Performance Tuning (OCE).

Aufgrund seiner langjährigen Projekterfahrung gelingt es im stets, sich schnell in Projekt-Teams zu integrieren und in der Zusammenarbeit neue Lösungen zu erarbeiten oder Probleme zu beheben. Er ist dabei stets anerkannter, kompetenter Ansprechpartner und sein Engagement sowie seine Arbeitsergebnisse finden die volle Anerkennung.

Sichern Sie sich das Engagement von Matthias Baumann und kontaktieren Sie uns direkt unter frankfurt@its-people.de!

Gerne erhalten Sie dort weitergehende Informationen über ihn und natürlich eine solide Einschätzung von uns zu Ihrem anstehenden IT-Projekt!

Interner Partner

Wir freuen uns, Ihnen Maria Monaco als neue Kollegin hier vorzustellen. Sie startete zum 01.07.2016 im Bereich Location Management und Marketing bei der its-people GmbH.

Maria Monaco begann ihre berufliche Laufbahn bei der UPS Supply Chain Solutions als „Solutions Analyst EMEA“ und befasste sich in dieser Position mit der Analyse und Implementierung von Logistiknetzwerken u.a. für IBM / Amsterdam. Es folgte eine mehrjährige selbstständige Periode mit den Schwerpunkten Public Relation, Messe und Event Aktivitäten u.a.  für Mercedes Benz (Rom), BMW (Hamburg), Frankfurter Rundschau, BILD, Masterfoods.

2011 stieg sie dann als „Marcom Manager“ bei der Dimetis GmbH ein. Der Fokus in dieser Funktion lag primär auf der Presse- und Öffentlichkeitsarbeit sowie der Ausgestaltung von Corporate Identity und Internetpräsenz. 2014 folgte dann die Existenzgründung im Bereich Garten- und Landschaftsbau (Frankfurter Zoo, Campus Westend, EZB).

Seit Anfang Juli unterstützt sie nun die its-people GmbH im Bereich Location Management und Marketing.

Wir freuen uns auf eine gute Zusammenarbeit!

Veranstaltungen

its-people – and you’ll never run alone

Wie jedes Jahr im Sommer haben erneut Hobbyläufer unter der its-people Flagge am diesjährigen IRONMAN NightRun erfolgreich teilgenommen. Alle, und auch die mitgereisten Fans in den Zuschauerreihen, waren wieder mit viel Engagement und Freude an diesem Sportereignis dabei!

Aus Gründen von Terminüberschneidungen und krankheitsbedingt mussten einige unserer Stammläufer dieses Jahr leider kurzfristig absagen. Nichtsdestotrotz konnten wir zwei komplette Staffeln füllen. Die Lösung: einer unserer Langstreckenläufer ist anstelle der vorgesehenen 5 km, dann einfach die Runde 3 x gelaufen, damit die zweite Staffel vollzählig agieren konnte. Das nenne ich realisierte Teamarbeit!

Der Ironman NightRun findet im Vorfeld des Frankfurter IRONMAN Laufs statt. Er ist ein Staffellauf und richtet sich an alle Freizeit- und Hobbysportler. Eine Staffel besteht aus drei Teammitgliedern. Jedes Teammitglied hat eine Strecke von 5 km zurückzulegen. Die Strecke führt in einem Rundkurs vor der Kulisse der Frankfurter Skyline am Main entlang und überquert den Fluss zweimal. Start, Staffelwechsel und Ziel finden am Mainkai/Eiserner Steg statt.

Sport und Spaß ... und gleichzeitig auch noch etwas für einen guten Zweck tun. Das machen die its-peopler sehr gerne!

Die Startgeldeinnahmen des IRONMAN NightRuns kommen 2016 erneut der „Stiftung Sporthilfe Hessen“ zu Gute.

DOAG Big Data Days in Nürnberg am 29.-30. September 2016

Big Data ist nur etwas für Konzerne und Global Player? Lassen Sie sich vom Gegenteil überzeugen. Die Experten der DOAG führen Sie bei den DOAG Big DataDays am 29. und 30. September 2016 in Nürnberg Schritt für Schritt an die Big-Data-Thematik heran. In zahlreichen Vorträgen geben sie wertvolle Tipps zur Verarbeitung und Auswertung großer Datenmengen und zeigen Stärken und Schwächen der verschiedenen Technologien auf.

Aktuelle Projekte zur Big-Data-Verarbeitung im Oracle-Umfeld werden dabei besonders unter die Lupe genommen. Neben der Verarbeitung von Daten aus der Oracle-Datenbank mit Hadoop und den HighLevel-Programmiersprachen Hive und Pig stehen auch das neuere Verarbeitungs-Framework Spark sowie das ältere MapReduce, Big Data in der Cloud sowie IoT und Big Data auf dem Programm. Ein abendliches Get-Together bietet die Möglichkeit, die Themen des Tages in entspannter Runde zu vertiefen und neue Kontakte zu knüpfen.

Nutzen Sie den Frühbucherrabatt bis 1. August 2016 und sichern Sie sich eines der begehrten Tickets! Hier geht es zur Anmeldung


Newsletter 07/2016

Sie möchten den its-people Newsletter nicht mehr erhalten?
Melden Sie sich hier vom Newsletter ab .

Impressum

enterpriser GmbH & Co. KG · Lyoner Straße 44-48 · 60528 Frankfurt
Telefon : +49 69 24751980 · E-Mail: webmaster@its-people.de
Geschäftsführer: Thomas Algermissen, Thomas Kraemer
HRA 42547 - Amtsgericht Frankfurt

Copyright 2015 © enterpriser GmbH & Co KG. Alle Rechte vorbehalten. enterpriser GmbH & Co KG versendet E-Mails nicht unaufgefordert. its-people© und bcs-people©: Dachmarken der enterpriser GmbH & Co. KG