Eine Analytics Grafik mit dem Text Big Data als Newsletter-Bild

Newsletter 02/2016

Liebe Leser und Abonnenten,

in diesem (vom Design leicht modifizierten) Newsletter greifen wir mit interessanten Beiträgen zu BIG DATA - als Technologie und Anwendungsbereich - hochaktuelle Themenbereiche auf. Dabei wollen wir aufzeigen, dass die Technologie hinter BIG DATA enorme Chancen für moderne Business-Lösungen bietet und damit als effizienter Business-Enabler anzusehen ist. Gleichzeitig gilt aber auch, dass moderne Geschäftsmodelle ohne den Einsatz dieser Techniken nicht - oder nur sehr aufwändig - umsetzbar wären.

Lassen Sie sich also inspirieren!

Und Ihnen wie immer: viel Spaß beim Lesen

Thomas Algermissen
Geschäftsführer enterpriser GmbH & Co. KG

Aktuelles

Haben Sie schon Ihre persönliche Hadoop-Instanz?

Autor: Harald Sellmann, Geschäftsführer its-people GmbH

Die Unternehmen rüsten auf und investieren massiv in Digitalisierung und Big-Data. Mit Hadoop, den Tools dazu sowie den Cloud-Technologien ist alles vorhanden, um enorme Datenmengen zunächst nur zu sammeln und für spätere Analysen bereitzustellen. Eine gesunde Portion Paranoia kann helfen, sich die Szenarien für künftige Analysen auszumalen – und als „Datenlieferant“ ebenfalls aufzurüsten?!

Vollständigen Artikel lesen

Driving with Big Data

Autor: Sven Bosinger Senior Professional its-people GmbH

Driving with Big Data oder Was hat autonome Elektromobilität mit Big Data zu tun? IT-Unternehmen wie Google oder Apple arbeiten an Visionen, die die Ausgestaltung des Individualverkehrs revolutionieren könnten. Und somit wird Big Data also einen weiteren Bereich unseres Alltags erobern.

Vollständigen Artikel lesen

Berichte und Informationen

Customer Experience (CX) & Big Data Analytics

Autor: Carsten Frisch, Big Data Experte its-people GmbH

Customer Experience (CX) & Big Data Analytics

oder: Wie mache ich Kunden und mich glücklich? – Teil 2

In meinem letzten Artikel zu dem Thema (Wie mache Kunden glücklich Teil 1) hatte ich geschrieben, dass im Zeitalter der allgemeinen Vernetzung und von Business 4.0 für Unternehmen die wichtige Herausforderung entstanden ist, ihre eigenen Kunden über alle Kommunikations- und Servicekanäle hinweg einheitlich anzusprechen und bedienen zu können.

Wenn man jetzt mal schaut, was tatsächlich in dieser Richtung für Aktivitäten existieren, stellt man dann fest, dass viele Unternehmen auch heute noch keine übergreifende Strategie hierzu entwickelt haben. In der Regel findet man Einzellösungen für bestimmte Teilbereiche, jedoch eher selten eine allgemeine Lösung, welche alle Kanäle umfasst und sich leicht „betreiben“ lässt.

Dennoch: Es gibt sie natürlich auch, die positiven Beispiele. Um diese soll es jetzt gehen.

Lambda Architektur

Wie schafft man also die Möglichkeit, die komplexen Wege des Kunden in seiner Beziehung zu mir als Unternehmen nachzuvollziehen? Und das möglichst in Echtzeit? Eine sogenannte „Lambda-Architektur“! Was ist das genau?

Eine Lambda-Architektur beruht zunächst auf dem Konzept unveränderlicher Daten, was bedeutet, dass

  • Veränderungen an Daten nicht über ein Update sondern als Append erfolgt
  • Jede Veränderung zu einem neuen Datensatz (Faktum) wird, der zum Veränderungszeitpunkt Gültigkeit hat
  • Informationen sich aus den Berechnungen der einzelnen Fakten ergeben. Beispielsweise ist die Anzahl der Klicks in einer Unternehmenswebseite eine Funktion, die die einzelnen „Clicks“ pro Besucher pro Tag zählt. Hier sind die „Clicks“ pro Besucher die Fakten, die Anzahl eine berechnete Information (und Besucher / Zeit Dimensionen)

Man kann sie als eine Architektur zur Massenverarbeitung von Daten beschreiben, die so aufgebaut ist, dass sie Latenz, Durchsatz und Fehlertoleranz in ein vernünftiges Verhältnis bringt. Hierzu werden Echtzeit Streaming Methoden und Batch Methoden gemeinsam eingesetzt und die Daten aus beiden Quellen in einer sinnvollen Art und Weise miteinander verknüpft. 

Eine solche Architektur ermöglicht das Zusammenführen von statischen Daten und Echtzeitdaten z.B. zu einer dynamischen Entscheidungsfindung und lässt sich hervorragend als hybrides Datenbank / Big Data System aufsetzen. Sie besteht typischerweise aus folgenden Ebenen:

  • Batch Layer für die historischen und statischen Daten
  • Speed Layer für die aktuellen und dynamischen Daten
  • Service Layer, der die Analytik bzw. Entscheidungen für die Applikationen liefert und somit deren Backend darstellt

Big_Data_Analytics_2

Sources

Als Quellen müssen natürlich alle Kanäle eingebunden werden. Zusätzlich dazu natürlich auch CRM Daten, transaktionale Daten, Log Dateien der Webserver und was auch immer zur Entscheidungsfindung benötigt wird. Wichtig ist eigentlich nur, dass sich diese Daten entweder klassisch per ETL oder mit geeigneten Streaming Lösungen in die verschiedenen Layer einspeisen lassen. Oder aber, dass sie auch direkt einer Real Time Engine zur Verfügung stehen.

Batch Layer

Der Batch Layer enthält die historischen Daten und nach periodischer Aktualisierung auch alle Daten. Sie können redundant gespeichert sein, wie es typischerweise in einer Data Warehouse Umgebung zu finden ist. Hier werden auf den Daten Fakten genannt, die Aggregationen in Batchläufen berechnet. Neue Daten werden zu den vorhandenen Daten hinzugefügt. Es finden keine Updates statt.

Charakteristisch ist mit hoher Latenz aufgrund der großen Datenmenge zu rechnen. Dafür ist das System aber fehlertolerant aufgrund der redundanten Datenspeicherung.

Speed Layer

Der Speed Layer fängt die hohe Latenz des Batch Layers ab, indem er die heißen Daten, d.h. die jeweils neu hinzukommenden Daten, gesondert vorhält, deren Aggregate berechnet, zwischenspeichert und zur Verfügung stellt. Darüber hinaus soll er die Möglichkeit unterstützen, in Echtzeit Analysen durchzuführen, z.B. über eine Real Time Decisioning Engine, deren Ergebnisse der Servicing Layer dann anbietet.

Servicing Layer

Genauso wie der Speed Layer fängt der Servicing Layer die hohe Latenz des Batch Layers ab. Er speichert hierzu redundant Aggregate wie das in einer klassischen Data Warehouse Architektur etwa in separaten Data Marts geschehen würde. Er stellt die gewünschten Informationen weiteren Systemen bereit.  Diese können dann die Funktionalitäten und Ergebnisse aus dem Servicing Layer und dem Speed Layer benutzen, um daraus dann Antworten oder gesteuerte Aktionen an die Kunden zurückzugeben.

Implementierungvarianten

Für den Batch Layer bietet sich außer einem Data Warehouse mit „klassischem“ ETL in einer relationalen Datenbank auch Hadoop an. In diesem Fall wäre das Prozedere wie folgt:

  • Neue Daten kommen über ETL als Datenablage ins HDFS
  • Berechnungen werden batchorientiert in Hadoop per MapReduce oder in-memory mithilfe der Spark Technologie ausgeführt
  • Zugegriffen wird über den Hive Meta Store, der den perfomanten Zugriff mit Impala, Presto, Spark SQL oder aber herstellerspezifischen SQL on Hadoop Lösungen wie bspw. Oracle Big Data SQL ermöglicht

Den Speed-Layer kann mit einem der vielen Streaming Lösungen wie bspw. Apache Storm oder Flume beladen werden. Hierbei bietet sich wieder HDFS und SQL on Hadoop als Technologie an.

Sehr effizient können die „heißen“ Daten aber auch in NoSQL Datenbanken oder in-memory Datenbanksystemen gespeichert werden. Vorteil ist hier der sehr schnelle Datenzugriff, die Skalierbarkeit und die Sicherheit, die gemanagte Datenbanksysteme out-of-the-box anbieten

Je nachdem, welche der vielen Varianten zur Implementierung man konkret wählt

  • Nur Hadoop
  • Hadoop mit relationaler DB
  • Hadoop mit NoSQL DB oder In-Memory DB
  • Hadoop mit relationaler DB und NoSQL DB oder In-Memory DB

kann man dann den Servicing Layer konzipieren. Hier bietet sich auf jeden Fall wieder der Zugriff mit SQL auf den Batch und den Speed Layer an. Sowohl Hadoop, als auch NoSQL DBs  - was ja nicht NO SQL sondern Not only SQL bedeutet - lassen sich bei Bedarf über SQL einbinden und damit einfach joinen. Analytische Engines oder aber Real-time Engines benötigen in der Regel den sehr schnellen Zugriff auf beide Layer und bieten auch SQL Interfaces hierfür an.

its-people_big_data

Komplexität

Was also hindert Unternehmen (noch), vermehrt solche Systeme aufzusetzen? Die Komplexität!

Ein solches System, welches aus vielen verschiedenen Komponenten besteht die alle orchestriert werden müssen, ist natürlich eine nichttriviale Geschichte. Und es gilt auch hier natürlich der Ansatz – je einfacher man die Architektur gestalten kann umso besser. Der kritischste Teil ist der Speed Layer. Dieser muss richtig getaktet sein und auch in Echtzeit Daten liefern. Kein einfaches Unterfangen.

Schon fertige Lösungen wie „Oracle Real Time Decisions“ nehmen hierbei einen Großteil der Komplexität heraus. Sie können sich direkt in das Streaming der Quellen einklinken und damit quasi als Speed und Servicing Layer in einem agieren, wenn dies gewünscht ist. Die Vorteile einer solchen Lösung liegen auf der Hand.

Resümee

Den Kunden wirklich zu verstehen und so zu bedienen, dass er sich nicht falsch behandelt oder bevormundet fühlt ist eine schwierig zu bewerkstelligende, aber lösbare Aufgabe.

Die hier skizzierte Architektur dient als Blaupause, die konkrete Realisierung kann natürlich auch abweichen. Soweit, so gut.

In einem folgenden Artikel werde ich noch einen Schritt tiefer gehen und die Mechanismen beleuchten, die in Echtzeit kanalübergreifend die richtigen Entscheidungen liefern und dann endlich auch konkrete Systeme die im produktiven Einsatz sind, beschreiben.

Anregungen und Fragen sind wie immer willkommen!

Big Data - Impulse für die Online Vermarktung

Autor: Frank Sommerer, Geschäftsführer its-people GmbH

Big Data - Impulse für die Online Vermarktung

Im Marketing war es schon immer das Ziel, dem Kunden im richtigen Moment, mit den relevantesten Argumenten, das passendste Produkt anzubieten.

Durch die korrekte analytische Interpretation unserer digitalen Fußspuren träumen viele „Marketer“ nun von immensen neuen Absatzchancen, bedingt durch neue Konzepte und Lösungen, die aus den Erkenntnissen der Nutzung dieser Daten basieren. Man liest dazu viel. Die Rede ist oft vom „Gläsernen Kunden“ und von „Daten sind das neue Gold“ für die digitalen Vermarktungsstrategien.

Doch wie sieht die Realität aus?

Welche Erkenntnisse sind heute realistisch möglich?

Welche Lösungsansätze liefern vielversprechende Antworten?

Die aktuellen Hype-Themen sind Customer Journey, Data-Driven Marketing, Marketing Automation, Content Marketing und kundenzentriertes Marketing.

All diese Konzepte basieren auf vier Standfüssen:

  • dem Erkennen des Kunden über alle seine Devices (Mobile, Notebook, PC, TV, ...), die er nutzt
  • dem „single customer view“ über all seine historischen Aktivitäten und Käufe (360° Kundensicht)
  • einer automatisierten Entscheidungslogik (decision hub) für die weitere Interaktion mit dem Kunden und
  • einer Infrastruktur, welche ein unverzügliches Antwortverhalten (real-time) ermöglicht. Lösungen, die innerhalb von Sekundenbruchteilen über eine passende Aktivität entscheiden, z.B. bei einem Mausklick, welche Inhalte in welcher Aufbereitung und welche Werbung dem Nutzer angezeigt werden.

In den USA sind Cross-Channel Vermarktungslösungen mit integrierten Realtime Interaction Management Lösungen (RTIM), die dies alles ermöglichen, bereits Standard.

Wie sieht denn nun die Realität aus?

Wir hinterlassen zwar viele digitale Fußspuren, daraus lassen sich unsere Bedürfnisse und Erwartungen jedoch nur ungenau ableiten. Unsere Entscheidungsprozesse für Käufe sind unterschiedlich und teils auch nicht zeitkonstant. Wenn man sich schnell entscheiden muss, kann sich unser Vorgehen stärker unterscheiden als wenn wir mehrere Wochen Zeit haben.

Dieses kontextbezogene Entscheidungsverhalten bei der individuellen „Customer Journey“ wurde aktuell in der TNS Studie „Connected Life 2016“ analysiert und bestätigt.

Gemäß der Recherche, unterscheidet sich das Verhalten beim Kauf von Routineprodukten unter Zeitdruck und das Verhalten der Kunden mit viel Zeit, erwartungsgemäß stark. Für Nutzer, die unter Zeitdruck agieren, müssen die Produkte gut zu finden und der Bestellprozess einfach und schnell sein.

In Deutschland erfolgen ca. 1/3 der Online-Käufe unter Zeitdruck. Dabei verzichten ca. 50% auf einen Vergleich mit anderen Produkten und fast alle Käufe erfolgen nur über einen Touchpoint. Wenn der Nutzer jedoch für die Auswahl des Zielproduktes entsprechend Zeit hat, nutzt er dagegen oft mehr als 3 Touchpoints (Online, Social, Store, Freunde).

Für die Marketer ist es wichtig, diese kontextbezogene, unterschiedliche Vorgehensweise, bei der Ermittlung der Customer Journey ihrer Kunden zu berücksichtigen. Klar sollte auch sein, dass diese Customer Journey für unterschiedliche Kundensegmente und auch abhängig vom Alter, sehr unterschiedlich sein wird. Durch die Komplexität und der daraus folgenden Vielfalt der unterschiedlichen Customer Journeys, sind heute nur sehr wenig Unternehmen in der Lage, dies zu leisten. Amazon und Apple sind hier führend in der Vermarktung und für ihre Services zu nennen.

Für Big Data in der Vermarktung ergeben sich daraus abgeleitet für den Reifegrad drei Entwicklungsstufen:

  • „Wissen“ - In der ersten Stufe geht es darum, Erkenntnisse zu gewinnen und die Erfahrungen aus Marktforschung und Big Data Analytics kontextbezogen korrekt zu interpretieren. Außerdem an der Customer Journey orientierte, mehrstufige Cross-Channel Kampagnen aufzusetzen, und dabei erste Erfahrungen zu sammeln. Die Erfahrungen sind Basis für stetige Anpassungen und Weiterentwicklungen auf dem Weg zur nächsten Stufe.

  • „Lernen“ – aus den neuen Erkenntnissen entstehen für die Unternehmen laufende Anpassungen zur Optimierung der Vermarktung sowie der Prozesse und Organisation d. h. durch die Erfahrungen ergeben sich nicht nur Optimierungen innerhalb der Marketingbereiche, sondern aufgrund der Erkenntnisse über die Erwartungshaltung der Kunden, entsteht ein Anpassungsdruck für die ganze Organisation.

    Der Kunde erwartet heute stärker individualisierte und personalisierte Angebote. Für einen Servicefall bedeutet dies, dass er zeitnah eine korrekte Antwort unter Berücksichtigung der vorliegenden Historie erhält. Um diese Customer Experience zu gewährleisten sind integrierte Lösungen und entsprechend ausgerichtete Organisationen nötig. Die großen Direktvermarkter in Deutschland sind hier einzuordnen.

  • „Können“ - Hier trennt sich Spreu und Weizen. Es haben noch nicht viele Unternehmen geschafft, eine authentische und nachhaltige Kundenbeziehung mit ihren Kunden über alle Kanäle und Touchpoints zu erreichen.

    Als Erfolgsstory genannt wird hier neben Amazon oft auch Lego. Über „Lego Ideas“ können Kunden selbst entwickelte Bausätze vorstellen (inkl. Bewertung, Komplexität, realistischer Kaufpreis und Absatz). Wenn sich über 10.000 Kunden dafür begeistern wird geprüft, ob der Vorschlag in das Sortiment aufgenommen wird. Dies gibt Lego die Chance, ihre Kunden, die Nutzung ihres Produktportfolios und die Kundenwünsche sehr gut kennen zu lernen und auf Trends schnell zu reagieren.

Deutsche Unternehmen nutzen dagegen oft das mögliche Potential nicht aus und verharren auf der ersten Stufe. Eine mögliche Erklärung für eine fehlende Bereitschaft der organisatorischen Anpassungen liefert Prof. Dr. Hafner (Hochschule Luzern) mittels einer aktuellen CRM Studie: Ein Ergebnis daraus ist, dass 80% der CEO’s ihrem Unternehmen einen ausgezeichneten Kundenservice attestieren. Jedoch nur 8% der Kunden sehen dies genau so. Diese genannte „unbewusste Inkompetenz“ führe oft dazu, dass marginale Organisationsanpassungen mit geringen Effekten die Antwort sind, anstatt signifikante kundenzentrierte Anpassungen mit Skaleneffekten als Basis für eine deutliche Veränderung.    

Die Onlineaktivitäten und das Entscheidungsverhalten kann durch die neuen Lösungsansätze deutlich transparenter interpretiert werden. Es werden jedoch nie alle Parameter (Gott sei Dank!), die unsere Entscheidungen beeinflussen, zur Verfügung stehen. Es bleibt eine Herausforderung, die Erwartungen des Kunden, richtig zu interpretieren. Marktforschung und Data Scientist sind neben den digitalen Daten wichtig für die korrekte Interpretation. Es bleibt also dabei, die Nadel im Heuhaufen zu finden.

Durch Big Data ist der Heuhaufen nun nur gewaltig größer geworden.

Wie schaffe ich es nun, dem Nutzer ein für ihn passendes, kanalübergreifend konsistentes Angebot zu machen?

Mit welchen technologischen Lösungen haben Marketer nun die Möglichkeit, trotz dieser nicht sehr optimistischen Einschätzung, dem Kunden das für ihn passende Angebot zu unterbreiten?

Auf Basis der „Next-best-Action“ Konzepte (welches ist die nächste, beste Aktion für den Kunden) wurden die Real-Time Interaction Management Lösungen (RTIM) entwickelt. Bestandteile dieser Lösungen sind eine Cross-Channel-Kampagnenmanagement Plattform, Advanced Analytics Tools und eine Decision Engine (Entscheidungsalgorithmen).

Das Vorgehen, welches innerhalb von Sekundenbruchteilen abläuft, ist wie folgt:

  1. den Nutzer erkennen (wer ist der Nutzer, ist der Nutzer bekannt, nutzt er unterschiedliche Geräte)
  2. den Nutzer verstehen (was möchte der Kunde, welche Produkte/Services nutzt er, welchem Kundensegment ist er zugeordnet und welche Empfehlungen ergeben sich hier)
  3. Ermittlung möglicher Entscheidungen (welche Antwort-Optionen sind möglich, auch nichts tun oder die Weiterempfehlung an Partner sind Möglichkeiten, die oft nicht berücksichtigt werden jedoch professionell gemacht, sehr gut angenommen werden)
  4. Auswahl der optimalen Entscheidung (über Algorithmen, die sich laufend auf Basis der Reaktionen der Kunden optimieren können)
  5. Messung des Erfolgs als Basis für die laufende Optimierung

Um die Entscheidungen in nahezu Echtzeit zu ermöglichen, liegen viele aggregierte Daten und Empfehlungen zur kompletten Historie in den Systemen bereits vor. Bei einer aktuellen Anfrage eines Nutzers muss dann oft nur entschieden werden, ob eine bereits bestehende Empfehlung genutzt wird oder eine aktuell neu berechnete.  

Wie angesprochen, sind diese Lösungen in den USA bereits Standard. Vor allem im B2C Umfeld bei Unternehmen mit einem sehr hohen Volumen an Kunden. Für robuste und korrekte automatisierte Entscheidungen benötigt es eine hohe Anzahl an Daten (statistische Relevanz).

Für den deutlich kleineren Markt in Deutschland mit einem stärker ausgeprägten Mittelstand und dadurch kleinerer Kundenbasis, waren diese Lösungen bisher zu teuer und noch nicht ausgereift genug. Durch neue Cloud-Lösungen, stärkere Fokussierung auf europäische Anforderungen und deutlich geringere Lizenzkosten und Cloud-Preismodelle sind RTIM Lösungen auch für den deutschen Mittelstand interessant geworden. Anbieter für RTIM-Lösungen sind u.a. Pegasystems, Teradata, IBM, Adobe, Oracle, SAS, salesforce, Experian und SmartFocus.

Man kann am Markt feststellen, dass sich für die Vermarktung die Technologien und Lösungen heute deutlich schneller entwickeln, als Konzepte und die Umsetzung bei den Unternehmen. Unternehmen, die erfolgreich auf neue Marketinglösungen durch die entsprechend ausgebildeten Mitarbeiter und kundenfokussierte Prozesse setzen, gewinnen hier einen deutlichen Wettbewerbsvorsprung zu ihren Mitanbietern. Das Beispiel Zalando zeigt, dass sich Marktanteile schnell gewinnen/verlieren lassen.

Gerade in der Online Vermarktung werden neue Trends schnell adaptiert und wir haben hier viele neue positive wie auch negative Möglichkeiten kennengelernt.

Anzeichen für das nächste digitale Trendthema zeichnen sich schon ab. Virtual Reality ist durch die neueste Generation der VR Brille eines der Top Themen 2016. Werbeartikel leben von der Haptik. Mit entsprechender VR Brille, einem Smartphone und einer passenden App kann man etwa ein neues Auto testen, bevor es gebaut wird, oder sich schon mal am nächsten Urlaubsort umschauen.

Mehr dazu in einem der nächsten its-people Newsletter.

Big Data – leicht gemacht mit NoSQL (= Not only SQL)

Autor: MarkLogic

Big Data – leicht gemacht mit NoSQL (= Not only SQL)

Big Data der neuen Generation erfordert eine zukunftsfähige Datenbank

Die Vision von Big Data kann mit einer modernen Enterprise NoSQL Datenmanagement-Plattform leicht umgesetzt werden. Die Datenbank der neuen Generation basiert auf einem flexiblen Datenmodell und kann alle heutigen Daten speichern, verwalten und durchsuchen, ohne Abstriche bei der Ausfallsicherheit oder Konsistenz zu machen. Dank dieser Merkmale eignet sich die Enterprise NoSQL-Datenbank ideal für die einfachere und schnellere Integration heterogener Daten und ist dadurch für die dynamische Bereitstellung von Inhalten bestens geeignet. MarkLogic ist die einzige Enterprise NoSQL-Datenbank.

Best Practice: Sichere Ausführung unternehmenskritischer Anwendung mit MarkLogic

Eine führende Investmentbank entwickelte eine umfassende Echtzeit-Übersicht all ihrer Derivat-Handelsvorgänge in einer einzigen Anzeige. MarkLogic führt in dem System der Bank mehr als 1.600 komplexe Anfragen pro Sekunde aus und verarbeitet täglich rund 100.000 Handelsvorgänge. Diese führen in der Regel zu mehr als 31 Millionen Live-Geschäften gleichzeitig im System. Hier geht es zum ausführlichen Kundenbericht.

Bewältigung komplexer Herausfoderungen im Datenbereich

Die einzige Enterprise NoSQL-Datenbank von MarkLogic ist für strukturierte und unstrukturierte Daten optimiert und ermöglicht damit das Speichern, Verwalten, Abfragen und Durchsuchen von JSON-, XML- und RDF-Daten, Geodaten, Text und großen Binärendateien. Somit erreichen Sie, dass Sie schneller auf sich veränderte Anforderungen im Datenbereich reagieren können.

  • Einfachere Dateningetration: Sie können sich eine aufwendige Datenintegration sparen, indem Sie alle Ihre Daten im vorliegenden Format in MarkLogic laden. Auf diese Datengrundlage lässt sich eine flexible, uneingeschränkte Anwendungsentwicklung aufbauen.

 

  • Eine zentrale Plattform: Sie brauchen sich keine Gedanken mehr über die Einrichtung und Pflege separater Systeme für Transaktionen, Analysen und Suchen machen. All diese Funktionen können auf einer einzigen Plattform ausgeführt werden.

 

  • Schnellere Entwicklung: Entwickler sollen mit der Wahl der Plattform ebenso zufrieden sein wie die Kollegen aus anderen IT-Abteilungen. MarkLogic macht den zweiten Schritt des ETL-Prozesses (Extrahieren, Transformieren, Laden) überflüssig und verwirklicht mit seinem Datenmodell einen einmalig flexiblen Entwicklungsansatz.

 

  • Kosteneinsparung: Implementieren Sie Ihre Unternehmensanwendung auf kostengünstigen Commodity-Servern in der Cloud und bewahren Sie sich gleichzeit die Möglichkeit, Hardware, Daten und Skalierung in Zukunft zu ändern.

 

MarkLogic im Vergleich

Eine neue Datenbank muss Verbesserungen in Bezug auf frühere Generationen aufweisen, in vielen Umgebungen ausführbar sein, verschiedene Datentypen verarbeiten können und effektiven Schutz vor Datenverlust bieten. MarkLogic ist die einzige Datenbank, die all diese Erwartungen erfüllt.

Mit der Verarbeitung riesiger Mengen an vielfältigen und sich ständig verändernden Daten in den unterschiedlichsten Formaten wie Text, HTML und Binary sind Unternehmen oftmals überfordert. Denn sie nutzen relationale Datenbanken, die ein Datenmodell erfordern. Wem dieses Szenario bekannt ist, sollte sich über eine Enterprise NoSQL-Datenbank Gedanken machen.

Die MarkLogic Enterprise NoSQL-Datenbank bietet eine höhere Produktivität bei der Anwendungsentwicklung und mehr Möglichkeiten bei der dynamischen Skalierung, um zusätzliche Benutzer und Daten zu bedienen. Auch die Fähigkeit, hochgradig dynamische Anwendungen zu entwicklen und komplexe Daten zu verarbeiten, spricht für MarkLogic.

Nähere Informationen dazu: http://www.marklogic.de

Vorankündigung Veranstaltungen

its-people als Aussteller

its-people auf der DOAG-BI 2016

its-people ist dieses Jahr auf der DOAG-BI in Bonn vom 08.-09. Juni 2016 als Aussteller und Speaker zum Thema "Data Management" vertreten.

Lassen Sie uns in der spannenden Atmosphäre des "Kameha Grand Bonn" die neuesten Entwicklungen zu Big Data, Business Intelligence und Data Warehouse diskutieren.

Die its-people Vorträge sind:

Frank Sommerer: Donnerstag, 09. Juni 2016, 9.00 Uhr

Sessionkeynote: Erfolgsgarant Kunden Data Warehouse bei der Bewältigung der Herausforderungen durch die Digitalisierung für Marketing und Vertrieb

Sven Bosinger: Donnerstag, 09. Juni, 10.40 Uhr

Just-INSERT?

Hier der Link auf das weitere Vortragsprogramm: Link

Besuchen Sie die spannenden Vorträge von its-people und besuchen Sie uns an unserem Ausstellungsstand. Wir freuen uns auf Sie!

Partnerschaften

 

Externe Partner

MarkLogic ist eine neue Generation von Datenbank-Plattform, die Unternehmensdaten in wertvolle und praktisch anwendbare Informationen verwandelt. MarkLogic ist die einzige Enterprise NoSQL-Datenbank. Namenhafte Unternehmen und Behörden vertrauen auf MarkLogic. Die Plattform ist skalierbar, flexibel, bietet höchste Sicherheitsstandards und ACID-Transaktion. Mit unserer Datenbank bewältigen Sie Herausforderungen, die durch komplexe, ständig wechselnde Datenstrukturen entstehen.

Durch MarkLogic gewinnen Sie mehr Erkenntnisse über Ihre Daten und können die Entwicklung geschäftskritischer Anwendungen beschleunigen. Integrierte Suchfunktionen und Applikationen ermöglichen Unternehmen ihre Abläufe zu straffen und innerhalb kurzer Zeit Datenbankanwendungen zu entwickeln. So erhalten Sie Zugriff auf riesige Mengen wertvollster Informationen.

http://www.marklogic.de


Newsletter 02/2016

Sie möchten den its-people Newsletter nicht mehr erhalten?
Melden Sie sich hier vom Newsletter ab .

Impressum

enterpriser GmbH & Co. KG · Lyoner Straße 44-48 · 60528 Frankfurt
Telefon : +49 69 24751980 · E-Mail: webmaster@its-people.de
Geschäftsführer: Thomas Algermissen, Thomas Kraemer
HRA 42547 - Amtsgericht Frankfurt

Copyright 2015 © enterpriser GmbH & Co KG. Alle Rechte vorbehalten. enterpriser GmbH & Co KG versendet E-Mails nicht unaufgefordert. its-people© und bcs-people©: Dachmarken der enterpriser GmbH & Co. KG