Newsletter 03/2017

Liebe Leser und Abonnenten,

„Deutschland ist in puncto Big Data und Analytics weltweit führend!“ Dies konnten wir letzte Woche bei W&V Data Marketing lesen. Unser heutiger Newsletter „Business Analytics“ liefert hierzu ein breites Spektrum an Einblicken zu den Themen: Big Data, Data Lake, Data Warehouse, Virtual Reality Analytics und Visual Analytics.

Auf der Data Vision 2017 Konferenz in Neuss haben sich rund 350 Teilnehmer zu Business Analytics und Big Data sehr intensiv zu diesen spannenden Aspekten ausgetauscht. Lesen Sie mehr hierzu in meinem Erfahrungsbericht „2 Tage geballtes Wissen – Data Vision 2017“.

In den letzten 12 Monaten hat its-people seine Expertise rund um Virtual Reality Analytics stark ausgebaut. Jörg Osarek, its-people VR Business Pionier, greift dies in seinem Beitrag auf: VR wird business-relevant.

Neues vom Microsoft Tech-Summit in Frankfurt berichtet Uwe Blenz, its-people Senior Professional im Bereich Microsoft SQL-Server, mit Details zur Linux-Version des SQL-Server.

Zur inhaltlichen Abrundung folgt eine Gesamtsicht und Definition zu Advanced Analytics von Sven Bosinger, its-people Senior Professional BI & DWH.

Um Visual Analytics und Data Science geht es bei der Erfolgsstory unseres Partners Comma Soft. Mit datenzentriertem Variantenmanagement möchte Audi seine Produktkomplexität verringern um die Prozesskosten in der Produktion zu senken. Mit der langjährigen Erfahrung von Comma Soft zu Data Science und Datenvisualisierung und der langjährigen Erfahrung unserer its-people Experten zu Informationsintegration sehen wir gemeinsam ein gute Ausgangsposition für komplexe Big Data / Data Science Anwendungsfälle.

Unter der Rubrik „Partnerschaften“ stellen wir Ihnen unseren externen Partner Comma Soft sowie unsere neue its-people Kollegin Andrea Reelfs dann etwas näher vor.

Und last but not least geben wir Ihnen den Hinweis auf ein sicherlich spannendes VR/AR Webinar von Jörg Osarek am 6. April diesen Jahres. Schauen Sie doch mal rein.

Und heute wie immer: Viel Vergnügen beim Lesen!

Ihr
Frank Sommerer
Geschäftsführer its-people GmbH

Aktuelles

2 Tage geballtes Wissen - Data Vision 2017

Autor: Frank Sommerer, Geschäftsführer its-people GmbH

Zum 12. Mal traf sich die Oracle Business Analytics Community in Neuss. Dieses Mal mit dem zukunftsweisenden und passenden Slogan „Oracle Data Vision“. Alfred Schlaucher von Oracle und sein Team hatten für die 2-tägige Veranstaltung namhafte Referenten geladen und ein anspruchsvolles Vortragsprogramm zusammengestellt. Bestätigt wurde dies durch den neuen Teilnehmerrekord von rund 350 Teilnehmern aus Oracle Kunden, Oracle Consulting-Partnern und Oracle Kollegen.

Die Stimmung und der Austausch war deutlich intensiver als bei ähnlichen Veranstaltungen. Die Konferenz startete mit einem Vorprogramm bei dem Oracle seine neuesten Entwicklungen zu Cloud Services, In Memory, Big Data Hardware-Infrastruktur und Big Data Discovery vorstellte. Nach der ersten Key-Note durch den Oracle Country Leader Frank Obermeier ging es direkt weiter zu einem Strategievortrag zu digitalen Innovationen und zwei Vorträgen zu Big Data / Data Lake. Details dazu im nächsten Abschnitt. Abgerundet wurde der 1. Tag mit zwei Parallel-Sessions von Oracle Partnern mit dazu passenden Praxis-Vorträgen. Das Abendprogramm begleitete ein „digital adaptierter“ Zauberer. Anstatt mit herkömmlichen Gegenständen zu arbeiten, hat er das Publikum mit iPad und Smartphone Zaubereien begeistert. Sehr sehenswert!

Nach den zwei Parallel-Sessions der Partner am Morgen des zweiten Tages hat Carsten Bange vom BARC-Institut die aktuellen Markttrends zu Data Discovery und Cloud Computing zur Modernisierung von BI und Datenmanagement vorgestellt. Ein sehr interessantes Ergebnis ist, das über 50% der Anforderungen zu Big Data sich auf Near-Time/Real-Time Use Cases beziehen. Als letzte Key Note wurde das bewährte Vorgehen von ThyssenKrupp zur Daten- und Prozess Harmonisierung in einer immer heterogeneren IT-Landschaft vorgestellt. Abgerundet wurde der zweite Tag dann mit weiteren Praxis- und Erfahrungsberichten.

Gut integriert in den Kongress waren die Messestände der rund 20 Oracle Partner. Auch its-people war mit einem neuen Messestand vertreten. Es gab an unserem Stand einen regen Austausch und vielfältige Diskussionen zu den angebotenen Vorträgen und den spannenden „Data Vision“ Themen.

Einige Vorträge auf der Veranstaltung haben sich sehr gut ergänzt und das Wissen rund um die Themen Big Data und Data Lake für die Teilnehmer enorm geschärft. Sowohl der Vortrag der Deutschen Bahn „Der Data Lake, gibt es ihn wirklich?“ als auch der Vortrag von Daimler TSS „Sind Data Lakes die neue Core DWH’s?“ haben einen sehr guten Überblick gegeben, wie man Big Data erfolgreich aufsetzt und umsetzt. So wurde zum Beispiel bei der Deutschen Bahn die interne Big Data Truppe als Start up „Zero.One.Data“ aufgesetzt. Und dies mit den für den Erfolg typischen Erkenntissen das Organisation, Architektur, Sponsorship, Vision, Engagement und Glaube an den Erfolg die tragenden Säulen sind. Im Daimler TSS Vortrag wurden die Erkenntnisse zu Big Data Architekturen weiter vertieft. Die ersten euphorischen Ansätze - so einfach wie möglich - alle Daten in einen Data Lake zu laden und dann mit dem Konzept „Schema on Read“ direkt auf die Rohdaten für die Analyse zuzugreifen, können als gescheitert angesehen werden. Denn typischerweise benötigt man ähnlich wie bei Data Warehouse Architekturen eine durchdachte Architektur: eine Schicht zum „Laden der Daten“, zum „Verarbeiten der Daten“ und zum „Nutzen der Daten“. So werden Big Data und Data Warehouse auch nicht als sich konkurrierende, sondern als sich ergänzende Konzepte gesehen. Auch der its-people Vortrag „Mehr Speed, mehr Power für Ihr Kunden Data Warehouse mit einem Data Lake“ zeigt den Mehrwert der Koexistenz eines Data Warehouses mit einer Big Data Lösung auf.

Die Erkenntnisse aus 2 Tagen Oracle Data Vision: Hinsichtlich der Professionalisierung gibt es für Big Data noch gewaltige Herausforderungen zu meistern. Heute gibt es vor allem Tools, Tools, Tools und die Umsetzung erfolgt mit coding, coding, coding. Benutzeroberflächen zur Produktivitätserhöhung und ausgereifte Konzepte und Architekturen für die erfolgreiche Umsetzung des Ganzen sind erst noch am Entstehen.

Wenn Sie mehr zur Oracle Data Vision erfahren möchten oder an meinem Vortrag interessiert sind, dann sprechen Sie mich bitte direkt an. Frank.Sommerer@its-people.de. Gerne helfe ich Ihnen weiter.

VR und AR: Nur Spielerei oder auch für das Business geeignet?

Autor: Jörg Osarek, VR Business Pionier, its-people GmbH

Virtual und Augmented Reality im Enterprise Einsatz

Die 3 Wellen des Visual Computing

Die immersive Umwälzung unserer Computersysteme findet in drei Wellen des visual immersive Computing statt: VR (Virtual Reality), AR (Augmented Reality), USEMIR (Ubiquitous SEnsory MIxed Reality). Letzere bezeichnet den Zustand, wenn wir unser VR/AR Headset abnehmen und die immersive Magie bleibt erhalten, weil sie z.B. über Lichtfeld- oder holografische Displays auch ohne "Sehhilfen" erlebbar ist.

Diese Wellen verändern unsere Systeme grundlegend. Es kommen zahllose dreidimensionale Layer hinzu. Noch mehr als bisher wird sich unsere Mensch-Maschine-Interaktion durch natürliche Gesten in den nächsten Jahren verändern (Handgesten, Körpergesten, Mimik, Sprachsteuerung, Tonalität). Neben der Interaktion spielt auch die Analyse (VR- und AR-Analytics, Emotion Analytics) eine wesentliche Rolle (vgl.: link).

Welche Branchen sind betroffen?

Die Fragestellung, welche Branchen trifft denn VR und AR ist hier falsch. Es trifft alle Branchen! Genau, wie die in den 1990ern entstandenen grafische Benutzeroberflächen und die in den 2000ern hinzugekommenen Geschäftsprozesse des mobilen Internets. Davon ist quasi jede Branche betroffen. Vom Buchhändler (Amazon) über Reisebüros (weg.de) bis zum Pizzabäcker (Lieferando.de).

Genauso wie Smartphones stellen immersive Technologien einen modernen Kanal (I/O) zu unseren Systemen dar. Diese immersiven Lösungen kommen zwar verstärkt über den Gaming-Bereich zu uns, doch es stecken auch viele immersive Anwendungen im seriösen Bereich gerade in den Kinderschuhen. Die Karten werden hier neu gemischt, der Markt verteilt.

Die Frage lautet: Versuchen Sie, dem unvermeidlichen zu entkommen, oder nutzen Sie die Kraft der drei Wellen wie mit einem Wellenkraftwerk für Ihr Business? Es gibt eine Reihe guter Beispiele für kommerziell erfolgreiche immersive Erweiterungen von Geschäftsmodellen (vgl.: link)

Anwendungsbeispiel VR/AR Trainings

VR und AR Trainings sind eine interessante Ergänzung für Anbieter klassischer Präsenz- und Online-Trainings - also für Unternehmen, die eine Blended Learning Plattform anbieten. Erste Kundenprojekte beschäftigen sich mit der Frage, wie man diese Blended Learning Plattform um immersive Komponenten erweitert. Der Einsatz von VR und AR ermöglicht zum Teil eine ähnliche Vermittlungstiefe wie bei Präsenztrainings, jedoch kommen nur einmalige Erstellungskosten zum Tragen. Gleichzeitig kann man das Training dadurch aufwerten, indem man persönlich nur schwierig oder teuer zugängliche Szenarien einbezieht. So z.B. eine Experience auf dem Mount Everest, in einem A380 Cockpit, auf der internationalen Raumstation ISS, ein besonderes Erlebnis mit Nicole Kidman oder gar ein persönliches Fussballtraining mit unserem Bundestrainer.

Hierbei sind echte physikalische Trainingseffekte nachweisbar: Zitat von STRIVRLABS, einem Anbieter von VR Training für NFL Football Teams in den USA: "Logans Leistung sprang in den letzten drei Spielen bei der Erfolgsrate von 64% auf 76%". Dieser Trainingseffekt bezieht sich nicht nur auf Sport, sondern umfasst auch kognitive Themen oder Praxistrainings z.B. in den Bereichen Arbeitssicherheit oder Tätigkeiten in Fabriken, Werken, Fahrzeugen.

Immersive Enterprise Architekturen

Wir befinden uns noch in einer Frühphase des immersive Computing. Langsam wird klarer ersichtlich, wie die einzelnen losen Enden von Seiten der Business- und IT-Architektur zusammenpassen. Insellösungen und Silos zielen eher auf den Wow-Effekt immersiver Anwendungen ab. Verblasst dieser zunehmend, ist es wichtig, eine nachhaltige Wertschöpfung in seine immersiven Lösungen einzubauen. Bausteine zeichnen sich ab, die es zu integrieren gilt.

Diese Integration geschieht in mehreren Stufen. Zu den bestehenden Enterprise Systemen gesellen sich Virtual Reality Komponenten, Augmented Reality Komponenten, Virtual und Augmented Reality Analytics

  • zur Optimierung der Experiences

und

  • zur Analyse des Nutzerverhaltens

Die Integration mit den Enterprise Systemen ist die logische Konsequenz sobald die immersiven Komponenten eine entsprechende Reife erreicht haben. Genauso, wie es heute für uns eine Selbstverständlichkeit ist, grafische (Web-)Oberflächen zu erstellen und Mobilgeräte-fähige Geschäftsprozesse aufzusetzen, wird das integrieren immersiver Komponenten in unsere Enterprise Systemwelt zum Standard. Mit allen Themen, die auch bislang zu Komponenten gehören (Analytics, Security, Backup & Recovery, Deployment, Versionsmanagement und und und). Gleichzeitig helfen neu aufkommende Frameworks und Toolkits für Standardelemente immersiver Oberflächen, die Entwicklung zu beschleunigen und günstiger zu machen.

Der direkte Draht ins Gehirn

Und doch handelt es sich nicht einfach um ein weiteres Medium. Entwickler und Projektmanager benötigen zusätzliches Wissen aus dem Bereich psychologischer und vegetativer Wirkungsweisen von Sinneseindrücken. Wenn man vor einem nachlässig gemachten Programm sitzt, wird einem normalerweise nicht schlecht und man stürzt auch nicht von einem Stuhl. Mit Virtual Reality kann das jedoch passieren! Bis hin zu der Möglichkeit, den Kampf-oder-Flucht-Reflex (fight-or-flight-response) auszulösen.

VR ersetzt verschiedene Sinneskanäle der Wirklichkeit durch künstliche Kanäle. Wir verfügen damit also über einen direkten Draht ins Gehirn. Damit wächst die Verantwortungsfülle und damit auch das erforderliche Know-How von Beteiligten an immersiven Projekten. Es gilt in den nächsten Jahren, die bereits dokumentierten Erkenntnisse um eigene Projekterfahrungen zu ergänzen. VR/AR Analytics spielen dabei eine wichtige Rolle. Und hier schließt sich wieder der bekannte Kreis: Design, Build, Test. Denn Übung macht bekanntlich den Meister.

Siehe auch den Veranstaltungshinweis zu diesem Thema am Ende des Newsletters.

SQL Server vNext CTP 1.4 auch für Linux online

Autor: Uwe Blenz, Senior Professional Microsoft SQL-Server, its-people GmbH

Im its-people Juni-Newsletter des vergangenen Jahres (link) habe ich schon auf die Linux-Version des neuen SQL-Servers hingewiesen. Vor wenigen Jahren hätte das kaum einer geglaubt, dass Microsoft solche Wege geht, aber heute passt das ohne weiteres in das neue Konzept von Microsoft. Zusammen mit Docker-Container für Windows, Windows 10 IoT für RaspberryPi oder das Linux-Subsystem in Windows 10.

Aktuell hält sich Microsoft mit den Namen für die kommende Version noch sehr bedeckt. Es ist üblicherweise nur von vNext die Rede. Auf dem Microsoft Tech-Summit wurde uns dann der aktuelle Stand vorgeführt.

Auch wenn noch nicht alle Features implementiert sind, so wurde doch mehrfach versichert, dass geplant ist, dass die Linux-Version fast alle Funktionen der Windows-Version erhalten soll. Zumindest im Bereich der Core-Datenbank. Die Analysis- und die Integration Services stehen noch nicht auf dem Fahrplan. Auch für Linux soll es die üblichen Editionen (Express, Standard, Enterprise und Developer) geben.

Schauen wir mal, für welche Umgebungen Microsoft den aktuellen Public-Preview (CTP 1.4) herausgebracht hat:

  • Als erstes natürlich als native Windows Anwendung, so wie man den SQL-Server kennt

  • Ebenso die durch Microsoft gehostete Azure

  • Neu ist die Linux Version. Microsoft bietet zur Zeit Installationshilfen für die folgende Environments:

    • Red Hat Enterprise Linux 7.2

    • Ubuntu Linux 16.04

    • SUSE Linux Enterprise Server v12 SP2

  • Ebenfalls neu ist das Docker Image der Linux-Version.

Gerade für einen ersten Blick auf die Linux-Version bietet sich das Docker Image an. Docker läuft sowohl auf verschiedenen Linux-Versionen als auch in virtuellen Maschinen auf Windows und MacOS. Hat man schon Docker auf seinem System laufen kann man einfach mit,

docker pull microsoft/mssql-server-linux

sich die neuste Version des SQL-Servers für Linux ziehen (MacOS und Linux-User das ganze eventuell mit einem sudo davor). Diese Version läuft 180 Tage. Nachdem das Image geladen wurde, muss der Container nur noch gestartet werden. Der SQL-Server möchte neben den Port (üblicherweise 1433) auch noch 2 Umgebungsvariablen. Zum einem das Passwort für SA und zum anderen muss die EULA akzeptiert werden.

Diese findet man unter dem Link weiter unten. Auch hier reicht wieder ein Befehl:

docker run -e 'ACCEPT_EULA=Y' -e 'SA_PASSWORD=<ganzGeheimes!Passw0rt>' -p 1433:1433 -d microsoft/mssql-server-linux

Schon hat man seinen SQL-Server am Laufen.

Das Docker-Image kommt seit der 1.4 auch mit sqlcmd und bcp command. Wer mehr möchte, verwendet entweder eine vorhandene Version des SQL Server Management Studio (SSMS) von Windows oder nutzt den folgenden Link als Startpunkt um Tools und Codebeispiele für Windows und Linux zu beziehen. Dort findet man auch die Versionen für Windows und Linux:

link

Und allen, die jetzt Lust bekommen haben die neue Version zu testen, wünsche ich viel Spaß!

Advanced Analytics – werden Menschen überflüssig?

Autor: Sven Bosinger, Senior Professional DWH & BI, its-people GmbH

Klassifizierung

Der Begriff Advanced Analytics ist sehr eng mit dem Thema BigData verknüpft. Stellt man dem das klassische Business Intelligence gegenüber, so kann man zu folgender Aufteilung der einzelnen Bereiche gelangen.

Abbildung 1: Analytics Klassifikation

Mit unterschiedlichen Analytics Arten werden unterschiedliche Fragestellungen beantwortet. Dabei werden für die jeweiligen Fragestellungen unterschiedliche Analyse Methoden benötigt:

  • Descriptive Analytics (Was ist passiert?)
    Hierbei wird vornehmlich mit klassischen Listen und Chart-Diagrammen gearbeitet

  • Diagnostic Analytics (Warum ist es passiert?)
    Dies ist das Feld der OLAP Auswertungen und AdHoc Reporte

  • Predictive Analytics (Was könnte passieren?)
    Zur Beantwortung dieser Fragestellung werden Machine Learning Algorithmen und Deep Learning eingesetzt

  • Prescriptive Analytics (Was sollten wir tun?)
    Hierbei handelt es sich um einen vollautomatischen Prozess, der z.B. für einen potentiellen Kunden Kaufanreize in Echtzeit generieren soll. Er basiert auf den Informationen, die durch Diagnostic und Predictive Analytics ermittelt wurden

Keine dieser Analytics Methoden steht dabei für sich alleine, sondern diese ergänzen sich additiv. Für ein Unternehmen, das eine ganzheitliche Business Intelligence Strategie verfolgt, zeichnet sich dabei folgender Entwicklungspfad ab.

Abbildung 2: Entwicklungspfad

Machine Learning

Machine Learning ist die entscheidende Analysetechnik im Predictive Analytics. Hierbei werden 2 Phasen durchlaufen:

  • In der 1. Phase, Training Phase genannt, wird das System „angelernt“, d.h. es wird ein passender Lernalgorithmus gewählt und anhand von Vergangenheitsdaten ein sogenanntes Predictive Modell. Dabei wird in der Regel nach CRISP-DM (Cross Industry Standard Process for Data Mining) verfahren

  • In der 2. Phase, Predictive Phase genannt, wird das Predictive Modell permanent auf den eingehenden Datenstrom in Echtzeit angewandt. Die daraus ermittelten Erkenntnisse, die sogenannten Insights, werden als Alerts in die bestehenden Geschäfts- und Prozess-Modelle eingesteuert. So erfolgt eine unmittelbare Beeinflussung der ablaufenden Transaktionen Just-In-Time

Predictive Machine Health

Besonderen Einsatz erfährt das Predictive Analytics aktuell in der Vorhersage für Wartungsintervalle bei technischen Einrichtungen. So werden z.B. bei großen Pumpsystemen in Wasserwerken und Industrieanlagen über einen längeren Zeitraum große Mengen an technischen Zustandsdaten gespeichert. Diese reichen von Daten aus Temperaturfühlern, Vibrationsmessungen, Durchflussraten bis hin zu akustischen Aufzeichnungen der Pumpengeräusche. Diese Daten werden mittels BigData-Verfahren gespeichert und zu Auswertungszwecken zur Verfügung gestellt. Wendet man auf diesen Daten einen Lernalgorithmus, z.B. den ID3-Algorithmus zur Erstellung eines Decision Tree an, so erhält man ein Predictive Modell, das in der Lage ist, anhand der oben genannten technischen Daten, in Real Time zu entscheiden, wie der aktuelle Zustand des Pumpsystems ist und mit welcher Wahrscheinlichkeit in einem definierten Zeitraum mit technischen Problemen zu rechnen ist.

Anhand dieser Informationen kann dann ein optimaler Wartungsplan für die einzelnen Pumpen und anderen technischen Einrichtungen erstellt werden. Ziel ist es, Systemausfälle zu vermeiden, dabei aber die Wartungskosten zu minimieren. Dies erreicht man dadurch, dass die technischen Einrichtungen nur noch dann gewartet werden, wenn ein Ausfall droht und nicht mehr nach einem festen Wartungsplan, der gegebenenfalls überflüssige Wartungstätigkeiten nach sich ziehen würde.

Unterschiede zur klassischen Business Intelligence

Der Unterschied zwischen Advanced Analytics und des klassischen Business Intelligence liegt in mehreren Punkten:

  • Im Advanced Analytics wird ebenfalls wie in der klassischen Business Intelligence der Ansatz verfolgt: „Betrachte die Vergangenheit und versuche daraus die Zukunft abzuleiten“. Allerdings unterscheiden sich die eingesetzten Methoden und Werkzeuge fundamental. Das wirksamste Werkzeug des klassischen Business Intelligence ist der Mensch, der mittels seiner analytischen Fähigkeiten auf Basis der präsentierten Daten Entscheidungen trifft. Im Advanced Analytics wird dieser Entscheidungsprozess an Algorithmen übertragen und Benutzerfrei gestaltet. Dies ist aufgrund der Entscheidungs-Geschwindigkeit und -häufigkeit unumgänglich. Da Entscheidungen im Sekundentakt (oder noch kürzer) getroffen werden müssen und das bei Millionen Einzelvorfällen, wäre der Mensch hoffnungslos überfordert oder das Heer der notwendigen Entscheider nicht finanzierbar.

  • Im klassischen Business Intelligence wird eine „Heckwasserbetrachtung“ durchgeführt. Es werden also Vergangenheitsdaten betrachtet. Im Advanced Analytics geht es um Real-/Near-Time Daten. Die Dauer von der Erzeugung der Daten bis hin zu ihrer analytischen Auswertung beträgt höchstens wenige Sekunden.

  • Individualisierung versus Generalisierung. Während das klassische Business Intelligence aufgrund seiner „beschränkten“ Analysefähigkeiten darauf angewiesen ist, Daten zu kategorisieren und zu gruppieren, können im Advanced Analytics individuelle einzelne Datensätze auf granularer Ebene betrachtet werden.

Einsatz in Unternehmen

Bereits etabliert hat sich Advanced Analytics verstärkt im Bereich des Marketings (z.B. Vorschlagsgenerierung bei Online-Einkäufen) und bei der Überwachung von technischen Einrichtungen (z.B. Predictive Machine Health).

Zukünftig wird man Implementierungen in einer weit größeren Anzahl von Anwendungsbereichen sehen. So ist das Thema Industrie 4.0 sehr eng mit BigData und Advanced Analytics verknüpft. Hier liegen immense Effizienz-Potentiale.

Laut der Studie „Advanced & Predictive Analytics 2016“ der BARC, gilt:

  • 94% Prozent schätzen Advanced Analytics als zukünftig wichtig für ihr Unternehmen ein

  • 54% der befragten Unternehmen erhoffen sich eine Kostenreduktion und Steigerung der Prozesseffizienz

  • 32% der Unternehmen benutzen bereits Predictive Analytics

  • weitere 24% planen den Einsatz von Predictive Analytics innerhalb der nächsten 12 Monate

Man kann also erkennen, dass dieses Thema in den nächsten Monaten/Jahren eine sehr starke Bedeutung gewinnen wird. Darüber hinaus ist es ein Enabler für zukünftige innovative Geschäftsmodelle.

Gesellschaftspolitische Konsequenzen

Viele Analysten, die sich mit diesem Thema beschäftigen, sehen Advanced Analytics als eine disruptive Technologie. Dies bedeutet, dass ihr Einsatz fundamentale Umwälzungen im privaten, öffentlichen und geschäftlichen Bereich nach sich ziehen wird. Diese werden gerne mit der Phase der Industriellen Revolution verglichen.

Bisherige Effizienzansätze in Unternehmen haben vor allem Beschäftigungsfelder von ungelernten oder schlecht ausgebildeten Mitarbeitern betroffen. Als Beispiel wird hier gerne der Hilfsarbeiter am Fließband in der Automobilproduktion genommen, der aus der modernen Produktion vollständig verschwunden ist. Zukünftige Veränderungen werden aber auch hochqualifizierte Berufsbereiche, wie zum Beispiel Ärzte, spezialisierte Facharbeiter usw. betreffen. Es gibt Studien, die davon ausgehen, dass bis zu 90% der heutigen BackOffice Tätigkeiten in Unternehmen durch lernfähige Algorithmen ersetz werden könnten!

Wir reden hier von Tätigkeiten wie Kreditantragsbearbeitung, Abschluss von Versicherungspolicen, Online-Krankheitsdiagnosen, Aktienhandel, Kaufberatung, autonomes Transportwesen, automatisiertes Bestell- und Lieferwesen, Militär, Ausbildungswesen, etc.

Der mögliche Produktivitätszuwachs durch autonome Prozesse ist für Unternehmen immens. Dies hat allerdings zur Folge, dass immer weniger Personen zur Erzeugung eines Produktes und/oder zur Bereitstellung einer Dienstleistung notwendig sind.

Berichte & Informationen

VERA - Varianten-Einbau-Raten-Analyse begeistert Jury

Autor: Comma Soft AG

Eine Success Story unseres Partners Comma Soft

Dank Ad-hoc-Analysen komplexer Datenmengen und Self-Service-Reporting mit INFONEA auf der Überholspur: Audi hat den BARC Best Practice Award Business Intelligence und Analytics 2016 gewonnen. Eine Expertenjury wählte das IT-Projekt VERA (Varianten-Einbau-Raten-Analyse) des Premium-Automobilherstellers jetzt beim Congress für Business Intelligence und Datenmanagement des Analystenhauses BARC auf den ersten Platz. Audi schätzt die Kostenersparnis durch das datenzentrierte Variantenmanagement als hoch ein. Über 500 Fachanwender profitieren bereits heute.

Die Analytics-Lösung VERA ermöglicht es, selten oder gar nicht nachgefragte Teile zu identifizieren und die Wertbeiträge der einzelnen Varianten zu optimieren. Audi schätzt den Nutzen des IT-Projekts, das auf der komplexen fachlichen Vernetzung von Daten, Ad-hoc-Analysen und Self-Service-Reporting beruht, als sehr hoch ein. Über 500 Fachanwender bei Audi aus Vertrieb, Entwicklung und Produktion profitieren mittlerweile von der neugewonnenen Datentransparenz.

Nicht zuletzt der große finanzielle Mehrwert von VERA hat jetzt auch die Jury des BARC Best Practice Awards für Business Intelligence und Analytics 2016 überzeugt. Experten aus Wirtschaft, Wissenschaft und Medien wählten VERA beim BARC Congress für Business Intelligence und Datenmanagement in der Kategorie Konzernlösung auf den ersten Rang. Mitbewerber waren unter anderem die Deutsche Bahn und die Deutsche Post DHL Group. Dr. Carsten Bange, Geschäftsführer von BARC, erklärt: „Audi hat ein anwenderfreundliches Werkzeug für eine Zielgruppe außerhalb der typischen Anwender für Business-Intelligence-Werkzeuge mit passenden Visualisierungen geschaffen und hierfür Open-Source-D3-Visualisierung mit einem Standardwerkzeug verbunden.“

VERA wurde auf Basis der Data-Analytics und Data-Science-Lösung INFONEA entwickelt. Die Software der Bonner Comma Soft AG verfolgt einen umfassenden Self-Service-Ansatz, verbunden mit einer hohen Usability und vielseitigen Visual-Analytics-Features. Das ermöglicht einem breiten Nutzerkreis die schnelle und fachabteilungsübergreifende Bereitstellung wichtiger datenbezogener Erkenntnisse, ansprechend aufbereitet und unmittelbar per Knopfdruck verfügbar.

Weitere Infos: www.comma-soft.com

Video-Statement Dr. Carsten Bange: Hier klicken!

Partnerschaften

Externer Partner

Comma Soft AG

Die Comma Soft AG – „The Knowledge People“ wurde 1989 von Stephan Huthmacher gegründet. Seitdem hat sich das Unternehmen einen Namen als „Digital Think Tank“ und innovatives IT-Consulting- und Software-Haus gemacht. Comma Soft unterstützt Kunden bei der Umsetzung der digitalen Transformation ihrer Geschäftsmodelle. Das Leistungsspektrum umfasst Data Science-, Analytics-, IT-Strategie, IT-Architektur und Security-Consulting sowie die dazu passenden Software-Produkte und Lösungen.  Sowohl große und mittelständische Unternehmen in der DACH-Region als auch zahlreiche DAX-Konzerne bauen auf die 27-jährige Erfahrung von Comma Soft im Enterprise-Umfeld. 135 Mitarbeiter sorgen am Stammsitz in Bonn und bei den Kunden vor Ort dafür, dass Projekte agil und wertschöpfend umgesetzt werden.

Weitere Infos: link

Veranstaltungen

Using VR in Business Strategies and Connecting VR to Enterprise Systems

am 06. April 2017

  • What to consider if your business wants to use VR/AR as part of the business strategy
  • Understand the paradigm shift caused by visual computing
  • Understand the 3 waves VR/AR/USEMIR
  • Understand the maturity level of immersive technology
  • IT-Architecture for experience quality and financial manage-ability
  • VR/AR analytics, emotion analytics

Webinar am 06. April 2017 mit Jörg Osarek in Zusammenarbeit mit starweaver einem internationalen Anbieter von Online und Live Trainings. Anmeldung hier


Newsletter 03/2017

Sie möchten den its-people Newsletter nicht mehr erhalten?
Melden Sie sich hier vom Newsletter ab .

Impressum

enterpriser GmbH & Co. KG · Lyoner Straße 44-48 · 60528 Frankfurt
Telefon : +49 69 24751980 · E-Mail: webmaster@its-people.de
Geschäftsführer: Thomas Algermissen, Thomas Kraemer
HRA 42547 - Amtsgericht Frankfurt

Copyright 2015 © enterpriser GmbH & Co KG. Alle Rechte vorbehalten. enterpriser GmbH & Co KG versendet E-Mails nicht unaufgefordert. its-people© und bcs-people©: Dachmarken der enterpriser GmbH & Co. KG