Newsletter 06/2017

Liebe Leser und Abonnenten,

Business Intelligence in der Cloud konnte sich vor zwei Jahren noch niemand so richtig vorstellen. Durch Big Data jedoch ist Cloud auch im Business Analytics Umfeld der schnelle und steile Aufstieg gelungen. Mit Amazon Web Services (AWS) und Microsoft Azure haben sich die ersten Player etabliert.

Im ersten Beitrag „put your data to the cloud, Teil 1“ von unserem Microsoft Experten Peter Welzig werden einige Migrationsszenarien von einer Microsoft SQL Server Datenbank zu einer Azure SQL-Datenbank aufgezeigt. Unter der Rubrik Partnerschaften stellen wir Ihnen unser neues Mitglied Peter Welzig dann etwas näher vor.

Seit über zwei Jahren beschäftigen wir uns intensiver mit dem Umfeld Virtual & Augmented Reality. Seit einem Jahr ist das Thema auch im Business angekommen und wir konnten unsere Expertise durch erfolgreiche Projekteinsätze weiter ausbauen. Im Beitrag „Oh Man, this is happening!“ zeigt Jörg Osarek auf, welche Einsatzmöglichkeiten im Business mit Virtual Reality Analytics heute schon möglich sind. Live können Sie ihn bei seinem nächsten Vortrag auf den VR/AR Excellence Days am 28.06.2017 bei Google in Hamburg erleben. Details hierzu unter Veranstaltungshinweisen.

Um „Big Data“ neben der Speicherung auch sehr effizient auswerten zu können, bietet sich die „In Memory Technologie“ an. In der Success Story „Ein gewinnbringendes Team: Hadoop kombiniert mit EXASOL“ unseres Partners EXASOL erfahren Sie, wie sich riesige Mengen an Daten in nahezu Echtzeit auswerten lassen.

Wir sind außerdem nächste Woche Aussteller auf der TDWI in München (26.-28. Juni) und freuen uns darauf, die Business Analytics Themen mit einigen von Ihnen vertiefend direkt vor Ort zu diskutieren. Sollten Sie noch kurzfristig Interesse am Besuch der Veranstaltung haben, dann sprechen Sie mich einfach direkt an.

Ohne Big Data sind auch erfolgreiche IoT und Industrie 4.0 Projekte nicht denkbar. Den Juni Newsletter von its-people rundet Teil 4 der Serie „Industrie 4.0“ von Torsten Zimmermann ab.

Ich wünsche Ihnen wie immer viel Vergnügen beim Lesen!

Ihr
Frank Sommerer
Geschäftsführer its-people GmbH

 

Aktuelles

Put your data to the cloud Teil 1

Autor: Peter Welzig, Senior Professional its-people GmbH

Migrieren einer SQL Server-Datenbank in eine Azure SQL-Datenbank,
Teil 1

Wie bei jedem Hype entsteht schnell ein Begriffs-WirrWarr, daher möchte ich zunächst die Verwendung der Begrifflichkeiten klären.

Für die klassische on-premise Datenbank möchte ich den Begriff „SQL Server Datenbank“ verwenden. Da Azure verschiedene Möglichkeiten bietet, eine Datenbank in der Cloud zu halten, ist es wichtig die verschiedenen angebotenen Techniken klar auseinander zu halten.

Somit soll „SQL Server on Azure VM“ für den Betrieb einer SQL-Server Datenbank in einer virtuellen Maschine, die in Azure läuft stehen (IaaS). Und „Azure SQL-Datenbank“ für den Betrieb einer SQL-Datenbank (eben ohne „Server“) in Azure (PaaS oder DBaaS). Es wird schnell ersichtlich, dass in diesem Fall eben kein vollständiger „SQL-Server“ und keine VM mit Betriebssystem zur Verfügung stehen.

Wie somit aus dem Titel bereits erkennbar, soll dieser Artikel die Migration einer on-premise Benutzerdatenbank einer „SQL-Server Datenbank“ in eine Azure SQL-Datenbank beschreiben. Eine Migration einer „SQL-Server Datenbank“ in einen „SQL Server on Azure VM“, ist im Prinzip vergleichbar eines Updates von einer SQL-Server Datenbank. Und er kann auch mit den gleichen Methoden wie Backup/Restore, ETL bzw. SSIS, Copy/Clone, Replikation … und bis zur Verwendung von „Always Availability Groups“ durchgeführt werden.

Steps

Die grundlegenden Steps einer Migration in eine Azure SQL-Datenbank unterscheiden sich im Vergleich zu anderen Migrationen nicht,

Sie sind im Wesentlichen:

  • Data Quality + Data Cleansing
    (Ja, dieser Step beschreibt sicherlich die „heile Welt“ und nicht die wirkliche und findet daher meist nicht statt. Im Sinne der Migration kann es aber nur Vorteile haben, nicht auch alle „Datenleichen“, technischen Schulden und Altlasten durch die Migration zu schleppen.)

  • Ermitteln der Kompatibilität bzw. der Kompatibilitätsprobleme

  • Lösen der Kompatibilitätsprobleme
    (Dies ist der spannendste, kreativste und oft auch aufwendigste Step. Er entscheidet daher auch über die weiteren Szenarien der Migration. Außerdem führt dieser Step manchmal doch noch zu einer – zumindest teilweisen – Durchführung von Step 1 (Data Quality + Data Cleansing)).

  • Ermitteln und Übertragen der Metadaten wie Rollen, User, Rechte usw.

  • „eigentliche“ Migration, bzw. das Übertragen von Schema und Daten

  • Datenbank-Eigenschaften der Azure SQL-Datenbank einstellen

Tools

Da die Migration nach Azure zurzeit noch Microsoft-lastig ist, und Tools von anderen Anbietern erst langsam eine Anbindung an Azure bieten, sollen die Hauswerkzeuge von Microsoft hier genügen:

  • SQL Server Management Studio (SSMS)

  • SQL Server Data Tools für Visual Studio (SSDT)

  • SQL Server Integration Service (SSIS)

  • Data Migration Assistant (DMA)

Da von Seiten Microsofts die Entwicklung rund um Azure kontinuierlich ist, sollten immer die neuesten und aktuellsten Versionen der Tools verwendet werden.

Szenarien

Prinzipiell kommen zur Migration von kompletten SQL-Server Datenbanken nach Azure, wie bereits kurz erwähnt, das Migrieren der Datenbank in einen SQL-Server, der in einer virtuellen Maschine auf Azure läuft und das Migrieren in eine Azure SQL-Datenbank in Betracht. Da die Migration im ersten Fall wie eine Migration von einem SQL-Server zu einem anderen SQL-Server zu sehen ist, kann dies auch mit den gleichen Techniken durchgeführt werden (Stichworte siehe oben).

Interessanter wird’s bei der Migration in eine Azure SQL-Datenbank, also die Nutzung als Dienst bzw. Service in der Cloud (PaaS bzw. DBaaS).

Zur Ermittlung der Kompatibilität kann zunächst mit dem Data Migration Assistant (DMA) ein Assessment durchgeführt werden. Das Ergebnis des Assessments ist eine Liste mit Erläuterungen und Lösungsmöglichkeiten zur „SQL Server feature parity“ (Feature Übereinstimmung) und der „Compatibility issues“ (Kompatibilitätsproblemen). Dieses Ergebnis und die Komplexität der Lösungsmöglichkeiten entscheiden dann über das konkrete weitere Vorgehen.

Im Detail wird versucht, eine transaktionsgesicherte Kopie der Quelldatenbank solange zu „tunen“, bis die Migrationsblocker beseitigt sind. Je nach Umfang und Aufwand sind zwei grundlegende Vorgehensweisen denkbar:

  • Bearbeiten der Kopie der Quelldatenbank mit skriptbaren T-SQL Befehlen und anschließendem Export von Schema und Daten aus der bearbeiteten Kopie der Datenbank und Import in die Azure SQL Datenbank

  • Oder bei umfangreicheren Änderungen: Laden der DB in ein Visual Studio (mit SQL Server Data Tools) Datenbank-Projekt und Bearbeitung der Issues innerhalb des Projektes

Natürlich sind eine Reihe andere Vorgehensweisen ebenso denkbar, wie z.B. eine Kombination der beiden genannten Vorgehensweisen oder die Nutzung der Integration Services (SSIS) oder anderer ETL-Prozesse. Auch hier könnten die einzelnen Skripte und entwickelten Routinen des Visual Studio Datenbank-Projektes wieder verwendet werden.

Konkretes

Sind die Kompatibilitätsprobleme „überschaubar“ und kann die zu erreichende Kompatibilität mit ebenso „überschaubaren“ T-SQL-Skripten erreicht werden, lässt sich wie folgt vorgehen:

  1. Erstellen einer transaktionsgesicherten Kopie der zu migrierenden Quelldatenbank

  2. Erstellen von T-SQL-Skripten zur Erlangung der notwendigen oder benötigten Kompatibilität

  3. Erneutes Überprüfen der Kompatibilität und Funktionsübereinstimmung mit dem Data Migration Assistant

  4. Schleife über die Punkte 2. und 3., bis die zu erreichende notwendige Kompatibilität und Funktionsübereinstimmung hergestellt ist

  5. Export von Schema und Daten in eine BACPAC-Datei. Eine BACPAC-Datei ist eine ZIP-Datei mit der Erweiterung BACPAC. Sie enthält die Metadaten und Daten aus einer SQL Server-Datenbank. Eine BACPAC-Datei kann im Azure Blob Storage oder im lokalen Speicher an einem lokalen Standort gespeichert werden und dann in die Azure SQL-Datenbank importiert werden. Die BACPAC-Datei kann mit dem Management Studio (SSMS) oder dem Befehlszeilen-Werkzeug „SqlPackage.exe“ erstellt werden. Die Verwendung des Tools „SqlPackage“ bietet meist eine bessere Skalierbarkeit und Leistung beim Im-und Export der BACPAC-Dateien.

  6. Import der BACPAC-Datei in die Azure SQL-Datenbank. Dies kann über das Azure Dashboard oder wieder über das Befehlszeilen-Werkzeug „SqlPackage.exe“ durchgeführt werden. Neben den o.g. Vorteilen bei Verwendung von „SqlPakage“ kommt beim Import ein weiterer Vorteil hinzu: die BACPAC-Datei kann direkt von einem lokalen Speicherplatz aus importiert werden. Bei Verwendung des Azure Dashboards muss – zumindest derzeit noch – die BACPAC-Datei über einen Azure Blob Storage bereitgestellt werden.

  7. Einstellen des Kompatibilitätslevels der Azure SQL-Datenbank mit den T-SQL Befehlen „ALTER DATABASE Compatibility Level“ und/oder „ALTER DATABASE SCOPED CONFIGURATION“.

  8. Ein- und Erstellen der Metadaten wie User, Rechte, Eigenschaften und dergleichen

  9. Test, test, test ….

Der 2. Teil dieses Artikels beschreibt die etwas komplexeren Kompatibilitätsprobleme und beinhaltet auch Schemaänderungen und/oder Änderungen in den Funktionalitäten. Die Fortsetzung folgt am 30. Juni hier im its-people Blog.

"Oh Man, this is happening!"

Autor: Jörg Osarek, VR Business Pionier, its-people GmbH

Virtual Reality Analytics verwandelt Verhaltensdaten in Business Value

Als ich mich im Mai 2015 entschied, ein Buch zu Virtual Reality Analytics zu veröffentlichen, war es zunächst nur eine Wette. Bei der Veröffentlichung 2016 gab es dann aber schon konkrete Ansätze: die ersten Frameworks sowie Prefabs für Game Engines waren entwickelt, mit denen es leicht ist, Verhalten in VR/AR aufzuzeichnen und im Nachgang zu analysieren.

Und siehe da, auf einmal kommen Dinge zusammen, die zuvor technisch für unmöglich gehalten wurden, welche wir aber in unserem Buch bereits schon adressiert hatten. Beispielsweise Emotion Analytics von affectiva mit VR Headsets – unmöglich. Denn der Großteil des Gesichts ist bei einem VR Headset schließlich verdeckt. Hier zwei aktuelle Beispiele, wie Mimikanalyse und Augenbewegungen auch in VR genutzt werden können. 

Die Quintessenz daraus: Wir können uns darauf einstellen, dass in den nächsten Jahren sowohl die Analyse von Verhalten, Bewegungen und auch Mimik (und deren Bedeutung) in VR und AR möglich sein werden. Voraussetzung dafür ist eine breitere Marktdurchdringung von VR/AR Geräten. Aber geben wir dem einfach ein wenig Zeit und fragen uns: Wo stehen wir denn heute?

Während viele Unternehmen erst überlegen, ob (und nicht wie) immersive Technologien sich in ihr Business integrieren lassen, erschaffen und kontrollieren progressive Plattform-Anbieter bereits die Analytics-Produkte der nächsten Generation. Sie veröffentlichen erste Erkenntnisse, aus denen der immense Nutzen sowie auch die Gefahren dieser neuen Technologie deutlich werden.

Aldin Dynamics entwickelt parallel mit dem VR Spiel „Waltz of the Wizard“ sein VR Analytics Produkt Ghostline und hat jetzt Nutzer-Statistiken veröffentlicht und damit auch gleich eine Kontroverse über die Datensammlung ausgelöst. Das Spiel, bei dem man in die Rolle eines Zauberers schlüpft, liefert neben Basis-Fakten, dass z.B. Nutzer in China weltweit den meisten Raum für "Room Scale VR" zur Verfügung haben, auch interessante Einblicke in das statistische anonymisierte Verhalten der Spieler. Bei über 300.000 Sessions des im Mai 2016 gestarteten Programms haben Spieler über 29.000 Mal (knapp 10%) den Assistenten des Zauberers erschossen. Der Schädel wurde in 5% der Fälle aus dem Fenster geworfen und in 17% der Fälle im Zauberkessel versenkt.

Die Analytics Software Ghostline erfüllt hier mehrere Zwecke:

  1. Sie zeichnet an bestimmten Stellen Bewegungen der Spieler auf, um diese später im Gameplay als Aufzeichnung wiederzugeben. So besteht die Möglichkeit sich anzuschauen, was man zuvor getan hat.

  2. Sie sammelt Analysedaten über das detaillierte Verhalten der Spieler im Spiel, um die Erfahrung selbst zu verbessern und zu identifizieren wo es hakt und was die Entwickler optimieren müssen.

  3. Die gesammelten Daten können anonymisiert statistische Erkenntnisse liefern. Wären sie personalisiert, würden sie sich auch für ein intensives Profiling eignen. Letzteres sei laut Angaben von „Aldin Dynamics“ nicht der Fall.

Doch heben wir den Blick von diesem konkreten Spiel und denken einmal darüber nach, welche "Events" zukünftig von Nutzern immersiver Technologien aufgezeichnet und für ein Profiling verwendet werden können. Tun wir das, wird schnell klar, dass darin sowohl große Möglichkeiten wie auch eine Bedrohung der Privatsphäre gesehen werden kann. Welcher Personalreferent würde nicht gerne wissen, wie sich jemand in virtuellen Umgebungen verhält, um daraus zu schließen, wie derjenige in Konfliktsituationen möglicherweise handeln würde. Doch hier ist Vorsicht mit vorschnellen Schlussfolgerungen angebracht. Menschen die Spiele und VR zum Dampf ablassen nutzen und dadurch in der "realen Welt" entspannter sind, würden damit falsch eingeschätzt.

So zeigt sich wieder einmal: Wir benötigen mehr Informationen, die wir validieren können, um die richtigen Schlüsse zu ziehen – und dies braucht Zeit.

Facebook verfügt über ein erstaunlich umfangreiches und tiefgehendes Know-How über Verhalten und Vorlieben seiner Nutzer. So ist es auch verständlich, weshalb Facebook in den letzten Jahren Milliarden US-Dollar in VR und AR investiert hat. Gewisse private Informationen bedeuten auf lange Frist gesehen bare Münze. Was man von dieser Strategie halten mag ist eine Sache, die Aussicht auf Erfolg für Facebook erscheint jedoch realistisch. Und in diesen Kanon haben sich auch Apple, Google, Microsoft, Valve (Anbieter der VR-Plattform SteamVR und Initiator der HTC Vive) und weitere große Unternehmen eingereiht.

Bei Virtual- und Augmented-Reality Analytics handelt es sich um ein fortgeschrittenes Werkzeug mit einem großen und unverzichtbaren Nutzerpotential für das Erschaffen besserer immersiver Erlebnisse. Und es ermöglicht uns, viel Neues über das Verhalten von Menschen zu lernen. Aufgrund meiner persönlichen Erfahrungen mit VR und AR will ich jedenfalls nicht auf diese Möglichkeiten verzichten.

Wie jedes Werkzeug, kann auch dieses zum Wohl oder Wehe der Menschen eingesetzt werden. Wir erkennen anhand der aktuellen Beispiele, dass dies keine Science-Fiction ist, sondern bereits heute realer Bestandteil der digitalisierten Gesellschaft. Neben dem technischen Aspekt, wie wir diese Plattformen in unsere Enterprise Systeme und unser Business integrieren, stellt sich auch die Frage: Welche von den Möglichkeiten wollen wir nutzen und wie lässt sich dies rechtssicher im Sinne des Investitionsschutzes gestalten?

Das Erfreuliche: Immer häufiger wird dieser Diskurs geführt und immer mehr Experten widmen sich solchen wichtigen Fragen rund um immersive Lösungen. Dies geschieht zeitgleich mit dem verstärkten Aufkommen von Kundenprojekten mit genau diesem Fokus. Also wie man immersive Komponenten in das Business und die bestehenden Enterprise-Systeme integrieren kann.

In diesem Sinne schließe ich mit den Worten: "For sure, this is happening!"

Zum Autor

Jörg Osarek ist Gründungsmitglied des its-people Verbundes und seit 2012 als VR Business Evangelist mit Keynotes, Trainings und Consulting-Projekten für unsere Kunden unterwegs. Unser Kunde VNR AG berichtet über seinen VR Future Day vom 09.06.2017 auf seiner Facebook-Seite und mit einem Video.

Jörg Osarek gibt bei seinem nächstem Vortrag auf den VR/AR Excellence Days am 28.06.2017 in Hamburg einen Einblick, wie Unternehmen die Kraft der 3 immersiven Wellen für ihr Business nutzen können. 

Berichte & Informationen

Ein gewinnbringendes Team: Hadoop kombiniert mit EXASOL Technologie

Autor: Exasol

Eine Success Story unseres Partners Exasol

Hadoop ist fester Bestandteil der IT-Infrastruktur

Die Open-Source Plattform ist dank horizontaler Skalierung optimal geeignet, um Daten sicher und fehlertolerant auf bis zu mehreren tausend Servern innerhalb eines Clusters zu verteilen. Darüber hinaus ist diese Lösung wirtschaftlich und so verwundert es kaum, dass rund 80 Prozent der Unternehmen Hadoop bereits im Einsatz haben oder dies entsprechend planen[1].

Die Kombination mit In-Memory Technologie bringt’s

Alleine das effiziente Speichern bringt aber noch keinen Vorteil, denn erst durch gezielte Analyse entstehen Erkenntnisse, die sich im nächsten Schritt positiv auf den Geschäftserfolg auswirken. Hinzu kommt, dass im Big Data- und Business Intelligence-Umfeld die Zeit häufig ein kritischer Faktor ist. Analyse-Ergebnisse müssen schnell, am besten in Echtzeit, vorliegen. Hier stößt Hadoop an seine Grenzen. Um diesen Flaschenhals zu umgehen, ist der Einsatz von EXASOLs In-Memory Datenbank in vielen Fällen eine gewinnbringende Lösung. Diese wird als High Performance Schicht auf Hadoop aufgesetzt und liefert die nötige Geschwindigkeit bei der Datenanalyse.

Ein gutes Anwendungsbeispiel ist das Unternehmen King Digital Entertainment PLC, auch bekannt als King.com. Der britische Anbieter von Onlinespielen entwickelt seine kostenfreien Spiele als Smartphone-Anwendung, als Browserspiel oder auf Facebook. Um täglich 1,5 Milliarden Spielverläufe analysieren zu können, setzt King die In-Memory Datenbank von EXASOL in Kombination mit dem Hadoop-Framework ein.

Vorteile und Nutzen

EXASOL lässt sich einfach in die vorhandene Hadoop-Infrastruktur integrieren. Außerdem skaliert die Lösung sehr gut und bietet damit ein hohes Maß an Flexibilität. IT-Ressourcen sowie die Budgets der Fachbereiche werden dadurch entlastet, ohne auf hohe Leistung verzichten zu müssen.

Weitere Details und Informationen lesen Sie auch im EXASOL Whitepaper „Got Hadoop?“

 

[1] Quelle: http://barc.de/news/wie-unternehmen-hadoop-einsetzen-wollen

Industrie 4.0 – Nichts ist stetiger als der Wandel

Autor: Torsten Zimmermann, IT-Experte für Qualitätsmanagement, Qualitätssicherung, Prozesse, its-people GmbH

Teil 4, Unternehmensorganisation der Zukunft: Wohin geht die Reise?

Strukturen haben sich in Unternehmen teilweise über Jahrzehnte hinaus entwickelt. Da werden Hierarchien und Verantwortlichkeiten festgelegt. Erfolge führen zum Ausbau von Organisationseinheiten. Neue Mitarbeiter werden eingestellt und die Strukturen wachsen weiter. Regeln und Prozesse werden entsprechend angepasst, aber sehr selten werden Unternehmensbereiche grundlegend geändert.

„Never change a running system or a winning team“, fällt einem hierzu spontan ein. Einem Grundsatz, welchen wir alle gerne folgen. Oft konzentrieren sich deshalb Änderungen auf einen bestimmten Aspekt oder Unternehmensbereich. Hierdurch fällt die Erfolgskontrolle und Ursachenanalyse einfacher. Sollten sich die Erwartungen nicht erfüllen, so können Ursachen rasch ermittelt und sinnvolle, notwendige Anpassungen umgesetzt werden.

In Industrie 4.0 hingegen bedarf es jedoch - wie bereits erwähnt - der holistischen Betrachtung.

Muss man sich von dem Gedanken verabschieden, Veränderung in kleinen, überschaubaren Schritten umzusetzen? Systeme müssen im I 4.0 -Zeitalter sicherlich multidisziplinär entwickelt werden. Strukturen müssen also an mehreren Stellen innerhalb des Unternehmens gleichzeitig verändert werden. Oft sind Unternehmen aber in Form von Fachbereichen organisiert. Über Jahrzehnte baute sich hierdurch ein „Silodenken“ auf, welches nun hinderlich bei der Umsetzung von interdisziplinären Ansätzen ist.

Umdenken ist nun wichtig. Häufig empfiehlt sich die Etablierung eines Programms, welches die verschiedenen Projekte der einzelnen Bereiche steuert. Innerhalb des Programms sollte darauf geachtet werden, dass die notwendigen Veränderungen aus den verschiedenen Projekten in Abstimmung zueinander umgesetzt werden. Mit Bezug zur eingangs gestellten Frage können Veränderungen iterativ in kleinen Schritten umgesetzt werden, wenn im Gegenzug eine Roadmap etabliert wird, welche die einzelnen Umsetzungsphasen beschreibt. Die besagte Roadmap könnte innerhalb des Programms gepflegt werden, damit das große Ziel nicht aus den Augen verloren wird.

Sinnvoll könnte auch sein, in diesem Organ unter anderem das Anforderungs- und Scope Management zu behandeln, um Moving Target Effekte professionell zu unterbinden. Die Frage, welche Querschnittsfunktionen hierin etabliert werden, wird sicherlich erfolgskritischen Einfluss auf das gesamte Transformationsprogramm haben. So könnte man sich weitere Boards zu den Themen Qualität, Technologie, Organisation, Kultur etc. vorstellen.

Da es hierbei um die Entwicklung von Systemen geht, wird das "Systems Engineering" an Bedeutung gewinnen. Sicherlich findet man im Konzernumfeld bereits diese Disziplin. Zukünftig wird "Systems Engineering" aber in allen Unternehmensgrößen verbreitet sein. Dabei stellt sich die Frage nach der optimalen Unternehmensorganisation der Zukunft. Macht eine funktional organisierte Fima noch Sinn oder eher die Matrix-Organisation? Oder lieber gleich agiles Management als Weiterentwicklung des Lean Managements, um angemessene und zeitgemäße Antworten auf die Globalisierung zu finden?

Ehrlich gesagt, gibt es darauf noch keine endgültige Antwort. Es zeichnet sich jedoch ab, dass sich auch hier die Betriebe neu erfinden müssen. Denn viele Experten gehen heute davon aus, dass unser aktuelles Verständnis über Produkte und Dienstleistungen nicht mehr im Rahmen einer zukunftsfähigen, intelligenten Produktion passen wird. Hierzu zählt auch die relativ strikte Aufteilung der Felder Produktentwicklung,
Labor / Prüfung / Tests, Planung, Produktion sowie Dienstleistungen.

Flexibles und risikolimitiertes Prozessmanagement. Ist das die Lösung? Dieses Thema wird im nächsten Teil dieser losen Serie behandelt.

Fortsetzung folgt.

Link Teil 1

Link Teil 2

Link Teil 3

Partnerschaften

Interner Partner

IT-Experte und Datenbank Spezialist für Microsoft SQL-Server

Wir freuen uns, Ihnen an dieser Stelle Peter Welzig vorzustellen, der am 01. Juni 2017 als neues Mitglied der its-people GmbH, seine Tätigkeit aufgenommen hat.

Peter Welzig verfügt über eine langjährige Erfahrung und Expertise rund um den Microsoft SQL-Server. Dazu gehören insbesondere die Entwicklung von Datenbank-Applikationen, das Design und die Architektur von Datenbankstrukturen sowie die Administration, das Troubleshooting und das Tuning der Datenbanken.

Seit einiger Zeit bilden Lösungen und Konzepte mit der Cloud-Datenbank Azure SQL Database einen weiteren Schwerpunkt seiner Tätigkeiten. Hierzu gehören unweigerlich auch die Themen der Migration und Anbindung von Datenbanken in die Cloud, sowie hybride Datenbanken mit Stretch Database.

Umfangreiche Fähigkeiten als Tester und Testmanager in der agilen Softwareentwicklung von Datenbank-Applikationen runden sein umfangreiches Profil ab. Er ist außerdem zertifizierter Scrum Master (CSM).

Wir freuen uns auf eine gute Zusammenarbeit mit Peter Welzig.

Veranstaltungshinweise

Europäische TDWI Konferenz

vom 26. bis 28. Juni 2017 in München

© tdwi.eu

Wir sind Aussteller auf dem größten Messeplatz für BI-Anbieter.

Informieren Sie sich an 3 Tagen über die neuesten Trends und Entwicklungen im Bereich Business Intelligence, Analytics und Data Warehousing. Besuchen Sie its-people am Messestand sowie die zahlreichen Anwenderforen, Roundtables und Schulungen. Wir freuen uns auf interessante Gespräche mit Ihnen!

link

Virtual Reality/Augmented Reality Excellence Days

am 27. und 28. Juni 2017 in Hamburg

VR & AR in Unternehmen. Monetarisieren, aber wie? Die Einsatzmöglichkeiten von VR & AR als Geschäftsmodell sind vielfältig, aber nicht immer so einfach, wie es auf den ersten Blick wirken mag. Dennoch kann die richtige Integration helfen, die Marke und das ihr entgegen gebrachte Vertrauen zu stärken und auszubauen.

Am 28. Juni um 9.55 Uhr hält unser Partner Jörg Osarek bei der Google Deutschlandzentrale in Hamburg einen Vortrag zum Thema: „Wie nutzen Sie die Kraft der drei immersiven Wellen VR/AR/USEMIR für Ihr Business?

Zum Vortrag

Virtual Reality (VR) ist nur die erste der drei Wellen des Visual Computings, die in den nächsten Jahren anrollen. Nach der VR Welle folgen Augmented Reality (AR) und Ubiquitous SEnsory MIxed Reality (USEMIR). Jede Welle erzeugt ihre eigene Integrationsphase mit heutigen Enterprise-Systemen und erweitert und transformiert diese fundamental. Um von diesen Erweiterungen profitieren zu können, müssen Firmen ihre Immersive-Business-Strategie mit ihrer IT-Architektur-Strategie synchronisieren. In diesem Vortrag werfen wir einen komprimierten Blick auf die kritischen Erfolgsfaktoren für das Erreichen der immersiven Business-Ziele.

© VR/AR Excellence Days

Zum Autor

Jörg Osarek erstellte seine erste Enterprise VR Applikation 1998. Sein 3D-Animation-Hintergrund reicht bis in die späten 1980er zurück. Seit 2012 ist er intensiv in der neuen Ära von Virtual und Augmented Reality aktiv und fokussiert sich auf VR/AR Analytics, Cinematic VR, VR/AR Business Trainings und -Projekte.

Jörg Osarek ist Keynote Speaker und IT Management Consultant für "Game Changing Technologies". Er ist Gründer des Skilltower Institute, das für seine Kunden Themen einige Jahre vor dem Mainstream aufgreift und ihnen den Business-Nutzen sowohl strategisch als auch in Hands-On Proof of Concepts erschließt.

Jörg Osarek arbeitet seit 1992 im IT-Consulting und wurde 2003 Mitbegründer des its-people IT Consulting Verbunds. Er ist Autor mehrerer Bücher über Consulting und den Impact von IT auf unsere Zivilisation. In Kundenprojekten unterstützt er sowohl beim Erstellen interaktiver virtueller Welten und VR Production Pipelines, bei deren Integration mit Enterprise Systemen als auch bei deren Automatisierung und Virtualisierung.

link


Newsletter 06/2017

Sie möchten den its-people Newsletter nicht mehr erhalten?
Melden Sie sich hier vom Newsletter ab .

Impressum

enterpriser GmbH & Co. KG · Lyoner Straße 44-48 · 60528 Frankfurt
Telefon : +49 69 24751980 · E-Mail: webmaster@its-people.de
Geschäftsführer: Thomas Algermissen, Thomas Kraemer
HRA 42547 - Amtsgericht Frankfurt

Copyright 2015 © enterpriser GmbH & Co KG. Alle Rechte vorbehalten. enterpriser GmbH & Co KG versendet E-Mails nicht unaufgefordert. its-people© und bcs-people©: Dachmarken der enterpriser GmbH & Co. KG