Newsletter 08/2017

Liebe Leser und Abonnenten,

Cloud-Dienste werden bereits durch den Großteil der deutschen Unternehmen genutzt oder die meisten anderen haben zumindest Pläne, das zu tun.

Die Frage „Cloud oder nicht?“ stellt sich also nicht mehr. Die Cloud ist im Jahr 2017 in den deutschen Unternehmen angekommen.

Durch den am aktuellen Bedarf orientierten Ressourcen-Einsatz lässt sich viel Geld sparen. Aber nur, wenn die Anwendungen auch für diese sogenannte Elastizität ausgelegt sind. Das ist bei Altanwendungen, die per Lift-and-Shift in die Cloud gehievt wurden, in der Regel nicht der Fall. Neuentwicklungen können diese Vorteile und die vielen neuen Services hingegen voll ausschöpfen.

Durch die Nutzung von Cloud-Diensten wird die Internet-Anbindung zur kritischen Ressource. Auf einmal bedeutet eine Internet-Störung die Abkopplung von der Unternehmens-IT. Und nicht zuletzt: Breitbandiger Internetzugang ist auch im Jahr 2017 noch lange nicht in allen Regionen von Deutschland zu haben.

Keiner der großen Cloud-Anbieter bietet SLAs an, die den Kunden angemessene Entschädigungen beim Ausfall seiner Dienste bieten. Um Ausfälle zu vermeiden, müssen Daten und Services konsequent über mehrere Rechenzentren und Regionen gespiegelt werden. Der Ausfall von Amazons S3-Dienst von Anfang März hat gezeigt, wie wichtig ein solches Vorgehen ist. Zahlreiche große Webseiten waren betroffen und nicht mal Amazon selbst ist komplett verschont geblieben. Solche Spiegelungen lassen die anfänglichen Kostenvorteile einer Cloud-Lösung jedoch rasch zusammenschmelzen.

Als IT-Dienstleister beschäftigen wir uns schon lange mit Cloud Themen und haben bereits Erfahrungen mit allen großen Anbietern und den meisten Servicemodellen (XaaS) in konkreten Projekten sammeln können. Unsere its-people Kollegen Sven Brömer und Peter Welzig berichten in diesem Newsletter über das Hotspot-Feature von Amazon AWS und wie man Daten samt Datenbank zu Microsoft Azure bekommt.

Die großen IT-Konferenzen sind in der Sommerpause. Wir nutzen diese Zeit für zwei Webinare: Mein Webinar „Tools für Cloudnutzer und DBA’s: Die Secure Shell ssh“ hat am 11. August stattgefunden. Die Folien und eine Aufzeichnung gibt es für DOAG-Mitglieder kostenlos auf der DOAG-Webseite.

Am Donnerstag, den 17. August plaudert meine Kollegin Sabine Heimsath zusammen mit mir über Batchscripting in JavaScript im SQLPlus-Nachfolger SQLcl. Moderiert wird unser CodeTalk von Oracle Developer Advocate for SQL Chris Saxon. Wie alle internationalen Veranstaltungen findet dieses Webinar in englischer Sprache statt.

Sollten Sie bis hierhin gelesen haben, sind Sie ja bereits mittendrin im Thema...

Ich wünsche viel Vergnügen beim Lesen unseres Newsletters!

Robert Marz
Portfolio Manager Datenbanken its-people GmbH

Aktuelles

Ein Überblick: Data Services in der Cloud Azure, Teil 1

Autor: Peter Welzig, Senior Professional its-people GmbH

Es ist schwierig geworden, den Überblick über die Services und Dienste der Microsoft Cloud „Azure“ zu behalten. Daher finden Sie hier nun eine Übersicht. Natürlich kann und möchte ich Sie nicht mit einer kompletten Auflistung aller Azure Dienste langweilen. Daher sollen nur die Daten und Datenbank relevanten Dienste, die von Microsoft selbst angeboten werden, berücksichtigt werden. Und dies in einer groben Unterteilung in „Datenbanken“ und „Daten und Analytics“.

Der erste Teil betrachtet alle von Microsoft angebotenen Dienste zum Thema

Datenbanken
  • SQL-Datenbank – die relationale SQL-Datenbank als DaaS-Lösung (Database-as-a-Service)

    Sozusagen die „klassische“ relationale SQL-Server Datenbank, nur eben „ohne“ Server sondern als Service in Azure bereitgestellt. Mit allen Vor- und Nachteilen einer Cloud-Datenbank im Vergleich zu On-Premise. Skalierbar in detaillierten Stufen in Leistung und Größe, relativ preisgünstig und aufgesetzt in Minuten: „Stell Dir vor, es ist eine Datenbank und keiner installiert!“

    Natürlich auch mit allen Nachteilen, wie dem Fehlen des voll vorhandenen Datenbankservers mit all seinen Diensten (SQL-Browser, Agent etc.). Die klassische Diskussion zwischen Cloud und eigenes Blech will ich hier aber vermeiden und vielmehr auf die weiteren Datenbank-Dienste der Azure-Cloud eingehen.

  • Azure-Datenbank für MySQL– eine MySQL-Datenbank als Dienst bzw. Service

    Die relationale Open Source Datenbank MySQL als Datenbankdienst in Azure, basierend auf der MySQL Community Edition. Also auch eine DaaS-Lösung mit vollständiger Verwaltung in Azure bezüglich Leistung, Skalierbarkeit, Verfügbarkeit und Datenschutz. Verschiedene Preismodelle von Basic über Standard und demnächst auch Premium, gestaffelt nach Compute Units und Storage-Space stehen zur Verfügung.

  • Azure-Datenbank für PostgreSQL – eine PostgreSQL-Datenbank als Dienst bzw. Service

    Analog zur Azure-Datenbank für MySQL, ist dies die relationale Open Source Datenbank PostgreSQL als Datenbankdienst in Azure, ebenfalls basierend auf der Community-Version. Also auch eine DaaS-Lösung mit vollständiger Verwaltung in Azure bezüglich Leistung, Skalierbarkeit, Verfügbarkeit und Datenschutz mit vergleichbaren Preismodellen wie bei der Azure-Datenbank für MySQL. Verbindungsbibliotheken stehen derzeit für Python, PHP, Ruby, .NET, Java, Go, Node.js, ODBC, C und C++ zur Verfügung. Der Dienst unterstützt die Installation von PostgreSQL Erweiterungen nur teilweise und keine eigenen Erweiterungen. Was sich aber noch jederzeit ändern kann, da der Dienst sich noch in der Preview-Phase befindet. Ebenso werden noch nicht alle Verwaltungsmerkmale in der Skalierung, Migration und bei Versionsupgrades unterstützt.

  • SQL Data Warehouse - eine elastisch skalierbare Data Warehouse Lösung als integrierter Service mit Enterprise-Funktionalitäten

    Die Basis für das SQL Data Warehouse ist (wie nicht anders zu erwarten) die SQL-Server Datenbankengine. Daher stehen auch viele (nicht alle!) bekannten Eigenschaften und Funktionen, wie die Verwendung von T-SQL, Stored Procedures, User Defined Functions, ColumnStore-Indizes usw., zur Verfügung.

    Die Architektur ist auf MPP (Massively Parallel Processing) mit hoher Skalierbarkeit auch für Big Data Anwendungen ausgelegt. Die „elastische“ Skalierbarkeit bedeutet hierbei, dass getrennt nach Compute- und Storage-Leistung skaliert werden kann.

    Interessant wird der Data Warehouse-Dienst über die Integration in die Azure-Plattform und Kompatibilität mit den SQL Server Tools. Dies ermöglicht ein sehr leistungsfähiges Zusammenspiel der Azure-Dienste wie Azure Data Factory, Stream Analytics, Machine Learning oder PowerBI. Und dies mit den Werkzeugen und Diensten wie Analysis Service, Integration Service, Reporting Service und insbesondere PolyBase und dem Azure Data Lake Store zur Integration von hybriden Datenquellen (NoSQL, Blob- und Hadoop-Speicher, Filestores etc.). Die Verwaltung kann daher auch mit den bekannten Werkzeugen wie dem SQL Server Management Studio oder Visual Studio mit den SQL Server Data Tools oder im Azure Portal bzw. Dashboard erfolgen.

  • SQL Server Stretch-Datenbank - SQL Server-Datenbanken dynamisch nach Azure erweitern

    Die SQL Server Stretch-Datenbank ermöglicht es vollkommen transparent, cold und warm data nach Azure auszulagern. Transparent bedeutet hierbei, ohne notwendige Anpassungen der Applikationslogik oder von Abfragen oder Views.

    Welche Daten nach Azure ausgelagert werden sollen (also wie kalt oder warm sie sein sollen) wird in Form von Filtern definiert, wie zum Beispiel „Alle Daten älter als …“. Die Aktivierung und Verwaltung einer Stretch-Datenbank ist einfach und schnell mit den Standardwerkzeugen (SSMS, Azure Portal/Dashboard) möglich. Die Sicherheitsfunktionen des SQL Server wie Always Encrypted oder Row Level Security werden auch von einer Stretch-Datenbank unterstützt.

    Auf den ersten Blick scheint die Funktion einer vollkommen transparenten Stretch-Datenbank sehr nützlich. Einige Einschränkungen bei der Verwendung (einige Tabelleneigenschaften und Datentypen verhindern derzeit den Einsatz) sowie die im Vergleich zu anderen Azure Diensten überraschend hohen Kosten, verhindern derzeit jedoch (noch?) oft den Einsatz. Schade eigentlich.

  • Azure Cosmos DB - für global verteilte Datenbanken mit mehreren Datenmodellen
    azure cosmos

    Als Nachfolger der Document-DB ist die Azure Cosmos DB einer der neuesten Azure Services. Hauptmerkmale der Cosmos DB sind die hohe Verfügbarkeit und weltweite Skalierbarkeit bei Unterstützung von verschiedenen Datenmodellen. Es werden verschiedene Leistungsmerkmale wie Antwortzeiten, Verfügbarkeit, Durchsatz und Konsistenz via SLAs garantiert. Die Leistungsfähigkeit wird durch eine einfach zu erstellende, globale und redundante Verteilung der Daten erreicht, wobei eine Azure-Region als Schreibspeicher definiert wird und beliebig viele andere Regionen als Lesespeicher.

    Als Datenmodelle werden derzeit No-SQL Daten für Dokumente, Diagramme (Graph-Data), Schlüssel-Wert-Paare (Key-Value), Tabellen und Spaltendaten (Column-Value) unterstützt. Hier ist demnächst noch mehr zu erwarten.Verschiedene konfigurierbare Konsistenzmodelle bieten ein breites Spektrum an hoher SQL-ähnlicher Konsistenz bis hin zu NoSQL-ähnlicher Konsistenz. Konzipiert für hohe Anforderungen an Leistung und Verfügbarkeit für u.a. IoT, Industrie 4.0 und global verteilte Mobile Apps und Anwendungen, ist mit einer entsprechend dynamischen Weiterentwicklung von Cosmos-DB in der Zukunft zu rechnen.

  • NoSQL Tabellenspeicher - Schlüsselwertspeicher für teilweise strukturierte Datasets

    Unter dem Sammelbegriff Azure Storage werden Services angeboten, um verschiedene Arten von Daten in der Cloud zu speichern. Dies sind zur Zeit BLOB bzw. Objekt Daten, Messaging-Queues, File Shares und NoSQL Tabellenspeicher. Diese Speicher sind für massive Skalierbarkeit, Erreichbarkeit und Verfügbarkeit ausgelegt. Kosten entstehen jeweils nur für den verwendeten Speicherplatz. Es werden Schnittstellen für die meisten und gängigsten Sprachen sowie das REST API unterstützt. Für einen hohen Workload wird eine Premiumvariante angeboten.

    Der im weitesten Sinne hier als Datenbankdienst verstandene „Table Storage“ unterstützt das Speichern von strukturierten und teilweise strukturierten Datasets in Form eines NoSQL Key-Attribute Speichers. Der NoSQL Table Storage wird zunehmend durch die Table API der Cosmos Datenbank (siehe dort) abgelöst werden, die ebenfalls einen Table Storage bereitstellt.

  • Redis Cache - für Anwendungen mit hohem Durchsatz und Zugriff mit geringer Latenz

    Für Anwendungen mit besonders hohem Workload und Anforderungen an Größe, Durchsatz und Bandbreite steht der Azure Redis Cache zur Verfügung. Über ein massives verwaltetes Clustering werden Leistungsmerkmale von zurzeit bis zu 2,5 Millionen Zugriffen pro Sekunde unterstützt.

    Der Azure Redis Cache basiert auf der Open Source Version von Redis Cache und kann mit jeder Azure Applikation genutzt werden, mit erweiterten Merkmalen in Sicherheit, Redundanz und Verfügbarkeit.

  • Azure Data Factory - Datentransformationen und Transfers orchestrieren und verwalten

    Die Azure Data Factory (ADF) wären - in dieser Auflistung insbesondere - einen eigenen Artikel wert. Sie sind als eine Art SSIS für die Cloud Azure anzusehen und bilden zusammen mit anderen Diensten wie zum Beispiel PolyBase umfangreiche Möglichkeiten und Ansätze, wenn es darum geht, irgendwelche Daten von irgendwo nach irgendwo zu transferieren und dies mit oder ohne Transformationen, Auswertungen oder Intelligenz.

    Azure_DataFactory_Entities

    Unter der Einbindung der verschiedensten Azure Daten Services lässt sich die ADF im Vergleich zu klassischen ETL-Strecken etwas mehr als „Extract and Load and then Transform“ (ELT) Plattform verstehen. Mit der ADF lassen sich datengetriebene Workflows, hier Pipelines genannt, mit Aktivitäten, hier Activities (data movement und data transformation activities) verknüpfen und verwalten. Datenquellen und Senken können hierbei die Azure Datenquellen aber auch viele On-Premise Datenquellen in Form von Datenbanken, NoSQL, File basierten und generischen http oder ODBC  Datasets sein, um nur einen Teil zu nennen.

    Als Aktivitäten lassen sich die Dienste rund um Hadoop – hier in Form von Azure HDInsight – wie auch Stored Procedures (Azure SQL und SQL Server) und weitere einsetzen. Somit lassen sich recht komplexe Szenarien über das Zusammenspiel von Datasets, Aktivitäten, Pipelines und Linked Services (siehe Grafik) abbilden. Die Möglichkeiten scheinen zunächst fast unbegrenzt und werden auch kontinuierlich ausgebaut.

Soweit zunächst die verschiedenen Azure Datendienste, die sich weitestgehend über den Sammelbegriff „Datenbanken“ zusammenfassen lassen. Dies kann und muss als eine Art Momentaufnahme angesehen werden, da die Entwicklung sehr dynamisch ist und nach dem Motto „Cloud first“ verläuft, also neue Funktionen und Erweiterungen zuerst in Azure bereitgestellt werden, bevor sie zum Beispiel im SQL Server vorhanden sind.

Im nächsten Teil dieses Artikels möchte ich dann auf die Azure Dienste eingehen, die sich unter den Begriff „Daten und Analysen“ zusammenfassen lassen.

Wer jetzt unter Datenbanken auch Oracle und Konsorten erwartete, sei darauf hingewiesen, dass es hier um reine Azure Dienste und Services ging. Selbstverständlich lassen sich auch Oracle Datenbanken in virtuellen Maschinen in Azure betreiben. Hierfür existieren sogar verschiedene fertige VMs, die dann auch innerhalb von Minuten zur Verfügung stehen.

Und am Ende noch ein Ausblick auf Teil 2 des Artikels (folgt demnächst):

Daten und Analysen
  • HDInsight
    Cloudbasierte Hadoop-, Spark-, R Server-, HBase- und Storm-Cluster
  • Machine Learning
    Predictive Analytics-Lösungen erstellen, bereitstellen und verwalten
  • Stream Analytics
    Echtzeitverarbeitung von Datenströmen von Millionen von IoT-Geräten
  • Azure Bot Service
    Intelligenter, serverloser Botdienst mit bedarfsgesteuerter Skalierung
  • Data Lake Store
    Riesiges Repository für Big Data-Analyseworkloads
  • Data Lake Analytics
    Verteilter Analysedienst zur vereinfachten Analyse von Big Data
  • Azure Data Catalog
    Verwalten von Unternehmensdatenbeständen

 

Schnell und günstig: AWS Spot-Instances

Autor: Sven Brömer, Senior Professional its-people GmbH

Wie verhält es sich mit AWS Spot-Instances? Wie funktionieren sie?

Nimmt man jetzt beispielsweise ein Audi A4: Mit ihm kommt man zu einem vernünftigen Preis, komfortabel und zügig ans Ziel. An manchen Tagen drohen selbst die 245 PS nicht auszureichen. Man muss mit Lastspitzen etwas zügiger umgehen können, um innerhalb einer bestimmten Zeit ans Ziel zu kommen. So wäre es doch sehr praktisch, wenn man jemanden kennen würde, der einen McLaren P1, Porsche 918 und einige andere schnelle und große Autos mehr in der Garage stehen hätte. Wenn nun derjenige seinen P1 zu einem günstigen Preis verleihen würde, wenn er ihn gerade nicht braucht – ja, das wäre doch ideal.

Und genau so verhält es sich mit AWS Spot-Instances.

Denn, was vielen nicht bekannt ist, Amazon versteigert, auch kurzfristig, nicht genutzte EC2 Kapazitäten zu verhältnismäßig günstigen Preisen. Der Preis richtet sich dabei nach Angebot und Nachfrage von in der Region verfügbaren Ressourcen. Zu lastarmen Zeiten sind Spot-Instances sogar mit einem Rabatt von bis zu 90 % im Vergleich zum On-Demand-Preis verfügbar. (link)

Dabei ist das Bieterverfahren von Amazon recht simpel gehalten. Es gibt einen Höchstpreis, den der Bieter bereit ist, innerhalb einer Region für einen Instanz-Typen zu zahlen. Wird die Spot-Instance dann angefordert, startet sie, wenn der Spot-Preis niedriger als der angegebene Höchstbetrag ist. Beendet wird die Instanz entweder manuell oder der aktuelle Spotpreis übersteigt den angegebenen Höchstpreis. Es erfolgt eine Benachrichtigung und nach zwei Minuten wird die Spot-Instances von Amazon heruntergefahren. Somit wird sichergestellt, dass auch nie mehr als der angegebene Höchstpreis bezahlt werden muss.

Eine weitere Möglichkeit Spot-Instances zu betreiben, ist nicht preisgetrieben, sondern zeitgetrieben. Somit läuft die Ressource so lange, bis sie manuell beendet wird oder die angegebene Dauer von maximal 6 Stunden in Stundenschritten abgelaufen ist. Unabhängig von den Änderungen des Spot-Preises.

Wenn nun die Spot-Instances nach Erreichen der Höchstdauer oder des Höchstgebotes einfach heruntergefahren werden, sind sie nicht für jeden Applikationstyp zu empfehlen. Die Applikation sollte eine gewisse Fehlertoleranz aufweisen und verteilbar sein.

Sprich, sie sind also weniger geeignet für Real-Time-Anwendungen.

Amazon selbst schlägt sie vor für:

  • Anwendungen mit flexiblen Start- und Endzeiten

  • Anwendungen, die nur zu äußerst geringen Computing-Preisen realisierbar sind

  • Benutzer mit dringenden Computing-Anforderungen für große Mengen an Zusatzkapazitäten

Spot-Instances sind daher hervorragend geeignet, um diverse Aufgaben zu erledigen und Lastspitzen zu verteilen. Je verteilter und skalierbarer die Applikation, desto höher ist das Einsparpotential bei den Betriebskosten und desto einfacher lässt sich der Durchsatz erhöhen.

Um nur einige Anwendungsfälle zu benennen, sind Spot-Instances durchaus interessant für

  • AnalysenSven_112601508_2

  • Big Data

  • Geodatenanalyse

  • High Performance Computing

  • Simulationen

  • Verschlüsselung

Weiteren Charme bekommt der Einsatz der AWS Spot-Instances durch die Möglichkeit, die Verwaltung durch Scripting vollständig zu automatisieren. Man muss also nicht alles über das Webinterface administrieren, sondern kann auch auf die von Amazon eigens dazu angebotene API zugreifen. Damit lassen sich beispielsweise Gebote auf den bestmöglichen Preis automatisieren und sogar die Preishistorie von Amazon abfragen.

Sofern man seine Anwendung kennt, kann man auch bei einem hohen Aufkommen an Berechnungen, dynamisch Spot-Instances aufbauen, um diese abzuarbeiten. Entstehen innerhalb der Applikation beispielsweise 3 Millionen Berechnungen, die innerhalb der nächsten Stunde abgearbeitet werden müssen, ist man somit in der Lage, dynamisch zum bestmöglichen Preis eine Spot-Instance-Flotte zu erstellen, die mit einem vordefinierten Amazon Machine Image erstellt wird. Diese kümmert sich in der nächsten Stunde nur um die Bearbeitung der Berechnungen und baut anschließend die Spot-Instances wieder ab. Ganz ohne weitere Interaktionen oder Eingriffe im Betrieb.

Durch den Einsatz von Spot-Instances lassen sich also Betriebskosten einsparen. Es müssen für Spitzenzeiten nun nicht mehr vollständige Cluster permanent vorgehalten werden. Durch die hohe Skalierbarkeit lassen sich somit auch bei kleinerem Budget durchaus Mammutaufgaben, wie komplexe Analysen, Rendering oder Simulationen bewältigen. Sie führen somit viel schneller an das gewünschte Ziel.

Wer neugierig auf die vielen Möglichkeiten geworden ist, die die AWS Spot-Instances bieten, kann sich die Details direkt in der Amazon Dokumentation anschauen (link).

Und wer sich preislich für die Spot-Instances interessiert, erhält von Amazon gleich einen Berater für Spot-Instances-Gebote (link) an die Hand, um einen schnellen Überblick über die verfügbaren Ressourcen innerhalb einer Region und deren Preisentwicklung zu bekommen.

Partnerschaften

Interner Partner

SAP-Consultant mit Schwerpunkt Logistic Execution and Warehouse Management

Wir freuen uns, Ihnen Matthias Klepp vorzustellen, der am 01. Juni 2017 als neuer Kollege der ERP Beratungsgesellschaft mbH, seine Tätigkeit aufgenommen hat. Matthias Klepp ist ein routinierter Praktiker, der auf mehr als 20 Jahre praxisnahe, modulübergreifende Erfahrung entlang der SAP-Logistikkette zurückgreifen kann. Sein Schwerpunkt lag dabei u.a. auf Process Engineering.

Er verfügt darüber hinaus über Know-how im Bereich des Projektmanagements einschließlich der Teamleitung. Die Analyse, die Beratung auf konzeptioneller Ebene, das Design, das Testmanagement und nicht zuletzt FI-Kenntnisse im Bereich der Logistik runden sein umfangreiches Profil ab.

Matthias Klepp besitzt zudem Erfahrung in der Abwicklung von internationalen Projekten.

Wir freuen uns auf eine weiterhin gute Zusammenarbeit mit ihm.

Veranstaltungshinweise

Webinar: Six reasons why you will get addicted to SQLcl scripting

© fotogestoeber / Fotolia

Am 17. August werden Sabine Heimsath und Robert Marz von its-people zusammen mit Chris Saxon von Oracle ein Webinar zum Thema SQLcl scripting halten. Anmeldung hier

Webinar: Tools für Cloudnutzer und DBAs: ssh

© fotogestoeber / Fotolia

Am 11. August 2017 hat Robert Marz ein Webinar zum Thema Secure Shell (ssh) gehalten. Die Folien und die Aufzeichnung gibt es für DOAG-Mitglieder kostenlos auf der DOAG-Webseite.

Berichte & Informationen

Industrie 4.0 – Nichts ist stetiger als der Wandel

Autor: Torsten Zimmermann, IT-Experte für Qualitätsmanagement, Qualitätssicherung, Prozesse, its-people GmbH

Teil 6, Von der Inflation der Komplexität

Bjarne Stroustrup sagte einmal, „Ich habe mir immer gewünscht, dass mein Computer so leicht zu bedienen ist wie mein Telefon. Mein Wunsch ging in Erfüllung: Mein Telefon kann ich jetzt auch nicht mehr bedienen.“

Egal welches Technologieprodukt Sie betrachten, sie haben alle gemeinsam, dass deren Komplexität extrem zunahm. Dieses explosionsartige Wachstum der Komplexität mit inflationären Ausmaßen stellt in meinen Augen die größte Herausforderung dar. Heute wie in der nahen Zukunft.

Denn damit einher wächst auch die kaum noch zu beherrschende Komplexität der Prozesse in allen Bereichen der Industrie. Von der Planung, Entwicklung bis hin zur Produktion. Das daraus resultierende Spannungsfeld aus möglichst stabilen Prozessen im Design, in der Fertigung und anderswo auf der einen Seite, kombiniert mit einer hohen und variantenreichen Produktvielfalt mit intelligenten Funktionen auf der anderen Seite, konnte bislang mithilfe von embedded Softwarekomponenten geschickt gelöst werden.

Unternehmen, welche diese Disziplin am geschicktesten verstehen, sind in der Regel heute auch in ihrem Marktsegment führend. Dieser Vorsprung wird aber nicht ewig halten. Jedoch könnten die Erfahrungen aus der Integration der embedded Welt in die Produkte von Nutzen für die anstehenden Aufgaben sein. Konkret heißt das, die Geschäftsmodelle, Verfahren, Prozesse und Skills auf vernetzte, intelligente Systeme auszurichten. Ein sinnvolles Mehr an Nutzen für Kunden aufzuzeigen beziehungsweise anzubieten, welches sicherlich eine weitergehende Integration von Software in alle Produktarten zur Folge hätte.

Vielleicht liegt die Lösung darin, die Komplexität in den Griff zu bekommen und gleichermaßen intelligente Lösungen zu realisieren bei denen letztlich die Information der zentrale Aspekt ist. Vielleicht wäre es dann auch möglich, selbst komplexeste Prozesse so einfach ablaufen zu lassen, dass es keiner Interaktion durch den Menschen benötigen würde. Produkte wären dann nicht nur außergewöhnlich gut und qualitativ hochwertig, sondern einfach genial. Das könnte man dann sogar wörtlich nehmen.

Rasante Veränderung von Berufsbildern

Viele Mitarbeiter in Industriebetrieben bringen den Aufbruch in das I 4.0-Zeitalter mit umfassenden Veränderungen am Arbeitsplatz in Verbindung. Zentrales Thema hierbei sind die neuen Anforderungen an die Mitarbeiter selbst. So wurde über die verschiedenen Evolutionsstufen in der Industrie zum Beispiel aus dem Schlosser ein Industriemechaniker und letztlich ein Mechatroniker in Industrie 3.0. Auch das Berufsbild des Mechatronikers verändert sich aktuell in einem rasanten Tempo. Die neue Berufsbezeichnung ist im Übrigen noch nicht gefunden. Dieser Effekt gilt durchweg in allen Bereichen.

Neue Mitarbeiter werden zukünftig nicht einfach und schnell in die Produktionsprozesse einzusetzen sein. Es gibt zwar die Anforderungen an Industrie 4.0, dass die zukünftigen Systeme durch hohe Usability quasi ohne Einarbeitungszeit zu bedienen seien, jedoch ist meiner Meinung nach die Schlussfolgerung hohe Usability garantiert kurze oder keine Einarbeitung zu kurz gesprungen. Es zeigt sich in der Praxis, dass moderne Systeme, welche über Touchpads oder per Sprache gesteuert werden, oft an die betreffende Person angepasst und individualisiert werden müssen. Dabei ist noch zu berücksichtigen, dass der neue Mitarbeiter sich auch in die nun wesentlich komplexeren Prozesse aufgrund der Tiefenintegration mit anderen Systemen einarbeiten muss. Er muss das Zusammenwirken der Systeme verstehen, damit er etwaige Konsequenzen auf Basis seiner Steuerung vor Abgabe der Befehle richtig bewerten kann.

Was weiß man heute schon über die zukünftigen Mitarbeiteranforderungen?

Ehrlich gesagt sind hier noch nicht alle Bedürfnisse bekannt. Sicher ist jedoch, dass IT-Kenntnisse sowie Fertigkeiten im Rahmen der Systemprogrammierung und -konfiguration zunehmen. Es ist sehr wahrscheinlich, dass diese Disziplin in jedem Berufsbild der Industrie Einzug halten wird, wenn dies nicht bereits schon geschehen ist.

Dies wiederum wirkt sich auch auf das Berufsbild des Informatikers aus. Er wird sich noch stärker mit den Begriffen Komplexität und Information beschäftigen müssen. Seine Rolle wird sich vom ehemaligen Programmierer zum Informationsmanager wandeln. Ansätze hierzu sind bereits heute klar erkennbar.

Und was heißt das ganze nun für das Thema Datensicherheit? Darüber berichte ich im nächsten Teil dieser losen Serie.

Fortsetzung folgt.

Link Teil 1

Link Teil 2

Link Teil 3

Link Teil 4

Link Teil 5


Newsletter 08/2017

Sie möchten den its-people Newsletter nicht mehr erhalten?
Melden Sie sich hier vom Newsletter ab .

Impressum

enterpriser GmbH & Co. KG · Lyoner Straße 44-48 · 60528 Frankfurt
Telefon : +49 69 24751980 · E-Mail: webmaster@its-people.de
Geschäftsführer: Thomas Algermissen, Thomas Kraemer
HRA 42547 - Amtsgericht Frankfurt

Copyright 2015 © enterpriser GmbH & Co KG. Alle Rechte vorbehalten. enterpriser GmbH & Co KG versendet E-Mails nicht unaufgefordert. its-people© und bcs-people©: Dachmarken der enterpriser GmbH & Co. KG