iPhone reinigen: Tipps für die iPhone-Reinigung

iPhones sind für viele nicht nur eine Frage der Technik, sondern auch der Ästhetik. Soll Dein iPhone ein Hingucker bleiben, so kommt es für dauerhafte Hygiene und besten Glanz auf eine regelmäßige Reinigung an. Aber welche Methoden und Mittel sind überhaupt geeignet, ein iPhone zu reinigen? Wir verraten, wie Du Dein Apple-Handy sauber hältst.

Kaum etwas halten wir so oft in der Hand wie unser Smartphone. Das führt unweigerlich dazu, dass sich Schmutz, Staub und Bakterien auf dem Touchscreen und dem Gehäuse ansammeln. Um vor allem in Zeiten von Corona die Hygiene von Smartphones aufrechtzuerhalten, ist eine gründliche, regelmäßige Reinigung gefragt. So vermeidest Du unnötige Verunreinigungen und verhinderst verschmutzte Kontakte und Lautsprecher.

Nicht jede Reinigungsmethode eignet sich jedoch für hochwertige Geräte wie das iPhone. Um dennoch Schmutz und Dreck zu entfernen, ohne dem iPhone zu schaden, halte Dich an folgende Reinigungstipps.

Schmutzmagneten am iPhone kennen

Es gibt am iPhone vor allem drei Bestandteile, die besonders schnell verschmutzen:

  • Touchscreen
  • Kontakte (Lightning-Port)
  • Öffnungen von Lautsprecher und Mikrofon

Welches Zubehör eignet sich für die iPhone-Reinigung?

Möchtest Du Dein iPhone reinigen, so braucht es nicht viel. Es genügt bereits eine Grundausstattung bestehend aus folgenden Utensilien:

  • Mikrofasertuch
  • Destilliertes Wasser / Wasser
  • Spezieller Displayreiniger (optional)
  • Typenreiniger / Reinigungsknete (optional)
  • Desinfektionstuch (70-prozentiger Isopropylalkohol oder 75-prozentiger Ethylalkohol)

iPhone reinigen: Worauf solltest Du vor dem Putzen achten?

Bevor Du Dein iPhone reinigst, solltest Du es komplett ausschalten. Das gilt vor allem, wenn Du für die Reinigung angefeuchtete Mikrofasertücher oder Desinfektionstücher verwendest. Auch beim Einsatz von Reinigungsknete für verschmutzte Anschlüsse sollte das Gerät ausgeschaltet sein.

iPhone mit USB-C: Wann ist es so weit?

Achte zudem darauf, dass sich vor der Reinigung keine groben Partikel auf dem Gehäuse oder Display befinden. Diese können beim Abwischen sonst zu Kratzern auf dem Touchscreen oder der Hülle führen.

Apple gibt auf der eigenen Support-Seite folgende Hinweise, die vor und während der Reinigung zu beachten sind:

  • Für die Reinigung nur weiche, fusselfreie Tücher verwenden
  • Keine rauen Textilien wie Handtücher, Kleidung, Taschentücher oder Küchenrollen verwenden
  • Keinen starken Druck ausüben und nicht zu stark über das Display wischen
  • Alle Verbindungen zu Stromquellen trennen
  • Keinen direkten Kontakt mit Flüssigkeiten
  • Feuchtigkeit nicht in Kontakte und Öffnungen kommen lassen
  • Keine Bleichmittel oder Sprays verwenden
  • Reinigungsmittel nicht direkt auftragen (auch nicht geeignete)

Touchscreen und Gehäuse reinigen

Allein durch unsere natürliche Fettschicht auf der Haut bilden sich durch regelmäßigen Gebrauch Verunreinigungen auf dem Touchscreen. Hinzu kommen Staub und Schmutz aus unseren Taschen, Wohnungen und Partikel in der Luft. Da sich im Display zudem mikroskopische Kratzer bilden, können sich hier Keime und Krankheitserreger festsetzen.

Seit Corona passte Apple daher die Empfehlung, keinerlei Alkohol an das iPhone zu lassen, geringfügig an. So teilt der Hersteller mit, dass für die Reinigung von Apple-Produkten auch Desinfektionstücher mit 70-prozentigem Isopropylalkohol oder 75-prozentigem Ethylalkohol zum Einsatz kommen können.

Handy desinfizieren und reinigen: Das musst Du beachten

Leichte Verunreinigungen kannst Du einfach mit einem trockenen oder leicht angefeuchteten Mikrofasertuch entfernen. Hier empfehlen sich sanfte, kreisende Bewegungen. In jedem Fall sollte das Tuch höchstens nebelfeucht und nicht nass sein.

Ein Anfeuchten ist jedoch nicht zwingend nötig, da auch trockene Mikrofasertücher bis zu 80 Prozent aller Bakterien entfernen. Möchtest Du auf Nummer sicher gehen, so gibt es auch spezielle umweltfreundliche Displayreiniger für die Reinigung von Smartphone-Touchscreens.

Kontakte und Lautsprecher reinigen

In Lautsprechern, Kopfhöreranschlüssen und Ladeanschlüssen sammeln sich besonders gern Schmutz und Staub. Das gilt vor allem, wenn Du das iPhone ohne Schutzhülle regelmäßig in der Hosentasche trägst. Möchtest Du verunreinigte Kontakte und Anschlüsse säubern, so gibt es sogenannte Typenreiniger. Bei diesen handelt es sich um eine Art Reinigungsknete, die Du in die Öffnungen drückst. Schmutz bleibt einfach daran kleben.

Hier findest Du Reinigungs-Tipps vom YouTube-Kanal „Nils-Hendrik Wels“ mit hilfreichen Apple-Tipps:

Schutzhülle des iPhones putzen

Schutzhüllen sollen Dein iPhone nicht nur vor Schäden durch Stöße und Stürze bewahren, sondern auch groben Schmutz fernhalten. Dennoch besteht auch bei Schutzhüllen die Möglichkeit der Verunreinigung. Aus diesem Grund solltest Du das iPhone regelmäßig herausnehmen und die Schutzhülle mit Wasser und geeigneten Reinigern säubern. Handelt es sich um hochwertige Lederhüllen, so sollte hier nur destilliertes Wasser zum Einsatz kommen.

Verunreinigungen vorbeugen

Legst Du grundsätzlich Wert auf ein sauberes iPhone, so halte Dich an folgende vorbeugende Maßnahmen:

  • Nutze das iPhone möglichst nicht an Orten oder bei Witterungen mit höherer Verunreinigung (wie Toilette, Strand oder bei Regen/Schnee).
  • Benutze das iPhone möglichst nicht beim Essen.
  • Die Hände regelmäßig waschen.
  • Stecke das iPhone nicht in schmutzige Taschen.

Zusammenfassung: So hältst Du Dein iPhone sauber

So solltest Du Dein iPhone reinigen – die Tipps noch einmal im Überblick:

  1. Reinige schnell verschmutzende iPhone-Bestandteile wie Display, Anschlüsse, Kontakte und Lautsprecher regelmäßig.
  2. Trenne jede Stromverbindung vor der Reinigung.
  3. Fahre das iPhone herunter, bevor Du es säuberst.
  4. Säubere das Display nur mit einem maximal nebelfeuchten, weichen Mikrofasertuch.
  5. Übe keinen starken Druck aus und nutze langsam kreisende Bewegungen.
  6. Für eine Desinfektion von Gehäuse und Touchscreen maximal Desinfektionstücher mit 70-prozentigem Isopropylalkohol oder 75-prozentigem Ethylalkohol nutzen.
  7. Für Verunreinigungen von Öffnungen, Anschlüssen und Lautsprechern eignet sich ein Typenreiniger.
  8. Auch Schutzhüllen solltest Du regelmäßig säubern.

Quelle:

https://www.vodafone.de/featured/smartphones-tablets/iphone-reinigen-tipps/#/

iOS 16.3: Auf diese Features freuen wir uns

Die ersten Betaversionen von iOS 16.3 sind bereits zum Testen durch Entwicklerteams verfügbar. In der ersten Jahreshälfte 2023 soll das neue Betriebssystem dann für die Allgemeinheit veröffentlicht werden. Dich erwarten eine ganze Reihe neuer nützlicher Funktionen.

Ab iOS 16.3: Sicherheitsschlüssel gegen unerwünschte Zugriffe

Mit iOS 16.3 hast Du die Möglichkeit, einen physischen Schlüssel zur Zweifaktorautorisierung zu nutzen. Auf diese Weise schützt Du Dich noch besser gegen unerwünschte Zugriffe auf Dein iPhone und gegen versandgefälschte E-Mails. Die Funktion lässt sich in den Einstellungen aktivieren.

Gehe zu Deiner Apple ID und dann zum Unterpunkt „Passwort und Sicherheit“. Den Schlüssel bietet der zertifizierte Drittanbieter Fido an, der den physischen Sicherheitsschlüssel bereits für Google-Konten und den Passwortmanager „1Password“ im Programm hat. Du erhältst zusätzlich einen Back-up-Schlüssel, falls Du den ersten verlierst.

Das bringt die optionale Advanced Data-Protection

In den USA hat Apple die neue Ende-zu-Ende-Verschlüsselung für iCloud-Daten bereits eingeführt. Die sogenannte Advanced Data-Protection sorgt für die Absicherung von iCloud-Back-ups. Sie lässt sich jedoch erst nach einer festgelegten Wartezeit aktivieren, um Deinen Account und Deine Daten zu schützen.

Das Apple-Sparkonto – für technikaffine Sparfüchse (bisher USA-exklusiv)

In den USA gibt es seit einigen Jahren die Apple-Kreditkarte. Wenn Du damit bezahlst, bekommst Du einen bestimmten Prozentsatz des Kaufpreises auf Dein Daily-Cash-Konto zurückerstattet – allerdings nur bei Einkäufen bei Apple-Partnern. Mit einem neuen Feature von iOS 16.3 landen die Daily-Cash-Prämien automatisch auf einem hochverzinsten Sparkonto von Goldman Sachs.

Es fallen weder Gebühren noch Mindesteinzahlungen an, es wird auch kein Mindestguthaben gefordert. Über die Wallet-App kannst Du nachverfolgen, wie Dein Erspartes wächst. Ob die Apple-Kreditkarte – und damit auch dieses iOS-16.3-Feature – nach Europa kommen, ist noch unklar.

Mit iOS 16.3 kannst Du shoppen und später in Raten bezahlen

Ebenfalls USA-exklusiv ist bisher die sogenannte Apple-Pay-Later-Funktion. Sie hilft Dir im Alltag, wenn Du eine Anschaffung planst, deren vollständige Finanzierung Du nicht sofort stemmen kannst oder willst. Mit diesem Feature kannst Du die Kosten auf vier Raten verteilen, die Du in sechs Wochen begleichst.

Praktisch: Bei dieser Bezahlfunktion fallen weder Zinsen noch Gebühren an. Ob Du Apple Pay Later bald auch in der deutschen Wallet-App findest, bleibt abzuwarten.

Ein Hoch auf Mozart, Beethoven und Bach

Wenn Du ein Fan von klassischer Musik bist, kennst Du bestimmt den renommierten Streamingdienst Primephonic. Er zeichnet sich durch hervorragenden Sound und sachkundige Empfehlungen von Fachleuten in klassischer Musik aus.

Schon im August 2021 hat Apple die App gekauft und angekündigt, die Benutzeroberfläche mit zusätzlichen Funktionen zu ergänzen und die Anwendung unter dem Namen Apple Music Classical anzubieten. Das könnte mit iOS 16.3 endlich passieren – wir sind gespannt.

Quelle:

https://www.vodafone.de/featured/smartphones-tablets/ios-16-3-neue-features-release/#/

Mit IoT gegen Feinstaub in der Stadt

Luftverschmutzung hat jedes Jahr negative Folgen für die Gesundheit von Millionen Menschen. Wie ein Berliner Start-up mit Moos und dem Internet of Things (IoT) die Luftqualität in Städten auf der ganzen Welt verbessert.

Laut World Health Organization (WHO) ist Luftverschmutzung das größte Umweltrisiko für die Gesundheit. Allein in Deutschland sind laut aktuellem Bericht der Europäischen Umweltagentur zu hohe Werte für Feinstaub und Stickstoff der Grund für jährlich 72.000 vorzeitige Todesfälle. Den Negativrekord hält in Deutschland Stuttgart: Laut Umweltbundesamt ist hier die Luft am schlechtesten. Doch in Bonn an der Friedrich-Ebert-Allee, an der täglich von morgens bis abends die Blechlawine rollt, atmen Passanten wieder richtig durch und machen es sich auf einer Bank in der Nähe gemütlich. Wie das trotz des hohen Verkehrsaufkommens? Grund dafür ist der CityTree – ein sogenannter Bio-Tech-Filter. Dieses außergewöhnliche Stadtmöbel ist drei Meter hoch, mit Holz verkleidet, reinigt die Umgebungsluft von Feinstaub und gibt frischen Sauerstoff ab. Grund dafür sind besondere Moose, die als Luftfilter funktionieren und Feinstaub verstoffwechseln. Weitere Exemplare dieses außergewöhnlichen Stadtmöbels finden sich in Berlin, Darmstadt, London und Lissabon.

Frischluft-Haltestelle aus Berlin

Die Idee stammt vom Berliner Start-up Green City Solutions und verbindet Natur und moderne Technologie. Die Moospflanzen sind schon von Natur aus smart: Laut einer Feldstudie des Leibnitz Instituts für Troposphärenforschung binden sie pro Tag bis zu 80 Prozent Feinstaub in ihrer Umgebung. Mehrere CityTrees in Kombination bilden eine Schutzzone. In einer solchen Clean-Air-Zone sinkt die Feinstaubbelastung insgesamt um bis zu 50 Prozent. Acht Moos-Module aus den neuesten Modellen können innerhalb einer Stunde die Atemluft von bis zu 7.000 Menschen reinigen. Sie kühlen die Umgebungstemperatur bis zu 2,5 Grad Celsius herunter und machen den CityTree zu einer echten Frischluft-Haltestelle. Passanten genießen hier nicht nur ein kühles Lüftchen. Auf Wunsch kann der CityTree auch mit einem Wifi-Hotspot ausgestattet werden. Über einen QR-Code auf der außen montierten Infotafel lassen sich die aktuellen Betriebsdaten abrufen.

Digitale Plattform Erbringt Nachweis Für Bessere Luft

Hinter der Holzverkleidung aus robuster sibirischer Lärche verbergen sich weitere technische Komponenten: Der CityTree ist mit IoT-Sensoren ausgestattet, die Umweltdaten am Standort für das integrierte Bewässerungssystem nutzen. Dadurch kann der CityTree ganzjährig vollautomatisch mit der richtigen Menge Wasser gegossen werden, was doppelt hilft: Neben der Feinstaub-Reduktion durch das Mooswachstum fallen die Versorgungsfahrten mit Wasser weg. Der CityTree wird zwei Mal pro Jahr gecheckt und zwischendurch nach Bedarf gewartet, wenn die Sensoren die Notwenigkeit dazu melden.

Die Wirkung jedes Pflanzenfilters auf seine Umgebung kann nachhaltig geprüft werden: Über die Plattform AirCare sehen die Besitzer eines CityTrees – meist Unternehmen oder Stadtverwaltungen – digital wie ein CityTree die Luftqualität in seiner Umgebung beeinflusst. Auf dem PC, Tablet oder Smartphone visualisiert das Tool die Luftqualität in der Nähe. In Zukunft will das Unternehmen ganze Städte in Europa und Asien mit ihren vertikalen Pflanzenfiltern ausstatten.

Quelle:

https://iot.telekom.com/de/blog/mit-iot-gegen-feinstaub-in-der-stadt

Auf Knopfdruck in die Cloud

Bevor IoT-Geräte ihre Messdaten in die Cloud senden können, müssen sie aufwendig aktiviert und authentifiziert werden. Ein automatisierter Prozess verkürzt jetzt die Zeit bis zum Marktstart von IoT-Lösungen.

Vier von fünf Unternehmen in Deutschland (82 Prozent) nutzen bereits Clouddienste, sagt der Cloud-Monitor 2021 von Bitkom und KPMG. Beste Voraussetzungen für das Internet of Things (IoT), sollte man meinen. Schaut man aber genauer hin, zeigt sich ein differenziertes Bild. Erst 29 Prozent der befragten Betriebe lassen IoT-Anwendungen über eine Public Cloud laufen. Woran liegt das? Ein Grund: die Komplexität von IoT. Microsoft Teams oder Office 365 aus der Cloud sind schnell unternehmensweit ausgerollt. Aber eine IoT-Implementierung stellt andere Anforderungen:

  • unterschiedliche Protokolle von Gerät zu Gerät und von Cloud zu Cloud
  • hoher manueller Aufwand für das Onboarding von Geräten
  • Migrationsprobleme zwischen verschiedenen Netzwerken, Geräten und Clouds

Kooperation für einen schnelleren Marktstart

Konnektivität zwischen Hardware und Cloud zu integrieren bedeutet eine Menge Arbeit. Es beginnt mit der Aktivierung der SIM-Karten und geht weiter mit der Anbindung der Geräte an eine Cloudplattform. Diese Vorbereitungen verlängern die Zeit bis zur Markteinführung einer IoT-Lösung. Deshalb haben sich Deutsche Telekom, Amazon Web Services (AWS) und der Kölner IoT-Spezialist 1NCE zusammengetan, um diesen Prozess zu automatisieren und so für Unternehmen deutlich zu vereinfachen und zu beschleunigen.

Individuell und standardisiert, skalierbar und kosteneffizient

„Unsere Kunden fragen nach individualisierten und gleichzeitig standardisierten Lösungen“, sagte Hagen Rickmann, Geschäftsführer Geschäftskunden Telekom Deutschland, bei der Vorstellung der Kooperation auf den Telekom TechGrounds. „Dafür implementieren wir die gesamte IoT-Kette, was in der Vergangenheit schwierig zu bewerkstelligen war. Man musste das Netzwerk aufbauen, dann brauchte man eine Plattform zum Verbinden, und dann mussten die Daten irgendwie zu den IT-Systemen und zur Analytik. Jetzt bringen wir all das zusammen, skalierbar und kosteneffizient – und dafür sehen wir eine große Nachfrage. Wir schleusen die Daten von Sensoren und Geräten mit Hilfe von 1NCE durch unser Netzwerk und bringen sie dann in die AWS-Cloud.“

Automatisch aktiviert und angemeldet

Ein automatisierter Prozess löst die bislang nötige Vorarbeit bei einer IoT-Implementierung ab. Die SIM-Karte zur Vernetzung der Geräte wird bereits voraktiviert angeliefert. Sie enthält eine Software, die es dem Unternehmen ermöglicht, das Gerät direkt zu nutzen, sobald die SIM-Karte eingesetzt ist. Manuelle Aktivierung und Authentifizierung entfallen – Prozesse, die normalerweise bis zu acht Wochen dauern, wenn es um Tausende oder gar Hunderttausende von Geräten geht. Die Zeit bis zur Markteinführung einer IoT-Lösung verkürzt sich von Monaten auf Tage. Zudem sparen Betriebe Personal und IT-Kosten, da der IT-Aufwand entfällt. Die Kunden müssen die entsprechenden Fähigkeiten nicht mehr im Haus haben oder zusätzliches IT-Personal einstellen. Die AWS-Cloud ermöglicht unbegrenztes Skalieren und macht das Angebot so zukunftssicher.

Dass diese Lösung bei den Kunden ankommt, zeigen einige Beispiele:

  • Der Münchener IoT-Spezialist PI Labs setzt auf Zuverlässigkeit und Verfügbarkeit des Telekomnetzes für die Notruffunktion seiner PKW-Telematiklösung.
  • Der Magdeburger Serviceanbieter Embever verkürzt für seine Kunden mit einem Cloud-as-a-Module-Angebot die Zeit bis zur Markteinführung.
  • Der englische Hard- und Softwarehersteller Pycom bietet seine Funkmodule jetzt mit globaler Konnektivität an.
  • Das Bremer Start-up Sharemac vernetzt seine Trackingmodule für Baumaschinen über das Telekomnetz mit der AWS-Cloud.
  • Der italienische Autozulieferer Marelli Motorsport nutzt die weltweite Vernetzung für seine Telemetrieprodukte.

Quelle:

https://iot.telekom.com/de/blog/auf-knopfdruck-in-die-cloud

SIP: Alles Wichtige zum Session-Initiation-Protocol im Überblick

Die analoge Telefonie hat ebenso wie ISDN ausgedient. Immer mehr firmeneigene Telefonanlagen nutzen die Voice-over-IP-Technologie (VoIP). So kommunizieren ihre Mitarbeiter:innen über das Internet statt über herkömmliche Telefonleitungen. In diesem Zusammenhang spielen das Session-Initiation-Protocol (SIP) und die sogenannte SIP-Adresse eine wichtige Rolle.

Was eine SIP-Adresse ist, wie das zugehörige Protokoll für digitales Anrufmanagement funktioniert und welche Bedeutung dabei der Einsatz eines SIP-Servers und -Providers haben, lesen Sie im Folgenden.

 

SIP: Das steckt hinter dem Begriff

Das „Session Initiation Protocol“ ist ein Protokoll für den Auf- und Abbau sowie die Steuerung von Kommunikationsverbindungen zwischen zwei oder mehr Teilnehmer:innen. Das SI-Protokoll wird in der VoIP-Telefonie („Voice over IP“) eingesetzt.

SIP ist dabei jedoch lediglich für die Verbindung zuständig, nicht für die Sprachübertragung. Nach Aufbau der Verbindung durch das SI-Protokoll übernehmen sogenannte Transportprotokolle wie zum Beispiel das „Real-Time Transport Protocol“ (RTP) die Übertragung der Sprache.

Was ist eine SIP-Adresse?

Anders als die Rufnummer nebst Vorwahl eines Festnetzanschlusses oder eine Handynummer ist eine SIP-Adresse nicht an einen bestimmten physischen Telefonanschluss oder eine SIM-Karte gebunden. Die SIP-Adresse sieht vom Aufbau her ein wenig aus wie eine Kombination aus einer E-Mailadresse und einer Telefonnummer.

Die SIP-Adresse ist dabei stets nach demselben Schema aufgebaut. Nach dem Beginn der Adresse mit „sip“ oder „sips“ (für verschlüsselte Übertragungen) und einem Doppelpunkt folgt die Kennung des:r Nutzer:in. Diese kann aus Buchstaben und Zahlen bestehen. Hinter dem nun folgenden @-Zeichen steht die Domain des Hosts, also beispielsweise einer Firma oder eines VoIP-Anbieters.

In der Benutzerkennung (vor dem @-Zeichen) steht somit die konkrete Zieladresse der Anfrage, dahinter deren Zugehörigkeit zu einer bestimmten Umgebung und in Parametern und Headern hinter der SIP-Adresse (durch Semikolon getrennt) bei Bedarf zusätzliche Informationen. Ein Beispiel für eine SIP-Adresse sieht wie folgt aus:

 

sip:;user=phone;tag=3f567abc

 

Unter derselben SIP-Adresse ist (in der Regel) immer eine bestimmte Person für ein VoIP-Telefonat erreichbar. Manchmal wird die SIP-Adresse auch SIP-URI (URI steht hierbei für „Uniform Resource Identifier“) genannt. Es gibt also bei SIP-Adressen eine einheitliche Ressourcen-Kennung wie bei Internetadressen auch.

 

Was ist ein SIP-Server? Welche Rolle spielt er?

Beim Aufbau einer SIP-Verbindung heißt die anrufende Stelle aus technischer Sicht „User Agent Client“ (UAC) und die angerufene Stelle „User Agent Server“ (UAS). Natürlich könnten die beiden „Agents“, die miteinander sprechen wollen, auch direkt miteinander kommunizieren. Doch was ist, wenn ein:e Teilnehmer:in gerade nicht erreichbar ist oder von einer anderen IP als gewohnt anruft?

Um dieses Problem zu lösen, meldet sich ein User Agent stets an einem SIP-Server bzw. SIP-Proxy an, dem sogenannten Registrar. Der SIP-Server hält die IP-Adresse fest und ermittelt die IP-Adresse, auf der die angerufene Person zu erreichen ist. Wenn der SIP-Proxy die Information über die gesuchte Adresse gefunden hat, sendet er dem Ziel ein Signal, dass es klingeln soll.

Der SIP-Verbindungsaufbau mit SIP-Statuscodes

Nimmt jemand einen eingehenden Anruf beispielsweise durch das Abheben des Hörers entgegen, wird wiederum an den SIP-Server ein Signal gesendet, dass er die Verbindung aufbauen soll. Der oder die Anrufer:in erhält jetzt ebenfalls die Nachricht, dass der Anruf aufgebaut wird und sendet seinerseits eine Bestätigung an den SIP-Server. Ein Beispiel für einen solchen Verbindungsaufbau könnte wie folgt aussehen:

INVITE sip: SIP/2.0
VIA:SIP/2.0/UDP 192.168.0.1
Call-ID:
From:<sip:>
To: Kunde <>
Call-ID: 211e1fa170efka0b7da1bc0d @sip.vodafone.com
CSeq:1 INVITE

 

Der Code „INVITE“ steht somit für die Anforderung an einen SIP-Server, eine Verbindung (Sitzung) mit einem Client aufzubauen. Weitere wichtige Anfragecodes sind:

  • ACK: Bestätigung der empfangenen Anfrage oder der Antwort
  • BYE: Die Sitzung soll beendet werden
  • CANCEL: Abbruch der bestehenden Anfrage
  • OPTIONS: Die Anfrage soll ermitteln, welche Merkmale die Gegenstelle besitzt
  • REGISTER: Ein Gerät meldet sich beim VoIP-Anbieter an

 

Zusätzlich gibt es noch diese erweiterten SIP-Anfragecodes:

  • INFO: Übermittlung von Steuerinformationen
  • MESSAGE: Übermittlung von Textnachrichten
  • NOTIFY: Antwort auf SUBSCRIBE oder REFER
  • PRACK: Antwort auf einen 1xx-Statuscode (siehe unten)
  • PUBLISH: Nicht angefragte Übermittlung von Zuständen oder Ereignisinformationen
  • REFER: Verbindungsübergabe an einen anderen Teilnehmer
  • SUBSCRIBE: Überwachung eines Endgeräts hinsichtlich eines bestimmten Zustands
  • UPDATE: Parameterveränderung während des Rufaufbaus

Größere Telefonanlagen lassen sich via SIP-Trunk einbinden

Ein sogenannter SIP-Trunk dient dazu, größere Telefonanlagen mit vielen Teilnehmer:innen an das Internet anzuschließen. Der englische Begriff „Trunk“ bedeutet soviel wie Baumstamm oder Übertragungsweg. Es geht technisch gesehen beim SIP-Trunk um eine Bündelung von Telefonanschlüssen zu einer einzigen Leitung. Voraussetzung dafür ist jedoch eine SIP-kompatible Telefonanlage.

Im Gegensatz zu ISDN-Telefonanlagen haben SIP-Trunks den Vorteil, dass Sie die Anzahl der Sprachkanäle je nach Firmengröße flexibel buchen können. Voraussetzung ist jedoch ein zuverlässiger Internetanschluss mit einer möglichst hohen Bandbreite.

 

SIP-Statuscodes: Diese sollten Sie kennen

Normalerweise laufen SIP-Verbindungen sowohl bei deren Aufbau als auch im Betrieb reibungslos, so wie gewünscht und ohne weiteres Zutun de:r Anwender:ins. Ähnlich wie bei der Übertragung von HTML-Seiten im Internet gibt es aber auch beim SI-Protokoll Statuscodes, mit deren Hilfe SIP-Server und Clients Informationen austauschen (siehe Abbildung oben). Einige davon listen wir Ihnen hier auf:

1xx-Codes: Anrufvorbereitung und -herstellung (Provisional)

Bei den 1xx-Codes geht es um den Verbindungsaufbau. Die Codes repräsentieren den jeweiligen Zustand der noch nicht hergestellten Verbindung. Beispiele sind:

  • 180: „Ringing”: Das Telefon der angerufenen Person klingelt.
  • 181: „Call forwarded”: Der Anruf wird weitergeleitet.
  • 199: „Early termination”: Der Anruf wurde während des Aufbaus beendet.

2xx-Codes: Erfolgsmeldungen (Successful)

Meldet der Client beim Server einen Anruf an, baut dieser die Verbindung auf und spielt den Code 200 „OK“ zurück. Weitere Codes betreffen erfolgreiche Rufaufbauten für spätere Zeitpunkte (Code 202) oder solche, bei denen keine Antwort gesendet werden soll (Code 204).

3xx-Codes: Anrufweiterleitung (Redirection)

Es kann vorkommen, dass die angerufene Person nicht an der Gegenstelle zu erreichen ist, an der dies vermutet wurde. Hierzu liefern die 3xx-Codes weiterführende Informationen, ohne dass der Verbindungsaufbau abgebrochen werden muss:

  • 301: Permanent redirect: Die angerufene Person ist dauerhaft an einer anderen Adresse erreichbar.
  • 302: Temporary redirect: Die angerufene Person ist vorübergehend an einer anderen Adresse erreichbar.
  • 305: Use proxy: Es ist der angegebene Proxy zu verwenden.

4xx-Codes: Fehlermeldungen (Request Failures)

Schlägt der Verbindungsaufbau fehl, kann dies verschiedene Ursachen haben. Einige davon sind:

  • 403: Forbidden: Die Anfrage ist unzulässig.
  • 404: Not found: Die Gegenstelle existiert nicht.
  • 482: Loop detected: Es wurde eine Weiterleitungsschleife festgestellt.

Eine Weiterleitungsschleife tritt beispielsweise dann auf, wenn mehrere Rufumleitungen existieren, die am Ende wieder zur Ursprungsadresse führen. In diesem Fall kann keine Verbindung hergestellt werden.

5xx-Codes: Serverfehler (Server Failures)

Es kann vorkommen, dass der SIP-Server nicht funktioniert oder nicht korrekt konfiguriert ist. Außerdem ist es möglich, dass die gestellte Anfrage nicht zu den Möglichkeiten des angefragten Servers passt. Beispiele hierfür sind:

  • 500: Internal Server Error: Es gibt einen internen Serverfehler.
  • 502: Bad Gateway: Das Gateway für diese SIP-Anfrage funktioniert nicht (korrekt).
  • 505: Version not supported: Der Server unterstützt die SIP-Version nicht.

6xx-Codes: Allgemeine Fehler (General Failures)

Auch hier kommt die Verbindung nicht zustande. Hier sind aber nicht serverseitige Fehler oder inkompatible Protokolle die Ursache, sondern praktische Gründe:

  • 600: Busy: Die Endgeräte der angerufenen Person sind alle belegt.
  • 603: Declined: Der Anruf wurde abgelehnt.
  • 607: Unwanted: Die angerufene Person möchte von dieser Startadresse aus keine Anrufe mehr erhalten.

7xx-Codes: Fehlercodes des SIP-Stacks

Bei den 7xx-Fehlercodes aus dem SIP-Protokollstapel handelt es sich um Fehler, die die angerufene Stelle während eines bestehenden Anrufs auslöst. Der wohl bedeutsamste Fehlercode ist hier 701: „Party hangs up: Die angerufene Person hat aufgelegt.” Weitere Fehlercodes betreffen Anschlussfehler (beispielsweise ein gezogenes Anschlusskabel, 702) oder den Abbruch eines Anrufs aufgrund von Zeitüberschreitung (703)).

Einen SIP-Account einrichten: So gehen Sie vor

Um SIP nutzen zu können, benötigen Sie einen SIP-Account, auch SIP-Konto genannt. Dabei handelt es sich um eine weltweit eindeutige Benutzerkennung für die Verwendung mit dem SI-Protokoll. Der SIP-Account ähnelt dabei den Zugangsdaten für ein E-Mail-Konto und kann wie folgt aussehen:

SIP-Benutzername: 987654
SIP-Passwort: ***
SIP-Proxy-Server: sip.kabelfon.vodafone.de
SIP-Registrar: sip.kabelfon.vodafone.de
SIP-Port: 5060

 

Wie erhalte ich eine SIP-Adresse?

Businesskunden ohne eigene Tk-Anlage (PBX) und mit nur einer oder wenigen Rufnummern erhalten ihre SIP-Zugangsdaten entweder vorkonfiguriert in ihrem Internet-Router oder schriftlich mit der Auftragsbestätigung. Sofern Sie weitere SIP-Adressen benötigen, wenden Sie sich als Vodafone-Business-Kund:in am besten an unsere Geschäftskunden-Hotline unter 0800 – 172 1234.

Sofern Sie einen Business-VoIP-Anschluss über Vodafone gebucht haben, erhalten Sie mit der Anmeldung eine Reihe von Informationen für die Konfiguration Ihrer Tk-Anlage. Hierzu zählen

  • der zugeteilte Rufnummernblock
  • Ihre SIP-Zugangsdaten
  • der für Sie zuständige Session Border Controller (SBC)* als vollständiger Hostname
  • die öffentliche User-Identität („PPI“) als sogenannter SIP-Header
  • die Domain, unter der SIP-Adressen registriert werden können
  • das zu verwendende Transportprotokoll und Port

*Der SBC steuert die Verbindung zwischen unterschiedlichen Netzen und den Verbindungsauf- und -abbau von Telefonaten.

Als Anwender:in im Unternehmen wenden Sie sich einfach an Ihre:n hausinterne:n Administrator:in, um einen SIP-Account zu erhalten. Diesen geben Sie dann, falls notwendig, in Ihr SIP-Telefon oder Ihr Softphone ein.

Als Administrator:in stellen Sie benötigte Rufnummern bzw. SIP-Adressen ganz einfach im Webinterface Ihrer Tk-Anlage selbst bereit. Weitere Informationen zu diesem Thema finden Sie auch in unserer Dokumentation der Schnittstellenbeschreibung Business VoIP.

 

So bestimmen Sie Ihre vorhandene SIP-Adresse

Jeder eindeutige Telefonanschluss hat auch eine weltweit eindeutige SIP-Adresse. Wenn Sie nicht wissen, wie Ihre SIP-Adresse lautet, haben Sie mehrere Möglichkeiten:

  • Entweder hat Ihr Anbieter Ihnen Ihre SIP-Adresse mit der Registrierung für Ihren Business-Internetanschluss schriftlich mitgeteilt, oder
  • Sie finden die SIP-Adresse
    • im Webportal Ihres Anbieters,
    • in den Einstellungen Ihrer Tk-Anlage,
    • im Menü Ihres SIP-Telefons,
    • in den Einstellungen Ihres Softphones oder
  • Sie fragen Ihre:n Administrator:in, der/die eine Liste über die vorhandenen SIP-Adressen im Unternehmen pflegt.

SIP-Server für die FRITZ!Box: Das sollten Sie wissen

Die bekannte und beliebte FRITZ!Box des Herstellers AVM bietet bei einigen Modellen die Möglichkeit, einen SIP-Trunk für die Verwendung als Telefonanlage zu konfigurieren. Hierzu müssen jedoch einige Voraussetzungen erfüllt sein:

  • Nur die FRITZ!Box-Modelle 7590, 7560, 7530, 7490, 6591, 6590 und 6490 unterstützen diese Funktion von Haus aus.
  • Ihre FRITZ!Box hat die Versionsnummer 7.10 des Betriebssystems FRITZ!OS oder höher. Ist dies nicht der Fall, führen Sie zunächst ein Firmware-Upgrade durch (dies ist ohnehin empfehlenswert).
  • Ihr Telefonanschluss ist durchwahlfähig (SIP-Trunk), ähnlich dem früheren S0-Anlagenanschluss.

Sind diese Bedingungen erfüllt, können Sie mit Ihren SIP-Konto-Zugangsdaten wie oben beschrieben aus der FRITZ!Box eine einfache VoIP-Telefonanlage machen.

Die Anzahl der gleichzeitig nutzbaren SIP-Kanäle ist jedoch bei älteren FRITZ!Box-Geräten auf fünf, bei neueren auf acht begrenzt. Außerdem verwendet (blockiert) die FRITZ!Box pro SIP-Telefon bei einem Gespräch zwei Kanäle, was in der Praxis die Anzahl möglicher gleichzeitiger Gespräche einschränkt.

Nicht nur als größeres Unternehmen, sondern bereits ab etwa fünf Mitarbeiter:innen sind Sie mit einer „echten“ Cloud-Telefonanlage normalerweise besser bedient. Sie ist nicht nur komfortabler zu warten, sondern auch schneller eingerichtet und zuverlässiger beispielsweise gegen Stromausfälle geschützt.

SIP-Anrufe unter Android tätigen: So gehen Sie vor

Da die meisten aktuellen Tarifverträge über eine Telefon-Flatrate verfügen, ist die Möglichkeit der VoIP-Telefonie auf den meisten Smartphones eher ein Nischenthema. Seit  Android 10 funktionieren SIP-Anrufe auf dem Handy zudem nur mit Drittanbieter-Apps. Wenn Sie also in Ihrer Telefon-App unter „Einstellungen | Anrufeinstellungen” (Samsung) keine entsprechende Option für die Einrichtung von SIP/VoIP sehen, ist diese Funktion auf Ihrem Gerät nicht ohne weiteres möglich.

Trotzdem können Sie VoIP-Telefonate via Android führen, indem Sie beispielsweise eine der folgenden Apps installieren (es gibt weitere):

  • Sipdroid
  • Linphone
  • Zoiper

Laden Sie sich eine der entsprechenden Apps herunter, können Sie die SIP-Zugangsdaten Ihres SIP-Kontos eingeben und hierüber telefonieren. Voraussetzung ist allerdings eine ausreichend schnelle sowie stabile WLAN-Verbindung. Außerdem sollten Sie bedenken, dass der Empfang von Anrufen über VoIP mit einer stärkeren Akkubelastung verbunden sein kann. Ab Android 10 müssen Sie zudem die Signalisierung eingehender Anrufe über VoIP explizit in den Systemeinstellungen erlauben.

 

SIP-Anrufe auf dem iPhone: So geht‘s

Auch auf einem iPhone können Sie SIP-Anrufe empfangen und tätigen. Hier ist jedoch ebenfalls eine Drittanbieter-App erforderlich. Teils sind diese kostenpflichtig. Beispiele hierfür sind:

  • Zoiper
  • Acrobits Groundwire
  • Linphone

Einige dieser Apps unterstützen eingehende Anrufe, andere nicht bzw. verlangen hierfür eine monatliche Gebühr. Wie bei Android gilt auch hier: Einmal installiert, können Sie in der App Ihre VoIP-Zugangsdaten eingeben und hierüber telefonieren – mit den genannten Einschränkungen. Auch mit iOS belastet die Möglichkeit, eingehende Anrufe über VoIP zu empfangen, den Geräteakku nicht unerheblich.

SRTP und das SIP Secure Protocol (SIPS): Mehr Datensicherheit im SIP-Umfeld

Die meisten Telefongespräche sind vertraulich und sollten auf keinen Fall abgehört werden können. Insgesamt ist es empfehlenswert, jegliche unternehmerischen Telefonate auf verschlüsselte Art zu führen. Das begrenzt das Risiko sogenannter Man-in-the-middle-Attacken von Kriminellen. Außerdem verhindert es beispielsweise, dass sich Kolleg:innen oder Externe einfach „in die Leitung schalten” und vertrauliche Informationen mithören.

Wie oben erwähnt, dient das SI-Protokoll lediglich dazu, die Verbindung zwischen zwei (oder mehr) Gesprächsteilnehmer:innen herzustellen. Die eigentliche Übertragung erfolgt über das Realtime Transport Protocol (RTP). Zu beiden Protokollen gibt es „sichere“ Varianten, nämlich „SIP Secure Protocol“ (SIPS) und Secure Realtime Transport Protocol (SRTP). Diese werden bei verschlüsselten Telefonaten in Kombination verwendet. Sie sorgen dafür, dass sowohl das Telefonat selbst sicher aufgebaut wird, als auch die Sprachdaten auf verschlüsselte und somit (grundsätzlich) abhörsichere Weise übertragen werden.

Voraussetzung für derart verschlüsselte Gespräche sind allerdings mehrere Faktoren:

  • Die zugehörige Tk-Anlage muss sowohl SIPS als auch SRTP unterstützen.
  • In der Tk-Anlage müssen zusammenpassende Schlüssel und Zertifikate erzeugt und gespeichert oder via USB eingespielt worden sein. Sie benötigen sowohl ein gültiges Stamm- als auch ein Anlagenzertifikat und dazu den privaten Schlüssel des Anlagenzertifikats.
  • Die verwendeten VoIP-Telefone müssen SIPS und SRTP unterstützen und die Funktion muss aktiviert sein.

Bauen nun die beteiligten Stellen (Endgeräte, beteiligte Server) eine SIPS-Verbindung auf, so verschlüsselt SIP den sogenannten Verbindungs-Handshake mithilfe von Transport Layer Security (TLS). Dies ist allerdings mit leichten Verzögerungen gegenüber einer unverschlüsselten Vorgehensweise verbunden. Grund hierfür ist, dass TLS über das Transport Control Protocol (TPS) abgebildet wird, also ein Drei-Wege-Handshake. Deshalb müssen erweiterte Steuerungsdaten hin und her geschickt werden.

Alternativ lässt sich die gesamte VoIP-Verbindung auch in eine ohnehin verschlüsselte VPN- oder IPSec-Umgebung übertragen. Diese ist insgesamt nicht abhörbar, und somit finden auch Telefongespräche sozusagen automatisch auf abhörsichere Weise statt. Hier unterscheiden Fachleute zwischen „Transport Mode“- und „Tunnel Mode“-Verschlüsselung – je nachdem, ob die Verschlüsselung nur Endgeräte und Systeme (Transport Mode) oder ganze Standorte betrifft (Tunnel Mode).

Sofern in Ihrem Unternehmen also nur gelegentlich verschlüsselt telefoniert werden soll und die Frage, wer mit wem spricht, nicht zwingend geheim zu halten ist, kann eine fallbasierte Verschlüsselung auf Basis von SRTP mit und ohne SIPS das Mittel der Wahl sein. In insgesamt vertraulichen Umgebungen sollten Sie ohnehin auf verschlüsselte Standorte (mit oder ohne notwendige Vernetzung) setzen und dabei auch das Thema Telefonie mit abdecken.

Das Wichtigste zum Thema SIP in Kürze

  • Das Session Initiation Protocol (SIP) dient zum Verbindungsaufbau zwischen verschiedenen Kommunikationsgeräten im Internet mit dem Ziel einer Sprachverbindung.
  • Die Übertragung der Daten erfolgt anschließend üblicherweise über das Realtime Transport Protocol (RTP) bzw. deren sichere Variante Secure Realtime Transport Protocol (SRTP).
  • Ein anderer Begriff für SIP-Telefonie ist VoIP (Voice-over-IP).
  • Ein sogenannter SIP-Server stellt die nötigen SIP-Konten bereit und koordiniert wie früher eine Telefonanlage die Gespräche und deren Merkmale.
  • Mithilfe der Protokollvarianten SIP Secure (SIPS) und SRTP lassen sich einzelne Telefonate verschlüsseln, sofern nicht ohnehin die gesamte Standortkommunikation entsprechend gesichert ist.

 Quelle:

https://www.vodafone.de/business/featured/technologie/was-ist-eine-sip-adresse-das-si-protokoll-einfach-erklaert/

 

E-Mail-Verschlüsselung einfach erklärt

Rund 300 Milliarden E-Mails werden weltweit pro Tag versendet. Was viele Nutzer:innen nicht wissen: E-Mails funktionieren auf ihrem Weg durch das Internet ähnlich wie gewöhnliche Postkarten, die jeder entlang des Transportweges in die Hand nehmen und mitlesen kann. Doch es gibt Möglichkeiten, den elektronischen Schriftverkehr zu verschlüsseln und so sicherer zu machen.

Als Ray Tomlinson 1971 die erste E-Mail der Welt verschickte, war digitaler Datenschutz in Computernetzen noch kein großes Thema. Der Internetvorläufer Arpanet bestand lediglich aus ein paar Dutzend Servern, deren Betreiber:innen sich fast alle persönlich kannten und ihre Daten voreinander nicht verschlüsselten. Wichtig war beim damaligen Stand der Technik vor allem der schnelle und zuverlässige Transport der E-Mails.

Daher wurden alle Mail-Inhalte noch im Klartext übertragen und jede Zwischenstation auf dem Weg vom Start zum Ziel hatte vollständigen Lesezugriff auf die weitergeleiteten Inhalte. An jeder Zwischenstation konnten Menschen sitzen, die die E-Mail in Klartext lesen konnten. Das Arpanet basierte auf Vertrauen.

Inzwischen verwenden die meisten E-Mail-Dienstleister zumindest auf einem Teil des Transportweges eine sogenannte Transportverschlüsselung. Voraussetzung dafür ist allerdings, dass auch die Gegenseite diese unterstützt, also der E-Mail-Dienstleister auf Empfängerseite. Ein perfekter Schutz gegen das Mitlesen ist allerdings auch diese Transportverschlüsselung nicht.

Daher warnt das Bundesamt für Sicherheit in der Informationstechnik, dass auf dem Weg durch das Internet jede E-Mail „potenziell mitgelesen werden“ kann. Doch dagegen können Sie sich schützen.

 

Was ist E-Mail-Verschlüsselung und wie funktioniert sie?

Der Begriff E-Mail-Verschlüsselung fasst verschiedene Verfahren zusammen, um E-Mails im Internet oder in vergleichbaren IP-Netzen sicher und vertraulich zu übertragen. Im Einzelnen soll Verschlüsselung im Geschäftsverkehr und damit auch in Ihrem Unternehmen drei Funktionen erfüllen:

  • Vertraulichkeit: Nur die jeweiligen Empfänger:innen sollen alle in E-Mails gespeicherten Informationen im Klartext lesen können.
  • Authentizität: Versender:innen und Empfänger:innen müssen sich gegenseitig eindeutig identifizieren können.
  • Integrität: Die Verschlüsselung muss gewährleisten, dass E-Mail-Inhalte auf dem Transportweg nicht von Dritten verfälscht werden können.

 

Drei Anwendungsfälle für Verschlüsselung

Für jedes der drei genannten Ziele gibt es im E-Mail-Verkehr unterschiedliche Verschlüsselungsverfahren und –protokolle:

Eine vollständige Ende-zu-Ende-Verschlüsselung gewährleistet im besten Fall Vertraulichkeit. Ende-zu-Ende bedeutet, dass die Verschlüsselung bereits auf dem Endgerät beginnt, auf dem eine E-Mail geschrieben wird. Erst das Endgerät auf der Empfängerseite dekodiert die verschlüsselten Inhalte mit einem entsprechenden digitalen Schlüssel. Wird eine E-Mail nur auf einem Teil des Übertragungsweges verschlüsselt, handelt es sich hingegen um eine Punkt-zu-Punkt-Verschlüsselung.

Die Echtheit einer E-Mail, also die Authentizität von Versender:in und Empfänger:in bestätigen Sie sich gegenseitig über eine Kombination aus öffentlichen und vertraulichen Datenschlüsseln. Hierfür erzeugen Sie im Internet entsprechende persönliche Datenschlüssel. Diese sind wie ein Personalausweis oder ein Fingerabdruck individuell und fälschungssicher. Mit ihnen können Sie sich gegenüber anderen digital eindeutig ausweisen. Wie dies funktioniert, lesen Sie im weiteren Verlauf des Artikels.

Schutz gegen das Verfälschen Ihrer E-Mails erhalten Sie, indem Sie Ihre Nachrichten mit einer Prüfsumme versehen, dem sogenannten Hash-Wert. Ein solcher Hash errechnet sich automatisch aus allen Zeichen Ihrer Nachricht und passt nur zu der jeweiligen E-Mail mit der jeweiligen Zeichenfolge. Die Empfängerseite gleicht Nachrichtentext und Hash ab.

Der genaue Kodierungsschlüssel, um die Prüfsumme aus dem Text zu errechnen, ist nur auf Versender- und Empfängerseite bekannt. Passt der Hash im Ziel nicht zum Text, ist die E-Mail auf dem Transportweg offensichtlich verfälscht worden. Je nach verwendeter Verschlüsselungssoftware erhalten Sie dann eine Warnung oder der Entschlüsselungsvorgang bricht einfach ab.

Jede sichere Inhaltsverschlüsselung ist grundsätzlich auch ein wirksamer Schutz gegen das heimliche Verfälschen Ihrer E-Mails auf dem Transportweg, etwa durch eine Man-in-the-Middle-Attacke. Denn ohne Kenntnis der von Ihnen gewählten Verschlüsselung und Ihres Schlüssels können Angreifer:innen auch keine gefälschten Inhalte in Ihre E-Mails einbauen oder Informationen verändern.

Spätestens beim Entschlüsseln am Zielort würde auffallen, dass die eingebauten Absätze sich nicht mit dem echten Schlüssel in sinnvolle Inhalte zurückverwandeln lassen. Bei den meisten Kodierungsverfahren gäbe es sogar eine Fehlermeldung, weil auch die originale Textlänge und weitere Prüfparameter den Hash-Wert beeinflussen und dieser somit nicht mehr zu der veränderten E-Mail passt.

 

Symmetrische und asymmetrische Verschlüsselung

Beim Verschlüsseln unterscheiden wir grundsätzlich zwischen zwei Arten von Verschlüsselung. Bei der symmetrischen Verschlüsselung arbeiten beide Seiten, also Versender:in und Empfänger:in, mit demselben geheimen Zahlenschlüssel, den sie üblicherweise zuvor auf einem sicheren Weg miteinander ausgetauscht haben, beispielsweise per Brief oder USB-Stick. Dies ist das Secret-Key-Prinzip.

Bei der asymmetrischen Verschlüsselung hingegen nutzen Sie für das Ver- und Entschlüsseln zwei unterschiedliche Schlüssel. Diese erstellen Sie zuvor als zusammenhängendes Schlüsselpaar. Inhalte, die Sie mit einem der beiden Schlüssel verschlüsseln, können nur mit dem anderen Schlüssel wieder entschlüsselt werden. Die beiden Schlüssel sind auch nicht aus dem jeweils anderen Schlüssel zu errechnen.

In einem nächsten Schritt veröffentlichen Sie einen der beiden Schlüssel als sogenannten public key (öffentlicher Schlüssel) im Internet unter Ihrem eigenen Namen. Den zugehörigen private key (vertraulicher Schlüssel) legen Sie sicher auf Ihrem eigenen Computer ab.

Danach können Internet-Nutzer:innen sich Ihren public key aus dem Internet herunterladen, um damit Inhalte zu verschlüsseln, die anschließend nur von Ihnen allein als Besitzer:in Ihres private key wieder dekodiert werden können. Andere Empfänger:innen oder auch Hacker:innen, die Ihre Mails unterwegs abfangen, würden eine für Sie bestimmte Mail also nicht entschlüsseln können.

Umgekehrt können Sie Ihren private key nutzen, um verschlüsselte Inhalte zu erzeugen. Diese können dann nur mit Ihrem öffentlichen Schlüssel wieder entschlüsselt werden. Das asymmetrische Verschlüsselungsverfahren können Sie also auch zur Authentifizierung nutzen.

Alle Empfänger:innen der von Ihnen mit Ihrem private key verschlüsselten E-Mails wissen sicher, dass diese nur von Ihnen stammen können. Allerdings ist dieses asymmetrische Verschlüsselungsverfahren technisch sehr aufwändig, weswegen Sie es schlecht zum Verschlüsseln größere Datenmengen nutzen können.

Daher gibt es auch noch hybride Verschlüsselungsverfahren als Kombination aus beidem. Diese verschlüsseln beispielsweise Ihre Anmeldung asymmetrisch und kodieren Ihren eigentlichen Datenverkehr symmetrisch.

Verschlüsselung der Verbindung mittels SSL/TLS

„Transport Layer Security” (TLS) ist ein sehr verbreitetes hybrides Verschlüsselungsverfahren im Internet. Der Name steht übersetzt für „Transportschichtabsicherung“. TLS verschlüsselt Ihre Daten auf der sogenannten Internet-Transportebene unterhalb der eigentlichen Anwendungsebene mit E-Mailprogramm oder Browser.

TLS ist der Nachfolger des ebenfalls symmetrischen Verschlüsselungsverfahrens „Secure Socket Layer“, kurz SSL. Daher hieß es anfangs auch SSL 3.1. Übersetzt bedeutet Secure Socket Layer so viel wie „Sichere Verbindungsschicht“.

Obwohl SSL aufgrund einiger Sicherheitslücken heute kaum noch verwendet wird, ist der Name immer noch sehr bekannt. Daher nutzen viele Dienstleister im Internet weiterhin die Begriffe SSL oder SSL/TLS. Tatsächlich verwenden sie aber zum Verschlüsseln meist TLS.

Mit TLS bauen Sie eine sichere Datenverbindungen in vier Schritten auf. Der eigentliche Ablauf ist in der Regel automatisiert. Die einzelnen Schritte übernimmt Ihr E-Mailprogramm für Sie:

  • Im ersten Schritt kontaktiert Ihre Anwendungssoftware, beispielsweise Ihr Browser oder E-Mailprogramm, den gewünschten Server im Internet. Als Antwort erhält Ihr Computer von diesem Server ein sogenanntes öffentliches TLS/SSL-Zertifikat, dass die Echtheit des Servers bestätigt.
  • Im zweiten Schritt überprüft Ihr Computer die Echtheit des Zertifikates. Jedes Zertifikat hat eine begrenzte Gültigkeit – eine vertrauenswürdige Zertifizierungsstelle hat es zuvor für genau diesen Anbieter ausgestellt. Somit können Sie sicher sein, dass Sie tatsächlich mit der richtigen, zertifizierten Gegenseite kommunizieren.
  • Das Zertifikat enthält den öffentlichen Schlüssel des Internet-Servers. Ihr Computer bildet nun im dritten Schritt eine Zufallszahl und verschlüsselt diese mit dem öffentlichen Schlüssel. Dann versendet er die verschlüsselte Zufallszahl an den Server im Internet. Nur dieser Server kann die Zufallszahl mit seinem zugehörigen private key wieder entschlüsseln, sodass nun beide Seiten die Zufallszahl kennen.
  • Als letztes erstellt der Server im Internet mithilfe dieser Zufallszahl einen sogenannten Sitzungsschlüssel, den er wiederum verschlüsselt an Ihren Computer zurücksendet. Somit haben nun beide Seiten auch den Sitzungsschlüssel vorliegen. Mit diesem Sitzungsschlüssel wird die eigentliche Kommunikation symmetrisch kodiert.

 

Das TLS-Verfahren nutzt somit eine asymmetrische Verschlüsselung für den Verbindungsaufbau, während der symmetrisch verwendete Sitzungsschlüssel die eigentliche Kommunikation  absichert.

Beenden Sie die Sitzung, wird auch der Sitzungsschlüssel ungültig. Melden Sie sich das nächste Mal wieder an diesem Server an, müssen Sie also erst wieder gemeinsam einen neuen Schlüssel aushandeln. In der Regel macht Ihre Software auch dies automatisch, sofern Sie das in Ihren Programmen so eingestellt haben.

Eine erfolgreich aufgebaute sichere Verbindung erkennen Sie meist an einem Schloss- oder Schlüsselsymbol im Browser. Bei vielen E-Mailprogrammen können Sie die sichere Kommunikation als Verbindungsstandard in den Einstellungen vorgeben. Dafür wählen Sie beispielsweise für das Herauf- und Herunterladen von E-Mails die Verschlüsselung per „TLS/SSL“ aus. Ohne eine solche durchgehende Verschlüsselung ist die Datensicherheit in Ihrem geschäftlichen E-Mailverkehr nicht gewährleistet.

Inhalte verschlüsseln mit PGP oder S/MIME

 

PGP

„Pretty Good Privacy“ (PGP) ist ein freies Verschlüsselungssystem für den sicheren Datenaustausch und die gegenseitige Authentifizierung im Internet. Für die Authentifizierung nutzt es die asymmetrische Verschlüsselung, also ein Paar aus public key und private key. Das Besondere hierbei: Sie benötige keine externe Zertifizierungsstelle, sondern können Ihr Schlüsselpaar selbst erzeugen und Ihren öffentlichen Schlüssel auf Ihrem eigenen Webspace veröffentlichen.

Üblicherweise bilden bei PGP mehrere Nutzer:innen eine gemeinsames „Web of Trust“, also ein Vertrauensnetzwerk. Diese kennen sich persönlich oder arbeiten beispielsweise im selben Unternehmen und senden sich gegenseitig ihre öffentlichen Schlüssel oder überreichen sich diese persönlich auf einem USB-Stick bei einem hierfür vereinbarten Termin.

Die eigentliche E-Mail-Verschlüsselung erfolgt auch bei PGP wieder in einem symmetrischen Verfahren mit einem sogenannten einmaligen Session-Schlüssel. Dieser wird asymmetrisch kodiert und an die verschlüsselte E-Mail angehängt. Sie können Ihn also nur mit dem passenden private key wieder dechiffrieren. Damit können Sie dann wiederum die eigentliche E-Mail entschlüsseln.

Auch hier ist der umgekehrte Weg möglich: Eine von Ihnen mit einem private Key verschlüsselte E-Mail kann nur mit Ihrem öffentlichen Key entschlüsselt werden. Alle Mitglieder des Vertrauensnetzwerkes wissen somit sicher, dass eine damit verschlüsselte E-Mail wirklich von Ihnen stammt.

Per PGP schützen Sie sich beispielsweise gegen das sogenannte Spear Phishing. Dabei fälschen E-Mail-Betrüger die Absenderadressen von Führungskräften und erteilen in deren Namen beispielsweise die Anweisung, Firmengeld auf ein bestimmtes Konto im Ausland zu überweisen.

Wenn Sie in Ihrem Unternehmen alle Zahlungsanweisungen per PGP verschlüsselt übertragen, verhindern Sie damit wirksam das Spear Phishing.

Für PGP gibt es inzwischen mehrere Programmpakete und Programmerweiterungen, die Sie teilweise auch in gängige E-Mailprogramme integrieren können. Thunderbird ab der Version 78.2.0 enthält bereits von Haus aus eine PGP-Verschlüsselung unter dem Namen OpenPGP. Sie aktivieren diese über das „Extras“-Menü unter dem Punkt „OpenPGP-Schlüssel verwalten“.

Für ältere Thunderbird-Versionen brauchen Sie erst noch die Erweiterung Enigmail, die Teil des Software-Paketes Gpg4win ist. Gpg4win können Sie auch mit vielen anderen E-Mailprogrammen verwenden, beispielsweise Microsoft Outlook, Kmail oder Windows Mail. Das Paket wurde im Auftrag des Bundesamtes für Sicherheit in der Informationstechnik entwickelt und ist als freie Software verfügbar.

 

S/MIME

„Secure/Multipurpose Internet Mail Extensions“ (S/MIME) ist ein weiterer Verschlüsselungsstandard, der im Internet verbreitet ist. Auch S/MIME nutzt eine asymmetrische Authentifizierung und anschließend eine symmetrische Verschlüsselung.

MIME selbst ist ein Standard, um verschiedene Dateitypen in E-Mails zu übertragen und der Gegenseite dabei Informationen zu liefern, wie diese Datentypen zu öffnen sind. Hierfür enthalten MIME-Dateien einen Textvorspann („Header“), der dem E-Mailprogramm oder Browser Anweisungen gibt, wie er diese Dateien behandeln soll. Bei S/MIME enthält dieser Vorspann zusätzlich Ihren öffentlichen Schlüssel und weitere Informationen, beispielsweise den Namen des im weiteren Verlauf gewünschten Verschlüsselungsverfahrens. Denn S/MIME können Sie grundsätzlich mit verschiedenen Kodierverfahren kombinieren.

Um einen öffentlichen Schlüssel zu erstellen, benötigen Sie in der Regel ein Zertifikat einer offiziellen S/MIME-Zertifizierungsstelle. Hochwertige Zertifikate für gewerbliche Nutzer sind kostenpflichtig. Theoretisch können Sie Zertifikate auch selbst erstellen. Aber das ist aufwändig und setzt Spezialkenntnisse voraus.

S/MIME ist ein sehr etabliertes Verfahren, das genau wie PGP inzwischen für viele E-Mailprogramme und Betriebssysteme verfügbar ist, darunter auch für die Smartphone-Betriebssysteme iOS und Android. Allerdings sind PGP und S/MIME nicht kompatibel. Sie können also eine per PGP verschlüsselte E-Mail nicht entschlüsseln, wenn Sie selbst mit S/MIME arbeiten oder umgekehrt. Sie müssen sich also mit Geschäftspartnern oder Kunden auf ein Verfahren einigen.

E-Mails in Outlook verschlüsseln: So gehen Sie vor

Sie können E-Mails in Outlook beispielsweise per S/MIME verschlüsseln. Dafür benötigen Sie ein entsprechendes digitales Zertifikat, das Ihnen als Datei von einer entsprechenden Zertifizierungsstelle vorliegt. Eine solche Datei hat üblicherweise die Endung „.pfx“ oder „.p12“.

Zum Einrichten unter Windows starten Sie Outlook und wählen im „Datei“-Menü die „Optionen“ aus. Hier finden Sie als letzten Menüpunkt das „Trust Center“, das Sie anklicken und dort wiederum die „Einstellungen für das Trust Center …“ aufrufen. Im Trust Center sehen Sie den Menüpunkt „E-Mail-Sicherheit“, in dem Sie unter anderem ihr S/MIME-Zertifikat einrichten können.

Dazu klicken Sie auf „Importieren/Exportieren“ und geben den Namen und das Kennwort Ihres digitalen Zertifikates ein. Dann klicken Sie auf „Durchsuchen“ und wechseln zum Speicherort. Dort wählen Sie die Datei aus und bestätigen den Vorgang per Klick auf „Öffnen“.

Alternativ können Sie auch direkt unter Windows den sogenannten „Zertifikatimport-Assistent“ von Windows starten, indem Sie ihn per Doppelklick auf die Zertifikatdatei aktivieren.

Sie durchlaufen nun einige Schritte, in denen Sie unter anderem auswählen, ob Sie das Zertifikat für sich als Benutzer:in oder für den lokalen Computer einrichten wollen. An dieser Stelle benötigen Sie auch den PIN-Code, den Sie zu Ihrem Zertifikat erhalten haben.

Im Trust Center von Outlook wählen Sie aus, was Sie mit den Zertifikaten machen wollen. So können Sie beispielsweise ab sofort Ihre E-Mails signieren, indem Sie hier ein Häkchen setzen vor „Ausgehenden Nachrichten digitale Signatur hinzufügen“. Verschlüsselte E-Mails in Ihrem Posteingang erkennen Sie zukünftig an einem Schlosssymbol in der entsprechenden Zeile.

Die einzelnen Schritte zum Einrichten von Zertifikaten unterscheiden sich je nach Outlook- oder Betriebssystemversion. Außerdem ist die Einrichtung auf jedem einzelnen Arbeitsplatz oder für jedes einzelne Benutzungskonto in größeren Firmen sehr aufwändig. Mit Produkten wie Secorio Zero-Touch automatisieren Sie das unternehmensweite Ausspielen der Zertifikate.

Wollen Sie stattdessen Outlook-E-Mails per PGP verschlüsseln oder signieren, so können Sie hierfür die Software Gpg4win nutzen. In der Cloudversion Outlook 365 haben Sie grundsätzlich die drei Verschlüsselungsverfahren S/MIME, IRM und OME zur Auswahl. Auch hier können Sie weitere Krypto-Verfahren wie PGP hinzubuchen oder nachinstallieren. Einzelheiten entnehmen Sie den Einstellungen Ihres jeweiligen Microsoft-365-Abonnements.

Wollen Sie besonders sicher gehen, können Sie auch mehrere Verschlüsselungsverfahren übereinanderlegen und die Daten empfängerseitig wieder in umgekehrter Reihenfolge dekodieren. Der Arbeitsaufwand erhöht sich dann aber deutlich, da Sie die meisten E-Mailprogramme hierfür erst entsprechend anpassen müssen oder zusätzliche Verschlüsselungstools benötigen.

Auf einem Mac oder MacBook richten Sie Verschlüsselungsverfahren wie S/MIME über die Apple-Schlüsselbundverwaltung ein. Hierzu finden Sie entsprechende Hilfestellung auf den Apple-Seiten.

DSGVO-Richtlinien zur E-Mail-Verschlüsselung

Die Datenschutzgrundverordnung (DSGVO) der Europäischen Union schreibt vor, dass persönliche Daten nur verschlüsselt gespeichert werden dürfen. Personenbezogene Daten im Sinne von Artikel 4 der Verordnung sind alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen.

Die DSGVO und das deutsche Bundesdatenschutzgesetz empfehlen die generelle Verschlüsselung von E-Mails, da diese häufig personenbezogene Daten enthalten. Einige Juristen lesen aus dem Wortlaut der DSGVO sogar die generelle Pflicht zur Verschlüsselung aller E-Mails heraus.

E-Mails DSGVO-konform verschlüsseln? Prüfen Sie Alternativen

Für Ihr Unternehmen ergibt sich hieraus ein Problem: Speziell beim E-Mail-Verkehr mit Kund:innen oder Geschäftspartner:innen können Sie zwar die Einhaltung des Datenschutzes durch entsprechende Verschlüsselungsmechanismen auf Ihrer Seite garantieren.

Sie können aber nicht gewährleisten, dass auch Ihre Kund:innen und deren E-Maildienstleister Ihre E-Mails verschlüsselt übertragen und verwahren. Zwar können Sie Ihren Kund:innen eine verschlüsselte Kommunikation empfehlen. Doch wenn Sie selbst Ihre E-Mails ausschließlich verschlüsselt versenden, werden viele Kund:innen diese E-Mails nicht lesen können, weil sie auf ihren eigenen Geräten die entsprechenden Verschlüsselungs-Werkzeuge oder Browser-Funktionen nicht aktivieren.

In der Praxis haben sich daher viele Unternehmen, beispielsweise aus dem Bankensektor oder Versicherungswesen dafür entschieden, ihre Kund:innen per E-Mail nur noch darauf hinzuweisen, dass es neue Nachrichten vom jeweiligen Unternehmen gibt.

Die eigentlichen Nachrichten werden jedoch unternehmensseitig verschlüsselt abgelegt. Kund:innen können sich ihre Nachrichten nur in dieser geschützten Umgebung direkt ansehen oder über eine geschützte Verbindung herunterladen. Das dient der Einhaltung der DSGVO und damit auch der Cybersecurity in Unternehmen.

Das Wichtigste zu E-Mail-Verschlüsselung in Kürze

  • Standardmäßig werden E-Mails im Internet nicht durchgehend verschlüsselt.
  • Für das Verschlüsseln gibt es verschiedene Verfahren, die unterschiedliche Aufgaben erfüllen, beispielsweise die inhaltliche Verschlüsselung oder die sichere Authentifizierung von Absender:in und Empfänger:in.
  • Für viele E-Mail-Programme existieren entsprechende Erweiterungen, um eine sichere, verschlüsselte Kommunikation zu gewährleisten.
  • Bei der Kommunikation mit ihren Endkund:innen senden viele Unternehmen persönliche Informationen nicht mehr per E-Mail, da schwer zu gewährleisten ist, dass die E-Mails auf unterwegs sicher sind. Besser ist es, hierfür eigene Download-Bereiche auf der Unternehmensseite anzulegen.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitaler-arbeitsplatz/e-mail-verschluesselung-einfach-erklaert/

Was ist LTE-M?

Mobil, sparsam, reichweitenstark: LTE-M bietet für viele IoT-Szenarien ideale Bedingungen. Wir beantworten die wichtigsten Fragen rund um den Mobilfunkstandard.

Was genau ist eigentlich dieses LTE-M?

Leihfahrräder, Wechselbrücken, Baumaschinen – müssen Unternehmen bewegliche Objekte über große Entfernungen und möglicherweise Ländergrenzen hinweg zuverlässig vernetzen, bringt dies vielfältige Herausforderungen mit sich. Ohne die passende Netztechnologie kann es schnell zu Verbindungsabbrüchen kommen, die das Tracking erschweren oder im ungünstigsten Fall sogar komplett verhindern.

Das Internet of Things (IoT) schafft hier Abhilfe: Wenn Spediteure beispielsweise den Weg ihrer Lieferungen über längere Strecken nachverfolgen möchten, bietet sich der IoT-Mobilfunkstandard LTE-M an. LTE-M steht für “Long Term Evolution for Machines” und ist ideal für die Vernetzung von Geräten in speziellen IoT-Szenarien geeignet. Der Standard gehört zu den sogenannten „Low Power Wide Area Networks“ (LPWAN), die vor allem mit einer sehr hohen Netzabdeckung bei geringem Energieverbrauch überzeugen. LTE-M wurde speziell für IoT-Lösungen entwickelt, für die LTE zu überdimensioniert und damit teuer wäre, bei denen die Alternative NarrowBand IoT (NB-IoT) wiederum nicht die erforderliche Mobilität oder Bandbreite bei der Datenübertragung leisten kann. Der Standard schlägt eine Brücke zwischen beiden Technologien. Auf Basis von LTE-M können Spediteure ihre Fracht mit kostengünstigen Sensoren ausstatten und den Weg der Assets zu jeder Zeit nachvollziehen. Ein LTE-M-Modul kann je nach Ausführung und Einsatzszenario fünf bis zehn Jahre ohne Batteriewechsel auskommen.

Welche Möglichkeiten eröffnet LTE-M?

Weil LTE-M-Module wie ein Smartphone ohne erneuten Verbindungsaufbau von einer Mobilfunkzelle zur nächsten wechseln können, eignet sich LTE-M für Szenarien, in denen es um die Nachverfolgung und Überwachung von Positionsdaten geht. So hat der Logistikkonzern Dachser beispielsweise seine Wechselbrücken mit LTE-M-Funkmodulen vernetzt, um jederzeit ihre Position einsehen zu können. Die Deutsche Bahn hat mit LTE-M den Ausleihservice ihres Angebots „Call a Bike“ optimiert. Die Datenspezialisten von divirod haben ihre Wassersensoren mit LTE-M-SIM-Karten bestückt, um ein Frühwarnsystem bei Flutkatastrophen zu etablieren. Das Start-up Sharemac wiederum überwacht via LTE-M Maschinen und Geräte auf der Baustelle.

Wo liegt der Unterschied zum herkömmlichen LTE-Standard?

IoT-Lösungen gibt es in vielen verschiedenen Ausprägungen, die sehr variable Anforderungen an Datenübertragung, Netzwerkabdeckung und Mobilität mit sich bringen. Deshalb brauchen Unternehmen individuelle Funklösungen, um ihre speziellen Bedürfnisse bestmöglich abzudecken. Der bekannte LTE-Standard (4G) kommt zum Einsatz, wenn hohe Bandbreiten und niedrige Latenzen gefragt sind. Das kann zum Beispiel im Umfeld von Industrie 4.0 der Fall sein, insbesondere bei Anwendungen auf Basis von Industrial IoT (IIoT), wo mittlerweile immer häufiger auch 5G gefragt ist. Mit 4G und 5G gewährleisten Unternehmen unter anderem, dass ferngesteuerte Roboter in der Produktion verzögerungsfrei reagieren oder die Bilder der Videoüberwachung zeitnah auf den Bildschirmen des Sicherheitspersonals landen.

Die hohe Leistungsfähigkeit der Module hat allerdings auch ihren Preis – für die günstige Vernetzung weitläufiger Sensoren-Konstellationen sind sie daher weniger geeignet. Ist in solchen Szenarien trotzdem eine gewisse Bandbreite und Reaktionsfähigkeit gefragt, lässt sich die Realisierung mit der LTE-M-Technologie deutlich günstiger umsetzen. Das bietet sich vor allem für Anwendungsfälle an, in denen eine bessere Gebäudedurchdringung benötigt wird, als sie der LTE-Standard bieten kann.

Was ist der Unterschied zwischen LTE-M und NB-IoT?

Spielen Latenz, Bandbreite und Mobilität nur eine untergeordnete Rolle, ist das Maschinen- und Sensorennetz NarrowBand IoT (NB-IoT) eine kostengünstige Alternative, um umfangreichere Vernetzungsprojekte umzusetzen. Das macht die Technologie zum Beispiel für die Realisierung von Smart-City-Projekten sehr attraktiv: Intelligente Straßenlaternen, sensorbasiertes Parkplatz-Monitoring oder Frühwarnsysteme zum Monitoring der Verkehrsinfrastruktur – mit NB-IoT alles möglich. Dazu punktet NB-IoT mit der stärksten Gebäudedurchdringung aller Mobilfunkstandards.

LTE-M kommt immer dann ins Spiel, wenn es einen Kompromiss aus LTE und NB-IoT braucht. Die Technologie bietet höhere Bandbreiten und niedrigere Latenzwerte als NB-IoT, ohne die hohen Kosten oder Energieverbräuche herkömmlicher LTE-Lösungen zu erreichen. Im Gegensatz zu NB-IoT kann LTE-M zudem auch grenzübergreifend eingesetzt werden, wenn das Roaming in den angrenzenden Netzen aktiviert ist. Das ist zum Beispiel zwischen Deutschland, Frankreich und Belgien der Fall.

Wie sicher ist LTE-M?

Weil LTE-M eine weltweit standardisierte Technologie im lizenzierten Mobilfunkspektrum ist, bietet sie auf Basis der 3GPP-LTE-Sicherheitsmechanismen ein hohes Maß an Sicherheit für sämtliche Anwendungen. Es besteht ein höherer Schutz als bei proprietären Technologien, da die Sicherheitsmechanismen in LTE-M-Szenarien alle Aspekte von der SIM-Karte bis hin zu den Anwendungsservern abdecken. Beim Zugriff auf das LTE-M-Netz werden sowohl die Geräte als auch das Netzwerk genau geprüft. Die gegenseitige Authentifizierung der Infrastruktur erfolgt über die SIM-Karte, auf der sensible Anmeldeinformationen und Gerätedaten gespeichert und vor unberechtigtem Zugriff geschützt sind. Die Integrität der übertragenen Daten wird unabhängig von der Verschlüsselungsfunktion durch einen speziell generierten Schlüssel sichergestellt. Im Vergleich zu anderen Technologien werden bei LTE-M längere Schlüssel (typischerweise 128 Bit) eingesetzt, um die Sicherheit zu erhöhen. Eine Manipulation der Daten ist für das Gerät und das Netz zuverlässig nachweisbar.

Was spricht sonst noch für LTE-M?

LTE-M basiert auf dem LTE-3GPP-Standard und ist damit 5G-kompatibel – Anwender stellen ihre IoT-Lösungen mit der Technologie also zukunftssicher auf. LTE-M kann zudem mit der nuSIM, einer SIM-Karte speziell für IoT, noch stromsparender und effizienter betrieben werden. Mit dieser Lösung sind die Funktionalitäten der SIM-Karte direkt in den Kommunikationschip integriert und verbrauchen so bis zu 90 Prozent weniger Strom. Darüber hinaus besteht bereits eine landesweite Netzabdeckung für LTE-M in Deutschland, vielen weiteren europäischen Ländern wie Niederlande, Frankreich, Belgien, Schweiz, Österreich, Irland, Ungarn oder in Skandinavien, zudem in Nordamerika, Japan und Australien. In vielen angrenzenden Ländern ist die Technologie in der Vorbereitung oder in konkreten Testphasen.

Quelle:

https://iot.telekom.com/de/blog/lte-m-die-wichtigsten-fragen-und-antworten

Workplace-as-a-Service (WaaS) – was steckt dahinter?

Nicht allein die Corona-Pandemie hat die Arbeitswelt in den letzten Jahren stark verändert. Auch das mobile Arbeiten, die fortschreitende Echtzeit-Vernetzung in der Industrie 4.0 und sich verändernde Bedürfnisse von Mitarbeiter:innen stellen die Unternehmens-IT vor neue Herausforderungen. Eine Antwort auf viele Fragen könnte Workplace-as-a-Service (WaaS) sein.

 

Wie IT-Abteilungen durch Standard-Prozesse gebunden werden

Viel Zeit wenden heutige IT-Abteilungen für das klassische Tagesgeschäft auf. Dazu gehört ganz maßgeblich die unternehmensweite Installation und Betreuung von IT-Arbeitsplätzen mit ihren vielen zeitintensiven Arbeitsschritten.

Das beginnt bei der internen Beantragung und anschließenden Beschaffung der benötigten Hardware- und Software-Ressourcen. Es setzt sich fort mit der Wartung im laufenden Betrieb einschließlich dem Support der Anwender:innen und der Gewährleistung von Datenschutz. Zeit kostet außerdem die Bekämpfung von Schadsoftware und Attacken von außerhalb oder sogar aus dem eigenen Netz.

Und es endet noch nicht bei der fachgerechten Entsorgung nicht mehr benötigter IT-Strukturen inklusive normgerechter Datenlöschung nach NIST 800-88 oder BSI-Leitlinien vor Weitergabe oder -verkauf. Wozu im Zeitalter von Speicher-Karten, die auf einem daumennagelgroßen Chip alle Mitarbeiter:innen-Daten eines Großkonzerns speichern können, übrigens auch die fachgerechte Vernichtung physischer Datenträger nach DIN 66399 gehört.

Auch aus der Befürchtung heraus, hier teure Fehler zu machen, denken Unternehmen zunehmend über die Dienstleistung Workplace-as-a-Service (WaaS) nach.

 

Was ist Workplace-as-a-Service?

Workplace-as-a-Service ist ein Angebot für Unternehmen, bei dem IT-Arbeitsplätze für die Mitarbeiter:innen bei Dienstleistern angemietet oder geleast werden. Es ist nicht zu verwechseln mit Windows-as-a-Service von Microsoft, das gelegentlich auch als WaaS bezeichnet wird.

Kunden haben bei WaaS die Wahl, ob Arbeitsplätze inklusive physischer Hardware benötigt oder diese rein virtuell angelegt werden. Auf virtuelle Arbeitsplätze greifen Mitarbeiter:innen browserbasiert über eine Cloud-Lösung zu. Die eigentliche Hardware beschaffen dabei weiter die Kunden selbst. Diese Dienstleistung wird je nach Anbieter auch als Desktop-as-a-Service (DaaS) bezeichnet.

Bei einem WaaS-Angebot inklusive Hardware stellt der Dienstleister auch alle Endgeräte vor Ort auf und richtet diese ein. Einige Anbieter bezeichnen dieses Produkt auch als Modern Workplace as a Service (MWaaS), um zu betonen, dass die Kunden hier regelmäßig aktuelle Hardware erhalten. Die Tarife können als monatliche Raten, separate Leasing-Verträge für die Hardware oder auch als Mischform gestaltet sein.

WaaS ist Teil einer wachsenden Palette von Angeboten für Unternehmen, mit denen sie IT-Aufgaben auslagern können. Die Möglichkeiten reichen von einfachen Cloud-Lösungen, die lediglich Speicherplatz oder Rechenleistung bereitstellen, bis hin zu komplexen Angeboten, die das Unternehmen komplett von jeglicher Software- und Hardware-Beschaffung und -Wartung entlasten.

Das sind die Vorteile von Workplace-as-a-Service (WaaS)

Mit ihren noch vergleichsweise neuen WaaS-Angeboten runden Cloud-Dienstleister ihre Service-Pakete rund um das Auslagern der Unternehmens-IT nach oben ab. Auch Software-Hersteller wie Microsoft, die entsprechende Dienste aktiv bewerben, optimieren ihre Produkte. Microsoft kann so Services wie 365Dynamics 365 oder Cloud-Dienste leichter über WaaS verteilen.

Viele Freiberufler:innen insbesondere in Großstädten nutzen entsprechende Services schon länger. So sind Coworking-Spaces, in denen bevorzugt Einzelunternehmer aus der Kreativ- oder Software-Entwicklungsbranche IT-Arbeitsplätze auf Zeit anmieten, mit den WaaS-Angeboten vergleichbar.

Junge Unternehmen schätzen WaaS besonders: Sie können die hohen Einstiegskosten für den Aufbau einer eigenen IT einsparen und so das knappe Firmenkapital weitgehend in Produktentwicklung, Marketing oder den Aufbau eines Kundenstammes investieren. Aber auch für größere Unternehmen ist WaaS zunehmend interessant, da diese Bereitstellungslösung zahlreiche Vorteile sowohl kaufmännischer als auch organisatorischer Natur zu bieten hat. Mehr über die Gründe lesen Sie hier:

 

Kalkulierbare IT-Kosten

IT-Kosten werden leichter kalkulierbar, indem eine feste Anzahl von Arbeitsplätzen gebucht werden kann. Auch saisonale Schwankungen sind per WaaS besser darstellbar, indem Hard- und Software termingerecht berechnet, gebucht und auch wieder gekündigt werden können.

 

Entlastung des Mangements

Abteilungen werden von Standard-Prozessen entlastet. In vielen Unternehmen ist die Entscheidung über Hardware- und Software-Beschaffung auf Management-Ebenen angesiedelt. Dies verzögert die Bereitstellung und Einrichtung von Arbeitsplätzen. Workspace über WaaS kann deutlich schneller hinzugebucht werden. Neue Mitarbeiter:innen werden an ihren ersten Arbeitstagen nicht mehr an Springer-Arbeitsplätzen „zwischengeparkt“, sondern können sofort produktiv arbeiten. So wird ein wertschätzendes und gleichzeitig effizientes Onboarding möglich.

 

Leichtere Betreuung verschiedener Standorte

Firmen mit vielen dezentralen Arbeitsplätzen, zum Beispiel Filialisten im Einzelhandel, können ihre Standorte über WaaS-Dienstleister einrichten und betreuen lassen. Durch den hohen Spezialisierungsgrad der WaaS-Anbieter können viele Service- und Wartungsaufgaben über das Internet oder Callcenter erledigt werden, für die sonst IT-Mitarbeiter:innen aus der Zentrale des Filialisten anreisen müssten.

 

Mehr Raum für strategische Aufgaben

Die Unternehmens-IT kann sich wieder mehr auf ihre Kernaufgaben konzentrieren. Tagesgeschäft und strategische Aufgaben behindern sich nicht gegenseitig. Das Roll-out eines neuen Produktes zum Beispiel verhindert nicht, dass an anderer Stelle Arbeitsplätze eingerichtet werden können.

 

Einheitliche IT

Aufwand durch unterschiedlich eingerichtete Arbeitsplätze im Unternehmen entfallen. Je nach Abo-Modell nutzen alle Abteilungen auf diesen Plattformen die gleiche Hardware, die gleichen Betriebssysteme und Betriebssystemversionen und die gleiche Business-Software. Es müssen zum Beispiel keine Dokumente im Workflow konvertiert werden, um sie anderen Abteilungen zur Verfügung stellen zu können. Alle am Wertschöpfungsprozess Beteiligten greifen in derselben Cloud auf dieselben Objekte zu und können sie in gleicher Form bearbeiten. Lediglich ein Rechte-Management oder ein interner Workflow regelt, wer wann welche Datei öffnen und bearbeiten kann. Willkommener Nebeneffekt: Es gibt im Firmennetz keine exotischen oder veralteten Arbeitsplatz-Konfigurationen mehr. Denn diese können mangels aktueller Updates versteckte Einfallstore für Schadsoftware sein.

 

IT bleibt flexibel

WaaS geht flexibel auf zukünftige Herausforderungen ein. Viele Unternehmen und deren Mitarbeiter:innen werden in der Corona-Pandemie durch hohen Improvisationsbedarf während kurzfristig angesetzter Homeoffice-Zeiten herausgefordert. Die meisten heimischen Arbeitsplätze dürften bis heute die Richtlinien der Arbeitsstättenverordnung nicht erfüllen. Über WaaS können Unternehmen ihren Mitarbeiter:innen sichere, ergonomische und technisch aktuelle Arbeitsplätze bereitstellen, die alle einschlägigen DIN-Normen berücksichtigen. Ebenso ist eine kurzfristige Migration von Arbeitsplätzen zwischen Wohnort und Büro problemlos möglich. Mitarbeiter:innen werden nicht mehr zu Hause ihre eigenen System-Administrator:innen, sondern erhalten professionellen Service – wahlweise per telefonischer Beratung oder Vor-Ort-Termin. Dies reicht bis hin zur sicheren Einbindung des Dienst-Laptop über VPN-Tunnel im heimischen WLAN. Praktisch: Es sinkt das Risiko, dass Mitarbeiter:innen sich vertrauliche, dienstliche E-Mails auf den privaten Computer weiterleiten und dort bearbeiten; oder beim umgekehrten Weg potenziell Schadsoftware ins Unternehmensnetzwerk einbringen.

 

Passgenaue Auswahl

Die Palette der möglichen Arbeitsplätze vergrößert sich: Es gibt nicht mehr den Standard-Notebook des Standard-Systemhauses für alle Außendienstler:innen. Stattdessen können zum Beispiel Mitarbeiter:innen, die besonders rechen- und grafikintensive Programme nutzen, die passenden leistungsfähigen Endgeräte erhalten.

 

Komplette Lösung

Der WaaS-Anbieter kümmert sich um die Abstimmung der Endgeräte untereinander. Kunden müssen nicht mehr selbst prüfen, ob eine Branchenlösung auch auf bestimmten mobilen Endgeräten funktioniert. Stattdessen wird ein Komplettpaket bestellt, das seitens des Dienstleisters bereits auf Kompatibilität getestet ist.

 

Keine Investment-Risiken in der IT

Investment-Risiken durch unproduktive oder nicht wie geplant nutzbare Hard- und Software entfallen. Ein Gerät, das nicht mehr gesetzlichen Ergonomie- oder Datenschutz-Standards entspricht, kann leichter ausgemustert und durch bessere Hardware ersetzt werden. Eine Software, die nach einem Update nicht mehr mit einer anderen im Unternehmen genutzten Branchenlösung kooperiert, wird bequem durch ein anderes Produkt ersetzt.

 

Kein Datenschutzproblem bei nicht verwendeter Hardware

Die Abwicklung von veralteten oder unbesetzten Arbeitsplätzen ist dank WaaS kein Datenschutzrisiko mehr. Die Sorge, dass Datenträger aus weiterverkaufter Hardware von Dritten ausgelesen werden könnten, führt gerade bei vielen kleineren Unternehmen dazu, dass veraltete Hardware heute lieber entsorgt als dem Weiterverkauf zugeführt wird. So wird unnötig Kapital vernichtet und es werden wertvolle Ressourcen verschwendet, was der Umwelt schadet. Ein WaaS-Anbieter ist hingegen mit den Prozessen zur sicheren Datenlöschung vertraut, da dies für ihn Tagesgeschäft ist.

er bietet WaaS an?

In der Welt der WaaS-Dienstleistungen finden sich die großen Anbieter aus dem Cloud-Sektor wie Microsoft oder Amazon ebenso wie regionale Systemhäuser, die ihre bisherigen Angebote aus dem Hardware-Verkauf und Leasing um neue WaaS-Produkte erweitern.

Microsoft selbst arbeitet mit Partnern wie Metacomp oder ALSO, die Microsoft-Produkte zum Teil um eigene Hardware- und Software- oder Beratungs- und Wartungs-Angeboten ergänzen. Daher unterscheiden sich die am Markt verfügbaren Angebote auch erheblich – je nach Hintergrund des Dienstleisters und seiner Produkthistorie, auf die er WaaS aufsetzt.

Im ersten Schritt sollten Sie daher spezifizieren, welche Dienstleistungen Sie exakt benötigen und was Sie vielleicht sogar weiterhin Inhouse machen möchten. Genügen Ihnen rein software-basierte Angebote (meist als DaaS bezeichnet)? Oder bevorzugen Sie komplette physische Arbeitsplätze, die entsprechende Endgeräte beinhalten (meist unter der Produktbezeichnung WaaS oder MWaaS)?

Ebenfalls wichtig: Welche Service-Level sind nötig und welchen Support benötigen Sie für welche Hard- und Software. Auch hier wieder die Frage: Was können Sie selbst machen, was möchten Sie anmieten?

Sind Ihre Arbeitsplätze an einem oder wenigen Unternehmensstandorten konzentriert, kann es sinnvoll sein, einen regionalen Dienstleister zu beauftragen. Der Vorteil: Kurze Wege bei Hardware-Austausch oder Reparaturen. Außerdem haben Sie lokale Ansprechpartner:innen, die ihren Kundenstamm und dessen Bedürfnisse kennen.

Sind Sie als Unternehmen national oder international aufgestellt, sollten Sie einem großen Anbieter den Vorzug geben. Der Vorteil: Hier finden Sie auch für exotische Branchenlösungen und -bedürfnisse die passenden Ansprechpartner:innen. Sie haben eine größere Auswahl bei Hard- und Software und sind nicht nur auf einen Cloud-Partner im Hintergrund angewiesen.

DaaS und WaaS bietet beispielsweise der US-Hardware-Hersteller HP (ehemals: Hewlett-Packard) an, der seit vielen Jahren mit seinen Notebooks, Workstations, Desktop-PC sowie Druckern und Monitoren am Markt vertreten ist. Aber auch Wettbewerber wie Lenovo haben sich entsprechend aufgestellt.

Es gilt die Regel: Je exakter Sie vorab Ihre Bedürfnisse und die Ihrer Mitarbeiter:innen in einem Lastenheft zusammenfassen und je passender Sie Ihren WaaS-Anbieter zu diesen Bedürfnissen auswählen, desto größer wird Ihr Nutzen im laufenden Geschäftsbetrieb sein.

Diving Deeper” ist das Videoformat von Vodafone Business und OMR. Wir verbinden MyMüsli Co-Founder Max Wittrock mit spannenden digitalen Startups und sprechen über ihre Geschichte, Business-Modelle und Erfolgsgeheimnisse. Inspirierende, wertvolle Einblicke und ein Blick hinter die Kulissen von Foodboom, Ecosia, Appinio, Independesk und Boxine  und ihren Gründer*innen.

In der zweiten Folge trifft Max Wittrock auf Karsten Kossatz. Er ist Mitgründer von Independesk, einem New-Work-Startup aus Berlin. Von ihm erfahren wir nicht nur, wie Kossatz’ Unternehmen die soziale Lücke zwischen Homeoffice und Büropräsenz schließen will, sondern auch, welche Bedeutung Arbeit für das Leben insgesamt haben sollte.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitale-geschaeftsprozesse/workplace-as-a-service-waas-was-steckt-dahinter/

Mikrocontroller: Einfache Automatisierung im Internet of Things

Von der Computermaus bis zum Roboter-Arm: In immer mehr Geräten und Maschinen übernehmen Mikrocontroller wichtige Aufgaben von der Sensorabfrage bis hin zur Kommunikation. Auch im Internet of Things (IoT) sind sie weit verbreitet. Was macht die Mikrocontroller-Technik so erfolgreich und wie nutzen Sie deren Stärken für Ihr eigenes Unternehmen?

Mikrocontroller sind die weniger bekannten Geschwister der Mikroprozessoren. Doch nicht nur in der Consumer-Elektronik übernehmen sie immer mehr Aufgaben klassischer Prozessoren. Weil sie preisgünstig und kompakt sind, kommen sie überall dort zum Einsatz, wo andere Steuerungen zu aufwendig oder zu groß sind. Ihr breites Einsatzspektrum und ihre einfache Programmierbarkeit eröffnen den smarten Winzlingen immer neue Anwendungsfelder – auch im Internet of Things. Und das wächst rasant. Mit rund 75 Milliarden Maschinen und Geräten im IoT bis 2025 rechnet etwa das Statistikportal Statista.

 

Was ist ein Mikrocontroller?

Ein Mikrocontroller (manchmal auch Microcontroller, MCU oder Ein-Chip-System) ist ein programmierbarer, digitaler Prozessor. In seinem Gehäuse befinden sich zusätzlicher Programm- und Arbeitsspeicher (RAM) sowie weitere Schaltkreise für die Ein- und Ausgabe und zur Ansteuerung von Peripheriegeräten. Häufig ist auch noch eine Unterstützung für verbreitete Bus-Systeme wie USB, Ethernet oder I²C vorhanden.

Aufgrund ihres großen Einsatzspektrums und ihrer geringen Kosten sind Mikrocontroller in fast jeder Form von Endgeräten und Peripherie anzutreffen. In der Computertechnik beispielsweise in Druckern, Mäusen, Hubs und Ladegeräten. Als sogenannte Embedded Systems (Eingebettete Systeme) werden Mikrocontroller aber auch als Steuerungen in vielen anderen technischen Geräten, etwa in der Medizintechnik, in der Anlagenüberwachung oder im Automobilbau (Infineon TriCore, NXP S32K3) verbaut.

 

Häufig genutzt für Spezialaufgaben

Mikrocontroller sind inzwischen weiter verbreitet als Mikroprozessoren (CPU). Während klassische Prozessoren in Computern sehr unterschiedliche Aufgaben erfüllen können, haben Mikrocontroller meist genau eine Aufgabe, zum Beispiel Gerätesteuerung. So gibt es beispielsweise in vielen aktuellen Kraftfahrzeugen Mikrocontroller, die jeweils nur eine einzige Komponente steuern und überwachen – wie etwa das Antiblockiersystem (ABS), den Parkassistenten, das Notruf-System oder die Telematik.

In der Regel führen Mikrocontroller hierbei nur ein einziges Programm aus, das sich in einer Endlosschleife wiederholt. Der Controller einer optischen Computermaus liest beispielsweise ununterbrochen die Werte seiner Optik aus, die an der Unterseite verbaut ist. Hieraus errechnet er die eigentliche Bewegung der Maus auf der Tischoberfläche und sendet diese Information bei jeder Wertänderung  per Bluetooth an den Computer, an den die Maus angeschlossen ist.

Anwendung von Mikrocontrollern

Dank ihrer leichten Programmierbarkeit sind Mikrokontroller ideal für die Automatisierung ganz individueller Aufgaben. Mit einem Mikrocontroller können Sie sich beispielsweise sehr einfach eine Klimasteuerung für Ihr Firmengebäude erstellen. Dabei überwacht ein Controller über seine Eingänge mehrere Temperatursensoren in Ihren Innenräumen. Über- oder unterschreiten die Temperaturen bestimmte Grenzwerte, aktiviert der Mikrocontroller über seine Ausgänge per Ethernet oder WiFi Ihre Klima- oder Heizungsanlage.

Oder der Mikrocontroller öffnet im Sommer die Oberlichter, die er bei Regenwetter automatisch wieder schließt, sofern Sie hierfür Regensensoren verbaut haben. Außerhalb der Geschäftszeiten und am Wochenende aktiviert der Mikrocontroller selbsttätig die Regulierung Ihrer Heizung. Der US-amerikanische Technologiehersteller Texas Instruments hat beispielsweise mit seiner Mikrocontroller-Plattform SimpleLink ein entsprechendes Baukastensystem entwickelt.

 

Aufbau eines Mikrocontrollers

Verbreitete Mikrocontroller

Bekannte Mikrocontroller-Typen sind die in vielen Arduinos verbauten Chips der Familie Microchip AVR (früher: Atmel AVR), der ESP32 und der ESP ESP8266 von Espressif, der PICmicro von Microchip Technology sowie der MSP430 von Texas Instruments. Auch die Kinetis K-Series von Freescale Semiconductor (früher: Motorola) erfreut sich großer Beliebtheit, ebenso wie die zeitlose MCS-51-Familie von Intel mit ihren vielen Abkömmlingen auch von Drittherstellern. Besonders im Automobilbau und in der Industrie sind die über 200 Varianten des 8-Bit-Mikrocontrollers Motorola 68HC05 und seiner Nachfolge-Generationen Motorola 68HC08 und Freescale S08 seit langer Zeit eine feste Größe mit mehreren Milliarden verkauften Exemplaren. Auch auf Basis der einst von Acorn RISC Machines entwickelten ARM-Architektur gibt es ARM-Mikrocontroller. Bekannt ist hier beispielsweise der StrongARM-Mikrocontroller.

Unterschiede zwischen Mikrocontrollern, Mikroprozessoren und sonstigen Systemen wie System-on-a-Chip

Die technische Abgrenzung zwischen Mikroprozessoren und Mikrocontrollern ist schwierig. Die Übergänge sind oft fließend. Ein Mikroprozessor für einen Computer oder Server am Arbeitsplatz wird meist in aktueller 32- oder 64-Bit-Technologie hergestellt. Er verfügt über mehrere Rechenkerne und ist hoch getaktet. Dadurch ist er viel leistungsfähiger als die meisten Mikrocontroller, die oft auf älteren Architekturen basieren. Dafür fehlen beim Mikroprozessor wichtige Funktionen, die bei Mikrocontrollern bereits auf dem Chip integriert sind. Hierzu zählen beispielsweise Speichercontroller für den direkten Zugriff auf den Arbeitsspeicher.

Ein Mikroprozessor befindet sich üblicherweise auf einer Hauptplatine. Dort stehen ihm spezialisierte Chips zur Seite, zum Beispiel für das Ansteuern der verschiedenen Speicherarten und der Peripherie. Für die Grafikausgabe gibt es meist einen eigenen Prozessor, den Grafikprozessor (GPU) auf der Hauptplatine oder auf einer Grafikkarte. Der eigentliche Mikroprozessor ist technisch hoch spezialisiert und kann seine primären Aufgaben deshalb umso schneller abarbeiten.

Viele Mikrocontroller basieren noch auf älteren 8- oder 16-Bit-Mikroprozessoren, deren Architektur um zusätzliche Schaltkreise auf den Chips erweitert wurde. Dadurch kommen Mikrocontroller ohne Hauptplatine aus und sind trotzdem erheblich preisgünstiger als aktuelle Hochleistungsmikroprozessoren. Dafür ist ihre interne Rechenleistung allerdings auch geringer. Sie sind beispielsweise nicht geeignet für Anwendungen mit aufwendiger Grafikausgabe oder künstlicher Intelligenz. Inzwischen kommen allerdings auch vermehrt Systeme in 32-Bit-Technologie auf den Markt, wie beispielsweise der ESP8266 von Espressif oder die M2000-Familie von Texas Instruments.

Eine Sonder- oder Zwischenform ist das sogenannte System auf einem Chip (System-on-a-Chip, kurz: SoC). Es vereint ähnlich viele Funktionen wie ein Mikrocontroller in einem Gehäuse, basiert aber auf neuester Mikroprozessortechnik mit vielen hochintegrierten Rechenkernen. In einem SoC sind zahlreiche Baugruppen einer Hauptplatine – darunter beispielsweise Grafikprozessor, Arbeitsspeicher und bestimmte Eingabe- und Ausgabe-Bausteine, etwa für den Mobilfunk oder die Netzwerk-Kommunikation. Die hohe Integration aller Komponenten spart Energie – einige SoC verfügen  hierfür über nur 4 nm breite Leiterbahnen. Das ist besonders für mobile Geräte von Vorteil. Durch ihre aufwendige Herstellung sind SoC meist erheblich teurer als Mikrocontroller und kommen daher nur in hochpreisiger Hardware zum Einsatz.

SoC kommen meist dort zum Einsatz, wo es auf hohe Leistungsfähigkeit und kompakte Bauformen ankommt, beispielsweise in Smartphones und Tablets. Einige Systeme gibt es aber auch in gängigen Notebooks und Desktoprechnern. So nutzt Apple sein SoC M1 einerseits im MacBook Pro und iMac Mini, aber auch in den Tablets iPad Pro und iPad Air.

 

Unterschiede zu Ein-Platinen-Computern

Wesentlich einfacher ist die Abgrenzung zwischen Mikrocontrollern und Ein-Platinen-Computern (englisch: Single Board Computer, kurz: SBC) wie dem Raspberry Pi, dem Banana Pi oder dem Asus Tinker Board. Hierbei handelt es sich um voll funktionsfähige Rechner auf einer einzigen, kompakten Platine. Auf dieser Platine befinden sich meist auch leistungsfähige Massenspeicher und Ein-/Ausgabe-Komponenten. Es fehlen aber meist die Steckplätze für Erweiterungskarten, wie sie auf größeren Hauptplatinen in PCs vorkommen.

Ein-Platinen-Computer besitzen meist spezialisierte Grafikprozessoren und unterstützen Videostandards wie HDMI. Deshalb sind Ein-Platinen-Computer beispielsweise als Video-Server in Netzwerken sehr beliebt. Sie kommen aber auch als einfache Desktop-Computer mit Tastatur und Bildschirm zum Einsatz. Über die Anbindung per Narrowband-IoT sind Ein-Platinen-Computer im Industrial Internet of Things vielfältig einsetzbar – genau wie Mikrocontroller.

 

Hardware

Mikrocontroller gibt es in sehr unterschiedlichen Bauformen: zum Beispiel als Chip im DIL-Gehäuse mit zwei seitlichen Pin-Reihen. Insbesondere 16- und 32-Bit-Mikrocontroller werden wegen ihrer höheren Pin-Anzahl bevorzugt im quadratischen QFP-Format mit Beinen an allen vier Seiten gefertigt. Beispiele sind der ESP32 oder sein Nachfolger, der ESP8266 von Espressif. Besonders kleine Modelle wie der Kinetis KL03 messen dabei nur wenige Quadratmillimeter.

Viele Mikrocontroller werden bereits auf einer fertigen Platine ausgeliefert. Diese besitzt meist Lötkontakte oder Schraubanschlüsse für die digitalen und analogen Ein- und Ausgänge des Controllers. Außerdem verfügt sie in der Regel über einen Quarz für die Taktung und einen Reset-Taster sowie LED für die Anzeige des Betriebszustandes. Die Größe der Platinen variiert stark – auch in Abhängigkeit davon, wie viele Anschlüsse sie jeweils besitzen. Die Digispark-Platine in der Revision 3.0 ist gerade einmal so groß wie ein Daumennagel – und bietet trotzdem einen USB-Anschluss und Bohrungen für sechs I/O-Pins.

 

Programmierschnittstelle und Spannungsversorgung

Auf eine Platine aufgelötete Mikrocontroller haben in der Regel bereits Anschlüsse für die Spannungsversorgung, zum Beispiel in Form von Hohlstecker-Buchsen oder als VCC- und GNC-Pins. Die eigentliche Programmierung erfolgt häufig über den USB-Anschluss. Für Chips ohne Platine benötigen Sie entsprechende Programmierplatinen mit einem sogenannten Nullkraftsockel zur Aufnahme der integrierten Schaltkreise (IC).

Ein vorhandener USB-Anschluss kann auch als Stromanschluss dienen. Gängige Mikrocontroller benötigen eine dauerhafte Versorgung mit 3,3 bis 5 Volt Gleichspannung. Der Digispark beispielsweise verträgt dank seines integrierten Spannungsreglers aber auch bis zu 35 Volt Eingangsspannung.

Schnittstellen

An den Ein- und Ausgängen Ihres Mikrocontrollers können Sie Sensoren, Aktoren oder Kommunikationsmodule anschließen oder anlöten, zum Beispiel für WLAN, Bluetooth, GSM oder Narrowand-IoT. Für einige Mikrocontroller-Platinen wie den Arduino oder die D1-Boards mit ESP8266 gibt es sogenannte Shields. Das sind Aufsteck-Platinen, deren Stiftleisten Sie einfach in die entsprechenden Buchsenleisten der Controller-Platine stecken und so ohne Verlöten kontaktschlüssig verbinden.

Die Belegung der Pins Ihres Mikrocontrollers sehen Sie in der Regel aufgedruckt auf der Platine. Einige Pins sind je nach Modell mehrfach belegt. Beim Arduino definieren Sie bestimmte Anschlüsse beispielsweise über den pinMode()-Befehl wahlweise als Ein- oder Ausgänge. Größere Lasten an den Ausgängen können Sie über zusätzliche Opto-Koppler und Relais-Platinen schalten.

Möchten Sie mehr Peripherie-Geräte oder Aktoren steuern, als Ihr Mikrocontroller Ausgänge hat, können Sie diese über Bus-Systeme aneinanderreihen. Verbreitet ist hierfür beispielsweise der I²C-Bus oder auch der im Automobilbau häufig genutzte CAN-Bus.

Verwendete Programmiersprachen

Für die Mikrocontroller-Programmierung gibt es zahlreiche quelloffene Programmierumgebungen (Integrated Development Environment, kurz: IDE) und Betriebssysteme. Mikrocontroller arbeiten wie Mikroprozessoren intern mit Maschinensprache. Für die meisten Systeme gibt es Compiler, die das Programmieren in verschiedenen, meist vereinfachten C-Dialekten erlauben. Aber es gibt inzwischen auch Programmierumgebungen für Basic und MicroPython. Da viele Mikrocontroller auf älterer Prozessor-Hardware basieren, gibt es sogar IDE für Sprachen wie Ada und Forth. Speziell für PICmicro wurde die Sprache JAL (Just Another Language) entwickelt.

Ein Mikrocontroller-Programm kann neben Ein- und Ausgabebefehlen auch Verzweigungen und bedingte Schleifen enthalten. Damit können Sie in der Praxis sehr komplexe Steuerungs- und Überwachungs-Aufgaben automatisieren. Trotzdem ist die Programmierung sehr leicht zu erlernen. Daher sind Mikrocontroller in Schule und Ausbildung weit verbreitet und werden auch gerne für den Bau von Prototypen genutzt. Für den Arduino gibt es in den einschlägigen Foren frei verfügbare Arduino-Projekte mit Bauanleitungen und Programmen (Sketches) für viele Einsatzzwecke. Aber auch andere Mikrocontroller-Projekte sind im Internet zu finden.

Energieeffizienz

Mikrocontroller sind im Vergleich sehr energieeffizient. Weil sie in der Regel nur grundlegende Berechnungen ausführen und niedrig getaktet sind, kommen sie im Unterschied zu vielen Mikroprozessoren und insbesondere Grafikprozessoren ohne aktive oder passive Kühlung aus. Modelle mit 16 oder 32 Bit haben üblicherweise einen etwas größeren Energieverbrauch als solche mit 8 Bit. Aber auch hier gibt es Ausnahmen: Der MSP430 von Texas Instruments ist zwar ein 16-Bit-System, kommt aber dank seiner hohen Energieeffizienz oft in Geräten mit Langzeitbatterie zum Einsatz, etwa in Blutdruckmessgeräten oder Datenloggern.

 

Echtzeitfähigkeit

Ein großer Vorteil von Mikrocontrollern ist ihre Echtzeitfähigkeit. Obwohl Mikrocontroller in der Regel über vergleichsweise wenig Rechenleistung verfügen, führen sie ihre Berechnungen immer zeitnah durch, da sie zu keinem Zeitpunkt durch andere Aufgaben blockiert werden. Das ist beispielsweise in sicherheitsrelevanten Systemen sehr wichtig: Ein ausschließlich für die Überwachung des ABS in Kraftfahrzeugen zuständiger Mikrocontroller überwacht kontinuierlich die Bremssensoren und kann bei Bedarf zeitnah eingreifen. Ein zentraler Steuercomputer für das Gesamtsystem Auto hingegen könnte im entscheidenden Moment durch parallel ablaufende Berechnungen für das Navigationssystem oder das Entertainment blockiert werden. Daher übernehmen Mikrocontroller häufig zeitkritische Aufgaben.

 

Sicherheit

2018 berichtete ein Hersteller von Antiviren-Software, von dem Diebstahl von Kundendaten aus einem Spielcasino. Hacker hatten hierbei über ein Aquarienthermometer in der Lobby des Casinos einen Zugang in dessen internes Netzwerk gefunden.

Auch für Mikrocontroller besteht also eine grundsätzliche Gefahr durch Schadsoftware. Einige Mikrocontroller bieten deshalb per Hardware angelegte Sicherheitsfunktionen wie einen Bootloader-Schutz gegen das Einspielen von Malware. Andere Controller für den industriellen Einsatz im IioT wie etwa die RX65N/RX651-Serie von Renesas sichern ihren mobilen Datenverkehr mittels zusätzlicher Transportverschlüsselung per AES, 3DES, SHA oder TRNG.

 

Die richtige Auswahl treffen – diese Modelle gibt es

Das Angebot an Mikrocontrollern ist groß. Einige Modelle sind in bestimmten Disziplinen sehr gut, aber keine Gerätebaureihe ist in allen Bereichen führend. Daher sollten Sie bei Ihrer Entscheidung für einen Mikrocontroller zuerst die folgenden Fragen klären. Damit können Sie das für Sie und Ihre Einsatzzwecke am besten geeignete System finden.

 

Wie wichtig ist Ihnen eine hohe Systemleistung des Mikrocontrollers?

Geräte, die auf aktuellen 32-Bit-Mikroprozessoren basieren, sind meist schneller als ältere Modelle, die intern noch mit 8 Bit arbeiten. Achten Sie beim Blick auf das Datenblatt neben der Datenbus-Breite aber auch auf weitere Leistungsdaten wie die interne Taktrate und die Größe und Art des verbauten Speichers.

Mit dem Wandel zur Industrie 4.0 steigt der Bedarf an Hochleistungs-Mikrocontrollern, die wie moderne SoC über Mehrkernprozessoren verfügen und mit hohen Taktraten arbeiten. Hier setzt beispielsweise Texas Instruments mit Sitara AM2x an oder STMicroelectronics mit Teilen seiner STM32-Familie.

 

Suchen Sie ein preisgünstiges System, mit dem Sie sehr leicht Prototypen bauen können?

Für Mikrokontroller wie den Arduino oder die ESP32-/ESP8266-Reihe gibt es im Handel preisgünstige, vorkonfektionierte Zubehörmodule, speziell für Mikocontroller-Anfänger, die die Programmierung erlernen möchten. Das Angebot reicht von Sensoren und Aktoren über Schalt-Relais bis hin zu Kommunikationsmodulen mit GSM, WLAN, NFC oder Bluetooth. Damit können Sie sehr schnell eigene Prototypen im Baukastensystem erstellen. Auch Bauanleitungen und Programme für diese Systeme finden Sie in großer Zahl im Netz.

 

Benötigen Sie Mikrocontroller für Systeme ohne externe Spannungsversorgung?

Benötigen Sie Mikrocontroller für batteriegespeiste Systeme? Größere Rechenleistung geht in der Regel auch mit höherem Energieverbrauch einher. 16-Bit-Systeme arbeiten schneller als 8-Bit-Systeme, konsumieren aber auch mehr Energie. Daher können Sie durch die Wahl stromsparender Modelle die Intervalle zwischen Batteriewechseln deutlich verlängern. Bedenken Sie auch, dass die Datenübertragung per WLAN oder Mobilfunk mehr Strom benötigt als der Datenaustausch per Bluetooth oder NFC.

 

Welche Sicherheitsstandards sollte die Technik erfüllen?

Nicht alle Mikrocontroller sind gegen Malware und Angriffe über das Netz gleichermaßen gut geschützt. Wollen Sie Geräte in Ihr Firmennetz einbinden, sollten Sie die Technik daher auch unter dem Sicherheitsaspekt auswählen, um keine Einfallstore für Schadsoftware zu öffnen. Vergleichen Sie die Sicherheitsfunktionen der jeweiligen Hardware.

 

Wie robust soll die Technik sein?

Produktionssysteme stellen hohe Anforderungen an Langlebigkeit und Ausfallsicherheit. Einige im Handel verfügbare Komponenten sind eher für den Bau von Prototypen oder für den Heimanwenderbereich gedacht. Bei der Robustheit ihrer Steckverbindungen oder bei der Wärmeabfuhr im Dauerbetrieb zeigen sie hingegen Schwächen. Achten Sie daher auch auf die Qualität der verbauten Komponenten.

Viele Hersteller haben deshalb eigene Mikrocontroller-Baureihen für den industriellen Einsatz im Programm, beispielsweise Infineon mit seiner XMC-Familie oder Toshiba mit seinen Serien TXZxA+ und TXZxE+ speziell für die Maschinensteuerung.

 

Wie sieht die Ersatzteilversorgung aus?

Manche Hersteller fertigen ihre Mikrocontroller-Baureihen mit leichten Modifikationen seit über 40 Jahren, beispielsweise die Motorola mit den 68H-Abkömmlingen oder Intel mit seiner MCS-51-Familie. Auch Microchip AVR, ESP32/ESP8266 und PICmicro sind inzwischen weit verbreitet. Hier werden Sie voraussichtlich noch lange Support und Ersatzteile erhalten. Andere Mikrocontroller-Baureihen haben nur eine kurze Lebenszeit und werden nur in kleinen Stückzahlen gefertigt. Auch dies sollten Sie bei Ihrer Entscheidung berücksichtigen.

 

Wie gut sind die einzelnen Mikrocontroller für das Internet of Things geeignet?

Über entsprechende Peripherie-Bausteine können Sie heute alle verfügbaren Mikrocontroller via WLAN, GSM oder Narrowband-IoT mit dem Internet of Things verbinden. Einige Baureihen bringen die entsprechende Technik bereits auf dem eigenen Chip mit. Das reduziert den Programmieraufwand und hilft Ihnen, Ihre Baugruppen klein und schlank zu halten.

Internet of Things: So vernetzen Sie Controller

Für die Steuerung und Überwachung von Maschinen und Geräten bieten Mikrocontroller viele Vorteile. Dank ihrer Echtzeitfähigkeit sind sie sehr zuverlässig. Ihr geringer Stromverbrauch macht sie besonders für mobile Geräte und Sensoren interessant. In eingebetteten Systemen arbeiten sie immer nah an der zu überwachenden oder zu steuernden Technik. So funktionieren sie beim Edge Computing in Umgebungen mit temporär schlechter Netzanbindung auch dann noch zuverlässig, wenn es zu Verbindungsabbrüchen kommt.

Mit Mikrocontrollern als Access Points und Datenknoten können Sie aber auch bestehende Netzwerke erweitern, beispielsweise ein vorhandenes WLAN oder 5G-Campus-Netz, das die Geräte Ihres IIoT verbindet.

Mikrocontroller sind wertvolle Bausteine des Internet of Things, die sich gut mit weiteren Technologien ergänzen, etwa dem Distributed-Multi-Access-Edge-Computing, das Funktionen der künstlichen Intelligenz (KI) am Rand von Netzen bereitstellt. Mikrocontroller können hier per Mobilfunk- oder WLAN-Verbindung ihre Sensorwerte an eine Edge KI übermitteln. Diese wertet die Daten dann aus und liefert die Ergebnisse zurück an die Controller.

So kann beispielsweise ein Mikrocontroller in einem Zugangssystem Kamerabilder oder andere biometrische Daten an eine KI übertragen. Diese prüft dann, ob diese Daten zu Personen mit Zugangsberechtigung gehören. Ist dies der Fall, sendet sie eine entsprechende Freigabe an das Zugangssystem, das wiederum die jeweilige Tür öffnet.

Aber auch autonome Fahrzeuge können ihre Mikrocontroller mit eine Edge KI verbinden. So erhalten sie Informationen über Verkehr, Wetter und ihren Zustand – und können sie dann von der künstlichen Intelligenz auswerten lassen.

Ein weiteres Einsatzgebiet für Mikrocontroller ist das Energie- und Gebäudemanagement. Per Mikrocontroller können Sie Verbrauchsmessgeräte, Temperaturfühler, Infrarotkameras und andere Sensoren per WLAN oder Mobilfunk verknüpfen und Ihr IIoT für ein effizientes Energiemanagement nutzen. Damit sparen Sie Ressourcen und somit auch Kosten.

Das Internet of Things eröffnet also viele neue Anwendungsfelder für die ohnehin schon sehr vielseitige Technik der Mikrocontroller.

 

Mikrocontroller in der Übersicht

  • Mikrocontroller kommen in zahlreichen Gerätesteuerungen als Embedded Systems zum Einsatz.
  • Mikrocontroller unterscheiden sich von Mikroprozessoren, SoC und Ein-Platinen-Computern.
  • Auf dem Markt gibt es zahlreiche Baureihen von älterer, günstiger 8-Bit-Technologie bis hin zu schnellen 32-Bit-Systemen.
  • Jede Mikrocontroller-Familie hat ihre besonderen Stärken und Eigenarten.
  • Mikrocontroller sind wichtige Komponenten im Internet of Things. Über verschiedene Funk- und Mobilfunk-Standards verbinden sie sich untereinander, mit dem Firmen-Netzwerk oder der Cloud.

Quelle:

https://www.vodafone.de/business/featured/digitales-business/digitale-geschaeftsprozesse/mikrocontroller-einfache-automatisierung-im-internet-of-things/

 

Deep Learning: Wie Maschinen mit neuronalen Netzen unser Gehirn nachbilden

Mit Big Data und immer leistungsfähigeren Sensoren und Massenspeichern wächst das weltweite Datenvolumen exponentiell. Auch für Unternehmen wird es zunehmend schwieriger, ihre anfallenden Datenmengen zu sortieren und auszuwerten. Hier setzen Methoden der künstlichen Intelligenz und des Maschinenlernens an. Eine davon ist das Deep Learning.

Noch vor wenigen Jahren war allein die Vorstellung Science-Fiction: Maschinen, die in unserer Sprache mit uns kommunizieren, auf Kamerabildern Menschen erkennen oder ein Fahrzeug sicher durch den Großstadtverkehr lenken. Heute sind viele dieser Anwendungen bereits Realität: dank künstlicher Intelligenz und Deep Learning. Auch das Auswerten und Aufbereiten riesiger Datenmengen ist damit möglich.

Die Unternehmensberatung McKinsey schätzt den globalen Wertschöpfungsbeitrag der künstlichen Intelligenz (KI) bis 2030 auf bis zu 13 Billionen US-Dollar. Die Consultingfirma ist überzeugt: „KI übertrifft den jährlichen Wachstumseffekt, den seinerzeit Dampfmaschinen, Industrieroboter und die Verbreitung der Informations- und Kommunikationstechnologien erzielten.“ Doch wie funktioniert das Deep Learning per KI eigentlich und wo kommt es bereits jetzt zum Einsatz? Das und mehr lesen Sie im Folgenden.

 

Was ist Deep Learning?

Maschinelles Lernen ist die Art und Weise, wie künstliche Intelligenz neues Wissen aus Informationen gewinnt. Deep Learning ist eine bestimmte Methode des maschinellen Lernens, die hierfür künstliche neuronale Netze nutzt.

Künstliche neuronale Netze sind den Nervennetzen des menschlichen Gehirns nachempfunden. Sie bestehen aus Ebenen künstlicher Nervenknoten, die jeweils über Datenleitungen verbunden sind – so wie die Neuronen des biologischen Gehirns per Synapsen verbunden sind. Zu verarbeitende Daten wandern von Ebene zu Ebene durch das künstliche Nervennetz. Die einzelnen digitalen Neuronen enthalten mathematische Funktionen, die ankommende Daten bearbeiten und dann zur nächsten Ebene weiterleiten.

Daten wandern in der Regel immer in derselben Richtung durch das neuronale Netz. Am Anfang steht die Eingabe-Ebene (Input Layer). Von dort werden die Daten über eine oder mehrere unsichtbare Ebenen (Hidden Layers) weitergereicht, bis sie schließlich in der Ausgabe-Ebene (Output Layer) ankommen.

Von Ebene zu Ebene wächst das Abstraktionsniveau der Daten. Während die Eingabe-Ebene beispielsweise ein komplettes Foto als Muster aus Bildpunkten aufnimmt, enthält die nächsthöhere Ebene (erster Hidden Layer) nur noch Umrisse oder Bildelemente, die nach einer bestimmten Logik aus dem Bild herausgelesen wurden. Eine weitere Ebene vereint diese Elemente zu geometrischen Mustern, bis schließlich auf der Ausgabe-Ebene die Muster bestimmten Kategorien zugeordnet werden (Würfel, Quadrat oder menschliches Gesicht beispielsweise).

Der Arbeitsauftrag „Identifiziere Personen auf einem Foto“ wird somit in viele einzelne Teilschritte zerlegt und erst dadurch für den Computer überhaupt ausführbar. Die Ausgabe-Ebene enthält meist deutlich weniger Neuronen als die Input-Ebene, denn meist sollen die Daten beim Durchlauf durch das neuronale Netz aggregiert und zu wenigen, höherwertigen Informationen zusammengefasst werden. Ein Netzwerk kann auf Input-Seite Millionen Neuronen haben und auf Output-Seite nur ein einzelnes Neuron, das die einfache Information liefert: „Eingescanntes Foto enthält Gesicht eines Menschen“ mit den möglichen Ausgabewerten eins („Ja“) und null („Nein“).

Eine Besonderheit des künstlichen neuronalen Netzes ist seine Fähigkeit, Synapsen (also Datenleitungen) zwischen den Ebenen laufend so umzubauen, dass die Ergebnisse auf der Ausgabe-Ebene immer besser werden. Die künstliche Intelligenz kann diesen Umbau der Synapsen je nach Programmierung autonom durchführen. Es handelt sich hierbei also nicht um einen starren, sondern um einen selbstadaptiven (selbstanpassenden) Algorithmus: Die KI lernt durch Erfahrung.

 

Formen des maschinellen Lernens – wie der Mensch Rückmeldung gibt

Um besser zu werden, muss die künstliche Intelligenz Rückmeldungen erhalten, damit sie ihr Netzwerk stetig optimieren kann. Diese Rückmeldungen erhält das System von seinen menschlichen „Lehrer:innen“. Das können Programmierer:innen sein, aber auch entsprechend geschulte Anwender:innen. Deren Lehrverfahren unterscheiden sich je nach Abstraktion und Komplexität des Lernens:

  • Überwachtes Lernen (Supervised Learning): Bei jedem Durchgang erhält die künstliche Intelligenz das Eingabemuster und ein optimales Ergebnismuster als Trainingsdaten. Datenquelle kann beispielsweise eine Bilderdatenbank sein, deren Einzelbilder alle schon das Ergebnis der jeweiligen Bildanalyse im Dateinamen tragen („Bild Mensch“, „Bild Auto“, „Bild Haus“). Die KI lernt damit, Ein- und Ausgaben zu assoziieren und dabei Gesetzmäßigkeiten zu finden. So sammelt die künstliche Intelligenz etwa die Erfahrung, dass das Objekt Auto eine Karosserie und Räder besitzt und sich auf einem Untergrund befindet, also nicht fliegen kann (Lernen durch Generalisierung). Damit optimiert die KI ihr neuronales Netzwerk beim überwachten Lernen. Nach dem erfolgreichen Training kann sie mit realen Daten arbeiten. Ihre Analyse-Ergebnisse werden sich bei diesem Lernverfahren allerdings in einem erwartbaren Rahmen bewegen und nicht wesentlich über die trainierten Zuordnungen hinausgehen (“Dieses Bild gehört in diese Namenskategorie.”). Sie erkennt also, dass ein Bild beispielsweise einen Menschen zeigt. Sie wird aber nicht lernen, selbst weitere Kategorien zu definieren oder Unterkategorien zu bilden (beispielsweise Autos mit bestimmten Eigenschaften oder Menschen, die vor Häusern stehen). Dafür ist ihr Training zu speziell auf die eine ihr bekannte Aufgabe zugeschnitten. Ihre Intelligenz und ihr Wissen reichen nicht darüber hinaus. Kurz: Es fehlt eine erlernte Fähigkeit zum Transfer.
  • Bestärkendes Lernen (Reinforcement Learning): Hier erhält die KI nur Eingabemuster, aber keine ideale Lösung für jeden einzelnen Durchgang. Stattdessen wird die KI (auch als Agent bezeichnet) für das fehlerfreie Abarbeiten eines gesamten Datensatzes belohnt. Dies kann geschehen, indem verschieden optimierte Agenten einer KI gegeneinander oder gegen einen Menschen antreten. Der Agent, der hierbei den Sieg erringt, wird belohnt, indem seine neuronale Struktur weitervererbt wird. Dieses Lernverfahren ist deutlich aufwendiger und langwieriger als das überwachte Lernen. Da hierbei bewusst keine optimalen Lösungen für jeden einzelnen Durchgang vorgegeben werden, kann die KI im Idealfall aber auch bessere Lösungen finden als die Lehrer:innen selbst.
  • Unüberwachtes Lernen (Unsupervised Learning): Die KI erhält nur noch Eingabemuster, aber keinerlei Rückmeldung von den Lehrer:innen. Die künstliche Intelligenz versucht eigenständig, in den vorliegenden Daten Muster zu erkennen, ohne zu wissen, welche Art von Mustern sie überhaupt finden könnte. Diese Lernform ist dem natürlichen, biologischen Lernen am ähnlichsten. Denn auch Menschen wissen beispielsweise vor dem Ansehen eines Bildes nicht, welche Inhalte sie darauf erkennen werden und welche Erfahrungen sie aus dem vielfachen Betrachten von Bildern gewinnen könnten. Die KI kann bei diesem Lernverfahren Muster oder Gesetzmäßigkeiten finden, die ihr zuvor noch nicht bekannt waren. Eine solche KI könnte beispielsweise in einem Set von Bestelldaten mit zunehmender Erfahrung Auffälligkeiten bei Kundenpräferenzen entdecken oder Vorhersagen über zukünftige Zahlungsausfälle bestimmter Kundentypen treffen. Ein typisches Einsatzgebiet für unüberwachtes Lernen ist die Fraud Detection: Künstliche Intelligenz analysiert Firmendaten und entdeckt schneller als der Mensch Spuren von Betrug durch winzige Auffälligkeiten und Abweichungen in Geschäftsvorgängen, die vorher nie auffällig schienen.

Warum Deep Learning so bedeutsam ist: Die wichtigsten Anwendungsfelder

Deep Learning als Form des maschinellen Lernens kommt dort zum Einsatz, wo die Regeln einer gestellten Aufgabe sehr komplex und schwer in mathematische Gesetzmäßigkeiten zu fassen sind. Hierzu zählen beispielsweise die Erkennung von Handschriften, Aufgaben im Bereich der Marktanalyse und das Einordnen von Bildinhalten in abstrakte Kategorien. Insbesondere dort, wo es nur wenige Informationen über zu erwartende Ergebnisse gibt, kann eine KI neue, unerwartete Erkenntnisse liefern. Vor allem wenn sie mit unüberwachtem Lernen geschult wurde.

Übersetzung und Spracherkennung: Mit der zunehmenden Verbreitung von Sprachsteuerung und digitalen Assistenten wie Siri, Alexa und Google Assistant kommt der Spracherkennung per KI wachsende Bedeutung zu. Dabei muss die künstliche Intelligenz aus gesprochener Sprache eindeutige Sinnzusammenhänge und Sprachbefehle herausfiltern und anschließend ihre eigene Antwort in menschliche Sprache zurückübersetzen und dabei deren Syntax und Satzbau berücksichtigen. Solche Systeme sind häufig als Software as a Service oder Function as a Service ausgelegt, wobei der Anbieter seine Sprach-KI fortlaufend zentral trainiert.

Als Kund:in mieten Sie dann zum Beispiel fallweise die Funktion der Spracherkennung, um den Avatar Ihres Shopsystems mit Ihren Kund:innen sprechen zu lassen. In weiteren Ausbaustufen kann die Software auch in verschiedenen Sprachen mit Ihren Websitebesucher:innen kommunizieren oder Dialoge zwischen Ihren Servicemitarbeiter:innen und Ihren Kund:innen simultan dolmetschen. Oder Sie setzen die KI ein, um Ihr neues Produktportfolio Geschäftspartner:innen aus anderen Ländern vorzustellen – und zwar per Videokonferenz in der jeweiligen Landessprache.

Bilderkennung: Die Bild- und Mustererkennung ist besonders vielfältig einsetzbar. Das Aufgabengebiet reicht von der Vorhersage von Wetterphänomenen auf Basis von Satellitenkarten über die Gesichtserkennung am Firmentor bis hin zur KI, die alte Schwarz-Weiß-Filme nachkoloriert. Viele Anwender:innen nutzen im Alltag täglich die Bilderkennung, wenn beispielsweise die Smartphone-Kamera automatisiert auf Fotos Gesichter erkennt oder das Handy per Gesichtserkennung entsperrt wird. Aber auch die Auswertung von Fotos von Materialproben fällt in diese Disziplin.

Ein besonderes Verfahren hierbei ist das sogenannte Deep Residual Learning (zu Deutsch etwa: Lernen mit Restwerten). Hierbei blendet die KI einzelne Inhalte oder Ebenen ihres neuronalen Netzes gezielt aus und arbeitet nur noch mit den verbleibenden Restwerten. So kommt sie zum einen deutlich schneller zu Ergebnissen und kann zum anderen bestimmte Fehlertypen, die sich über zu viele Abstraktionsschritte aufsummieren würden, wirksam ausschließen.

An der Ruhr-Universität Bochum helfen KI-Agenten, indem sie Röntgenbeugungsdaten und Kristallstrukturen verschiedener Werkstoffe auf mögliche neue Eigenschaften hin analysieren. Aber auch autonome Transportfahrzeuge in größeren Fabrikanlagen nutzen KI und Bilderkennung.

Autonomes Fahren: Expert:innen sind sich einig, dass es ohne KI kein autonomes Fahren im öffentlichen Raum geben kann. Für den vollautomatisierten Fahrbetrieb wird künstliche Intelligenz darauf trainiert, sich sicher und unfallfrei fortzubewegen. Möglich wird ein solches autonomes Fahren erst durch die Beobachtung des Umfeldes und den gleichzeitigen Informationsaustausch mit anderen Fahrzeugen per Machine-2-Machine-Kommunikation. Nur dann kann sich das Fahrzeug zügig auf der idealen Route fortbewegen und zugleich Staus vermeiden. Bei Mercedes-Benz heißt es hierzu: „Durch Deep Learning werden Fahrzeuge ‚lernen‘, ihre Umwelt zu verstehen. Mit der Cloud verbunden, entwickeln sie sich so zu einem anpassungsfähigen Co-Piloten, der innerhalb und außerhalb des Fahrzeugs permanent Sicherheit und Komfort seiner Insassen im Auge hat.“

Internet of Things (IoT): Im Netzwerk der Dinge fallen sehr große Datenmengen an, die von Menschen oder von einfachen Suchalgorithmen längst nicht mehr allein ausgewertet und strukturiert werden können. Ein Beispiel sind die Bilddaten mehrerer Kameras auf einem Firmengelände, die alle auf einen zentralen Server streamen. Künstliche Intelligenz clustert derartige Massendaten nach Sinnzusammenhängen und gewinnt aus Big Data über Zwischenschritte Smart Data, also höherwertige Daten. Diese Daten können Sie wiederum zur Optimierung der zugrunde liegenden Prozesse nutzen. Im Fall der Kameras etwa sammelt die KI aus den vielen Bildinhalten nur die Informationen, welche Personen sich zu welcher Zeit wo aufgehalten haben. Bei einer per Kamera überwachten Fertigungsstraße behält die KI nur solche Aufnahmen, bei denen sie Auffälligkeiten festgestellt hat, und leitet diese an das Qualitätsmanagement weiter. Erkennt sie Spuren von Verschleiß an der Anlage, sendet sie einen Hinweis an die Wartungsabteilung, dass diese Maschine möglicherweise bald ausfallen könnte (Predictive Management).

Deep Learning: Algorithmen für die Mustererkennung

Die Mustererkennung per neuronalem Netzwerk gehört zu den klassischen Einsatzgebieten des Deep Learning. Hierfür gibt es verschiedene Algorithmen sowie Fachbegriffe, die die Anwendung dieser Algorithmen beschreiben:

Transfer Learning

Beim Transfer Learning wird das digitale Wissen einer KI auf verwandte Einsatzgebiete übertragen. Eine KI, die gelernt hat, Gesichter wiederzuerkennen, kann dank Transfer Learning beispielsweise dafür eingesetzt werden, auch andere biometrische Daten in einer Zugangskontrolle zu erkennen.

Merkmalsextraktion

Die Merkmalsextraktion (Feature Extraction) ergibt sich aus der Unterscheidung der KI zwischen im Sinne der Aufgabe wichtigen und unwichtigen Eigenschaften eines Musters. Eine künstliche Intelligenz, die Lastwagen auf den Bildern einer Verkehrskamera identifizieren soll, wird zum Beispiel lernen, die Umrisse von Lkw wiederzuerkennen (wichtige Merkmale) und weiterzuverarbeiten, aber beispielsweise die Farben von Werbetexten auf Anhängern (unwichtige Merkmale) zu ignorieren.

Backpropagation

Ein Backpropagation-Algorithmus kommt speziell beim überwachten Lernen zum Einsatz. Hierbei wird zuerst ein Muster durch das neuronale Netzwerk geführt (propagiert). Anschließend wird die Ausgabe des Netzwerks mit einer zuvor bereits bekannten, optimalen Lösung für dieses Muster verglichen. Mit Blick auf die Abweichungen von der Ideallösung durchläuft das Muster nun das neuronale Netzwerk in umgekehrter Richtung (sogenannte Backpropagation). Dabei erfolgt eine Neugewichtung der einzelnen Neuronenverbindungen: Verbindungen, die maßgeblich zur Entstehung des Fehlers beigetragen haben, werden geschwächt oder ganz gelöscht.

Führt beispielsweise eine bestimmte Lichtquelle in Bildern von Überwachungskameras häufig zu falsch erkannten Mustern, gewichtet die KI zukünftig Bildinhalte, die von speziell dieser Lichtquelle beleuchtet werden, als weniger wichtig für das Gesamtergebnis: Sie schwächt also die zugehörigen Knoten im Netzwerk.

Neuronen-Modellierung

Jedes künstliche Neuron besteht wie das Neuron eines menschlichen Gehirns aus mehreren Komponenten, ist allerdings deutlich einfacher strukturiert. Das künstliche Neuron hat eine Eingangsseite, auf der Eingabedaten oder Daten vom vorherigen Layer eintreffen. Diese unterschiedlichen Daten werden jeweils einzeln gewichtet und dann mathematisch zu einem Wert zusammengefasst. Dies geschieht in der Übertragungsfunktion.

Diese Funktion gibt den zusammengefassten Zahlwert als sogenannte Netzeingabe an die Aktivierungsfunktion weiter. Nur wenn dieser Zahlwert einen bestimmten Schwellwert überschreitet, gibt die Aktivierungsfunktion einen Impuls an die nächste Ebene des neuronalen Netzes (“Aktivierung”). Andernfalls „schweigt” sie bei diesem Durchgang.

Aktivierungsfunktionen

Die Aktivierungsfunktion eines Neurons gibt üblicherweise nicht einfach den erhaltenen Zahlwert an die nächste Ebene weiter, sondern bearbeitet diesen Wert zuerst mittels einer mathematischen Funktion. Ein Teilgebiet der KI-Forschung befasst sich mit dem Finden der idealen Funktion für diese Aufgabe. Heutige neuronale Netze verwenden Aktivierungsfunktionen wie die Sigmoidfunktion oder die Hyperbelfunktion. Seit dem Jahr 2000 ist die Rectified Linear Unit (ReLU) die beliebteste KI-Funktion.

Jede Funktion hat dabei andere Stärken und Schwächen. Die ReLU-Funktion ist beispielsweise gut geeignet für die schnelle Annäherung (Konvergenz) an gewünschte Ergebnisse. Sie kann bei sehr vielen Lerndurchläufen aber auch zum sogenannten Dying ReLU-Problem (Neuronensterben) führen. Das geschieht, wenn immer mehr Neuronen eines Netzes auf der Übertragungsseite nur noch negative Zahlwerte erhalten und somit nicht mehr aktiviert werden.

Die Bedeutung neuronaler Faltungsnetzwerke (CNN)

Faltungsnetzwerke heißen auch Faltungsneurale Netzwerke (Convolutional Neural Network). Sie sind eine Methodik der Musterverarbeitung, etwa bei Fotos. Hierbei werden alle Pixel eines Eingangsmusters nacheinander mit einer mathematischen Funktion verknüpft („gefaltet“). Die hierbei entstehenden Convolutional Layer (Einzelbilder) werden dann zu einer neuen Bildebene (Pooling Layer) zusammengefasst, wobei ein Großteil der zuvor in den einzelnen Layern enthaltenen Informationen als unwichtig verworfen wird.

Vereinfacht gesagt legt die KI mit diesem Verfahren einen Bildbearbeitungsfilter über das Foto, der bestimmte Strukturen herausarbeitet und verstärkt. Dieser Prozess kann innerhalb eines neuronalen Netzes beliebig oft wiederholt werden. Wie das gesamte neuronale Netz ist auch diese Methode eine Imitation biologischer Vorgänge im menschlichen Gehirn, hier speziell in der Sehrinde. Im Ergebnis erkennt die KI durch dieses Verfahren Strukturen besser, so wie auch das menschliche Gehirn in einem beliebigen Muster bestimmte auffällige Strukturen schnell hervorheben und identifizieren kann.

 

GPU als KI-Beschleuniger

Grafikprozessoren (Graphics Processing Units, kurz: GPU) unterstützen die Hauptprozessoren von Computern bei der immer komplexeren Bildausgabe, beispielsweise in 3D-Computerspielen. Es hat sich gezeigt, dass diese GPU auch für andere Aufgaben sehr gut geeignet sind, etwa für das Errechnen von digitaler Währung (Bitcoin Mining). Auch die KI-Forschung greift mittlerweile auf GPU-Cluster zurück und erledigt damit besonders rechenintensive Aufgaben in immer kürzerer Zeit. Entsprechend gehören Grafikkartenspezialisten wie Nvidia heute zu den Hauptlieferanten von KI-Hardware.

Frameworks und Programmiersprachen im Deep-Learning-Umfeld

Für die Entwicklung von neuronalen Netzwerken und ganz allgemein für das Maschinenlernen gibt es mittlerweile eine Vielzahl von Frameworks und Programmiersprachen. Sie möchten sich selbst mit Deep Learning befassen und suchen die richtige Sprache und Programmierumgebung? Hier stellen wir Ihnen einige beliebte Kombinationen vor:

Python

Python ist sehr vielfältig und unterstützt unterschiedliche Programmierparadigmen. Auch deshalb ist Python die wahrscheinlich meistgenutzte Programmiersprache für von Grund auf selbst gecodete KI-Anwendungen. Hierfür gibt es eine große Anzahl an Machine-Learning- und Deep-Learning-Frameworks. Der leicht verständliche Programmierstil ist für Einsteiger:innen ideal. Entsprechende Programmierbibliotheken für die Auswertung großer Datenmengen (Big Data) sind vorhanden.

PyTorch

Schon der Name lässt es erahnen: PyTorch ist ein Deep-Learning-Framework für die Programmiersprache Python, das auf der bekannten Torch-Bibliothek basiert. Zwar funktioniert es auch mit C, doch KI-Entwickler:innen geben beim Thema künstliche Intelligenz mehrheitlich Python den Vorzug. PyTorch ist Open-Source-Software und wurde von Facebook entwickelt, dessen Entwickler:innen für das geplante Metaversum selbst an KI-Anwendungen feilen. Gut: PyTorch funktioniert auch auf mobilen Plattformen wie Android und iOS.

Keras

Das Framework Keras für Python ist für die Erstellung neuronaler Netzwerke optimiert. Auch die Keras-Macher:innen sind um eine möglichst einsteigerfreundliche Gestaltung bemüht. Die Software ist als Open-Source-Bibliothek angelegt und wird somit von einer weltweiten Gemeinschaft engagierter Informatiker:innen stetig weiterentwickelt.

TensorFlow

TensorFlow ist ebenfalls ein Open-Source-Framework für das Deep Learning mit Python. Aktuell dürfte es für diesen Einsatzzweck das meistgenutzte Framework sein, noch vor PyTorch und Keras. Das ist nicht zuletzt seiner prominenten Herkunft aus dem Google-Universum zu verdanken, von wo es 2015 in die kostenfreie Nutzung entlassen wurde. Auch Google selbst verwendet die Technologie für Google Search, Gmail und die Google-Spracherkennung. Die Kombination von TensorFlow mit C++ ist ebenfalls möglich, aber für KI-Themen weniger relevant.

Deep Learning Toolbox Matlab

Das Deep-Learning-Framework von den Matlab-Macher:innen bei MathWorks ist für die Entwicklung und Implementierung tiefer neuronaler Netze auch mit vortrainierten Modellen und Apps gedacht. Sie können es beispielsweise mit neuronalen Faltungsnetzwerken sowie LSTM-Netzen (Long Short-Term Memory) verwenden. Die Toolbox bietet Transferlernen mit DarkNet-53, ResNet-50, NASNet, SqueezeNet und weiteren vortrainierten Modellen.

MXNet

Apache MXNet ist ein Open-Source-Framework für das Deep Learning. Es ist leicht skalierbar und besticht besonders durch die Vielfalt der unterstützten Sprachen wie Python, C++, Java, JavaScript, Go, R und Perl. Wie am Namen der Software zu erkennen ist, steht dahinter die Non-Profit-Organisation Apache Software Foundation, die vielen Anwender:innen durch die Apache-HTTP-Server bekannt ist.

R

Die Programmiersprache R ist als Statistiksprache weltweit bekannt und geschätzt. Insofern ist der Einsatz im Bereich künstlicher Intelligenz nicht ungewöhnlich. Schließlich gibt es zwischen beiden Themengebieten große Überschneidungen. Die Sprache wird als Open-Source-Software für Windows, Linux und macOS angeboten. R funktioniert mit dem weiter oben erwähnten Framework TensorFlow. Aber auch mit Microsofts Cloud-Plattform Azure, dem Service Watson Machine Learning von IBM und der Oracle-Cloud Free Tier lassen sich KI-Anwendungen unter R erstellen.

Deep Learning: Zukunftstechnologie im KI- und IoT-Umfeld

  • Deep Learning ist eine Form des Maschinenlernens, durch die KI Muster oder Sprachen erlernen oder beim autonomen Fahren die Umgebung überwachen kann.
  • Per Deep Learning geschulte Systeme sind in der Lage, auch große Datenmengen, wie sie im Internet of Things entstehen, sinnvoll zu strukturieren und zu vereinfachen.
  • Bereits heute kommen KI und Deep Learning auf vielen Anwendungsgebieten zum Einsatz, etwa in der Spracherkennung und in der Smartphone-Fotografie.
  • Je nach angewandtem Lernverfahren kann KI beim Deep Learning sehr schnell trainiert werden oder aber so angelegt sein, dass die künstliche Intelligenz auch übergeordnete Regeln erkennt, die selbst ihren menschlichen Lehrer:innen zuvor nicht bekannt waren.
  • Die Forschung zur künstlichen Intelligenz arbeitet an der permanenten Verbesserung der KI-Algorithmen, beispielsweise durch die Weiterentwicklung der in den Neuronen verwendeten Funktionen.
  • Für die Arbeit mit künstlicher Intelligenz gibt es bereits zahlreiche Programmiersprachen und Frameworks sowie vorkonfektionierte neuronale Netzwerke, die individuell modifiziert werden können. Viele der angebotenen Sprachen und Frameworks sind als Open-Source-Software verfügbar.

Quelle:

https://www.vodafone.de/business/featured/technologie/deep-learning-wie-maschinen-mit-neuronalen-netzen-unser-gehirn-nachbilden/

Was ist Serverless Computing?

Serverless Computing ist wie IaaS (Infrastructure as a Service), PaaS (Platform as a Service) und SaaS (Software as a Service) eine spezifische Art des Cloud-Services. Es beschreibt die Bereitstellung von Backend-Diensten (Datenverarbeitung im Hintergrund von Webanwendungen) auf Grundlage der tatsächlichen Nutzung. Im Gegensatz zu anderen Services basiert das Prinzip nicht auf einer fest gemieteten Bandbreite, Speicherkapazität oder Rechenleistung. Unternehmen zahlen lediglich für den Umfang der genutzten Webanwendungen. 

Serverless Computing bedeutet im Unterschied zur wörtlichen Übersetzung nicht, dass für die jeweilige Anwendung kein Server benötigt wird. Stattdessen betreiben Anbieter die Server für Nutzer:innen und nehmen ihnen dabei sämtliche Aufgaben ab, die damit einhergehen. Dadurch können sich zum Beispiel Entwickler:innen ganz auf die Programmierung und Bereitstellung ihres Codes konzentrieren. Die „Serverlosigkeit” auf Kundenseite wird also wie so vieles im Cloud-Umfeld durch Abstraktion und Virtualisierung hergestellt.

Wir erklären, wie Serverless Computing funktioniert und welche Vorteile es Ihrem Unternehmen bringen kann.

 

Was ist Serverless Computing?

Wollten Unternehmen in der Vergangenheit Webanwendungen nutzen, mussten sie zunächst entsprechende Geräte wie zum Beispiel Server anschaffen. Das war teuer und brachte oft erheblichen Personal- und Materialaufwand mit sich. Die meisten Cloud-Dienste ersparen Unternehmen diese Investitionen. Deren Entwickler:innen können sich vor allem auf ihre Kernaufgaben konzentrieren, anstatt sich immer wieder mit der Verwaltung und Pflege von IT-Strukturen zu beschäftigen.

Aber auch die Administration und Konfiguration von Serverstrukturen sowie die korrekte Funktion von Backend-Diensten für Webanwendungen kostet Unternehmen wertvolle Entwicklungszeit und verzögerten mitunter Projekte. Serverless Computing nimmt Entwickler:innen diese lästigen Verwaltungsaufgaben komplett ab. Konfigurierte Server und modulare Angebote zur Entwicklung eigener Backends für Webanwendungen stehen beim Serverless Computing jederzeit bereit. Lediglich die Geschäftslogik und die Verwaltung des Datenbestands von Unternehmen fallen weiterhin unter deren Hoheit.

Dazu zählen:

  • Bereitstellung von theoretisch unbegrenzter Rechen- und Speicherkapazität in der Cloud
  • Konfiguration und Administration der Server-Infrastruktur
  • Wartung des Betriebssystems (zum Beispiel durch Patches, Updates usw.)
  • Bereitstellung leistungsfähiger Anwendungen und Funktionsmodule zur Backend-Entwicklung
  • Skalierung aller benötigten Ressourcen je nach Leistungsbedarf (unter anderem Speicher, Netzwerk, Laufzeitumgebungen)

Entwickler:innen laden also lediglich ihren Code in die Cloud und können sofort damit beginnen, ihn mithilfe der angebotenen Backend-Tools zu testen oder ihn Nutzer:innen im Frontend einer Webanwendung zur Verfügung zu stellen.

Wie ist Serverless Computing aufgebaut? 

Serverless Computing unterteilt die Backend-Architektur für Anwendungen als kombiniertes Cloud-Service-Modell in Funktionsbereiche. Jeder einzelne davon führt eine andere Aufgabe innerhalb der Anwendung aus und kann individuell gestartet oder gestoppt werden.

Innerhalb der Architektur von Serverless Computing unterscheidet man grundlegend zwei Bereiche:

  1. Function-as-a-Service (FaaS): Dieses verhältnismäßig neue Konzept ähnelt dem Dienst Software-as-a-Service (SaaS). Es stellt Entwickler:innen die Möglichkeit zur Verfügung, einzelne Funktionen für Webanwendungen auf einfache Weise zu mieten oder zu generieren. Sie erstellen ihren Code dabei nach wie vor eigenständig und laden ihn modular in zustandslose (stateless) Instanzen, die ihnen der Anbieter zur Verfügung stellt. Diese Funktionen starten und stoppen auf einzelne Ereignisse (Events) hin.
  2. Backend-as-a-Service (BaaS): Diese Entwicklungsumgebungen erlauben Entwickler:innen, im Browser eigene Backends für Webseiten und -anwendungen zu erstellen. Der Service stellt Module und standardisierte Funktionen zur Verfügung, die häufig bei der Verwaltung von Webseiten zur Anwendung kommen. Gleichzeitig hosten die Anbieter auch das Backend. Dieses können die Entwickler:innen nach der Erstellung mit einem gewöhnlichen Webbrowsers aufrufen und konfigurieren.

Die wichtigste Eigenschaft der aus diesen Services bestehenden Serverless-Architektur ist die Skalierbarkeit: Anwendungen des Serverless Computing passen sich automatisch der Zahl der Nutzer:innen und der damit einhergehenden Last an. Funktionen werden nur nach Bedarf gestartet – werden sie nicht benötigt, kommt es auch nicht zur Ausführung. Unternehmen zahlen dabei lediglich die tatsächlich genutzte Rechen- und Speicherkapazität und keine pauschalen Gebühren wie bei anderen Cloud-Services.

Backend-Dienste für Serverless Computing

Serverless Computing stellt innerhalb der oben geschilderten Architektur Backend-Dienste nach dem FaaS-Prinzip bereit. Diese können Funktionsmodule umfassen, die entweder von Programmier:innen erstellt oder vom Service-Provider angeboten werden. Sie können durch Edge Computing zudem an den Rand des lokalen Netzwerks ausgelagert werden, um Rechenleistung und Bandbreite bei der Verbindung zur Cloud einzusparen. Häufig angewendete Funktionen sind zum Beispiel Datenbank- und Speicherdienste für Daten von Kund:innen.

 

Zusätzliches Sicherheitskonzept

Daneben muss Serverless Computing gegenüber klassischen Webanwendungen ein weiteres Sicherheitskonzept berücksichtigen: Während ersteren eine singuläre Prüfung der Sicherheitsregeln für Benutzer:innen genügt, reicht dies bei Serverless-Computing-Anwendungen nicht aus. Dort benötigt jede modulare und zustandslose Funktionseinheit eine separate Authentifizierung, die durch entsprechende Dienste innerhalb der Anwendung zur Verfügung gestellt werden muss.

Die Überprüfung ist bei jedem Start einer funktionalen Einheit notwendig, findet also im Verlauf einer einzelnen Session von Benutzer:innen recht häufig statt. Ein API-Gateway kann als Management-Tool diese Sicherheitsabfragen übernehmen und gewissermaßen als „Tür” zwischen der Anwendung und dem Backend dienen. Das Gateway wandelt Anfragen der Nutzer:innen in authentifizierte Events um und sendet sie an die funktionalen Einheiten, die daraufhin starten.

Serverless Computing im Vergleich zu anderen Cloud-Services

Serverless Computing weist als integriertes Angebot mit verschiedenen Ebenen Unterschiede zu singulären Cloud-Services auf:

  • Function-as-a-Service (FaaS) besteht aus zustandslosen, ereignisgesteuerten, skalierbaren und serverseitigen Funktionen, die vollständig vom Anbieter verwaltet werden. Einzig die Daten und die Geschäftslogik verwalten Nutzer:innen selbst. FaaS wird oft mit Serverless Computing gleichgesetzt, hält als singulärer Service allerdings lediglich einzelne Funktionen und keine kompletten Anwendungen oder ein Backend-Hosting bereit.
  • Backend-as-a-Service (BaaS) bietet Module für das komplette Backend von Webanwendungen an. Das Backend kann dabei allerdings nicht individuell skaliert werden. Beim Serverless Computing wird es hingegen in Kombination mit FaaS in kleinere Blöcke unterteilt, die nach Bedarf ausgeführt und beendet werden.
  • Software-as-a-Service (SaaS) bedeutet, dass Sie eine einzelne Software-Lösung oder ein Software-Paket bei Ihrem Cloud-Anbieter auf Zeit mieten, anstatt regelmäßig neue Lizenzen oder Updates zu kaufen (zum Beispiel ein Office-Paket).
  • Platform-as-a-Service (PaaS) stellt Entwickler:innen wie beim Serverless Computing Server, Ressourcen und eine Umgebung für ihre Arbeit zur Verfügung. PaaS ist dabei aber weniger leicht skalierbar: Die Anwender:innen müssen die Skalierung beziehungsweise ihren Bedarf gewöhnlich bereits im Voraus (grob) planen.
  • Infrastructure-as-a-Service (IaaS) bietet Hardware, Speicher, Rechenleistung und Netzwerkressourcen. Diese können nach Umfang oder genutzter Zeit gemietet werden und sind häufig frei skalierbar. Konfiguration und Verwaltung der darauf installierten Software obliegt dabei den Nutzer:innen.

Anwendungsbereiche von Serverless Computing

Serverless Computing wird für Unternehmen immer wichtiger, die Aufwand und Kosten für Ihre Webanwendungen minimieren möchten. Dessen Funktionen kommen vor allem in zwei Bereichen zum Einsatz:

  1. Bei der Übermittlung von Ereignissen und Daten zwischen Services: Darunter fällt zum Beispiel die Zerlegung und Umwandlung einer Eingabe in ein für die Weiterverarbeitung nutzbares Format (sogenanntes Parsing).
  2. Bei der Entwicklung einer API zu einem konkreten Zweck: Diese in sich geschlossenen Schnittstellen oder kleinere Services stehen Unternehmen zur Verfügung, um damit singuläre Funktionen einer Webanwendung zu starten. Dabei müssen sie sich keine Sorgen um die Skalierung oder langfristige Kosten machen: Während die Skalierung durch den Provider erfolgt, entstehen Kosten lediglich bei dem konkreten Aufruf des Services.

Resultierend daraus kann Serverless Computing unter anderem bei folgenden Anwendungen eingesetzt werden:

  • Web-Applikationen (skalierbare Anwendungen für Benutzer:innen)
  • API-Backends (Zusammenführung der Services einer Anwendung in einem Backend)
  • Microservices (unter anderem Zahlungsverarbeitung, Netzwerk- und Messagingdienste)
  • Datenverarbeitung (zum Beispiel Text-, Bild-, Video- und Audiobearbeitung bei großen, unregelmäßig eingehenden Dateien)
  • Stream-/Batch-Verarbeitung (unter anderem App-Protokolle, IoT-Sensoren, Finanzdaten)
  • Customer Relationship Management (CRM) (beispielsweise Chatbots, Email- oder Anruffunktionen)

Vorteile von Serverless Computing

Serverless Computing bietet für den Einsatz in Ihrem Unternehmen viele Vorteile. Diese bestehen letztlich vor allem in der Einsparung betrieblicher Ressourcen sowie einem Zeitgewinn gegenüber herkömmlichen Backend-Diensten. Serverless eignet sich vor allem bei schwankendem Workload hervorragend für den Betrieb Ihrer Webanwendungen.

Die wichtigsten Vorteile von Serverless Computing sind:

  • Niedrige Investitionen: Sie müssen nicht in teure Server und weitere Hardware investieren, deren Kapazitäten Ihr Unternehmen vielleicht nur zum Teil ausschöpft.
  • Keine Server-Verwaltung: Ohne eigene Hardware ist auch keine Konfiguration, Administration und Wartung notwendig. Dies spart Ihnen zusätzliches Personal und Ressourcen (wie zum Beispiel Strom) ein.
  • Hohe Sicherheit: Regelmäßige Updates und Patches durch den Service-Provider garantieren Ihnen größtmögliche Sicherheit für Ihre Geschäftsdaten.
  • Automatische Skalierung: Serverless Computing skaliert die erforderliche Rechen- und Speicherkapazität auch bei Lastspitzen flexibel auf Ihre Bedürfnisse.
  • Pay-on-demand: Die Abrechnung erfolgt ausschließlich nach tatsächlich ausgeführtem Code. Sie zahlen statt pauschaler Beträge nur die Gebühren für die von Ihnen genutzten Kapazitäten.
  • Zeitgewinn: Die Konfiguration und Wartung von Servern wird auf ein Minimum reduziert. Ihre Entwickler:innen haben mehr Zeit für die Entwicklung und Verbesserung neuer oder bestehender Anwendungen.

Herausforderungen für Entwickler:innen 

Serverless Computing klingt in der Theorie perfekt für die Arbeit von Programmierer:innen, doch in der Praxis müssen sie einige Herausforderungen bewältigen.

Der Service setzt funktionale Einheiten für Anwendungen voraus, deren Laufzeit möglichst kurz ausfallen sollte. Nur so ist eine schnelle Kommunikation zwischen Client (Nutzer:innen der Anwendung) und Server gewährleistet. Der Provider führt automatisch für jede Anfrage eine neue Instanz der funktionalen Einheit aus, angepasst an die aktuelle Auslastung.

Bei zustandslosen (stateless) Anwendungen erfolgt dies problemlos. Viele Webanwendungen sind jedoch zustandsorientiert (stateful) aufgebaut und müssen zum Beispiel auf Datenbanken zugreifen oder Daten darin speichern. Die Logik der Workflows verschiebt sich dabei hin zum Client – erst recht bei der Nutzung von Single Page Applications (SPA). Diese Einzelseiten-Webanwendungen laden Inhalte dynamisch nach und verstärken die Last noch.

Ein Beispiel dafür ist der Warenkorb in einem Online-Shop: Die Anwendung merkt sich den Inhalt des Warenkorbs und auch nach einem erneuten Laden der Seite bleiben dessen Einträge erhalten. Soll dies im Rahmen des Serverless Computings erfolgen, müssen die Anwendungen entsprechend angepasst werden.

Wie bei anderen Cloud-Services, bei denen die Anwender:innen viele Aufgaben an den Service-Provider übertragen (wie zum Beispiel bei PaaS), ergeben sich auch beim Serverless Computing mögliche Nachteile aus diesem Prinzip:

  • erschwertes Debugging: Die Wartung und Fehlerbehebung innerhalb der angebotenen Module ist von Seiten der Anwender:innen schwierig bis unmöglich. Tiefere Einblicke in die Backend-Prozesse (z.B. mit Debugger-Programmen) bleiben meist verwehrt.
  • aufwendiges Logging: Die ganzheitliche Protokollierung der Softwareprozesse wird durch die Modularisierung der einzelnen Funktionen erheblich komplexer.
  • umständliches Monitoring: Auch die Nachvollziehbarkeit und Auswertung der Logdaten gestaltet sich aufwendiger.
  • Kontrollverlust: Während Anwender:innen große Kontrolle und Möglichkeiten zur Individualisierung einzelner FaaS-Komponenten innerhalb ihres Backends besitzen, geben sie die Kontrolle über alle vom Anbieter betriebenen Komponenten komplett ab. Ähnlich wie bei PaaS kann sich dieser Vorteil schnell in einen Nachteil verwandeln, wenn die Infrastruktur, auf denen Serverless Computing betrieben wird, nicht ordnungsgemäß arbeitet.
  • Abhängigkeit vom Provider: Durch die Abgabe der Kontrolle über die Infrastruktur sind Anwender:innen nahezu vollständig vom Support der Anbieter von Serverless Computing abhängig.

Generell gilt: Serverless Computing ist eine leistungsstarke Alternative für Ihre Webanwendungen, wenn Sie Zeit und Kosten sparen wollen. Seine Stärken spielt diese Art von Cloud-Service vor allem bei schwankender Nachfrage von Nutzer:innen und ungleichmäßigen Workload aus. Sind die Webanwendungen Ihres Unternehmens hingegen eher gleichbleibend und auf einem hohen Niveau ausgelastet, empfiehlt sich eher ein anderer Cloud-Service auf PaaS-Basis ohne FaaS-Module.

Quelle:

https://www.vodafone.de/business/featured/technologie/was-ist-serverless-computing/

Was ist und wie funktioniert die IBM Cloud?

Das Thema Cloud-Lösungen gehört auch 2022 zu den Kernthemen in der modernen Wirtschaft. Viele Systeme arbeiten nach sehr ähnlichen Prinzipien. Doch es gibt auch Unterschiede. Die IBM Cloud unterscheidet sich zum Beispiel deutlich von anderen Cloud-Systemen. Denn hier stehen maßgeschneiderte Angebote für die unterschiedlichsten Anforderungen im Vordergrund. Diese Angebote sind auch einzeln buchbar und damit sehr flexibel nutzbar.

Die IBM Cloud ist ein Sammelbegriff für unterschiedliche IT-Services und -Infrastrukturen. Sie ermöglichen es, Daten plattformunabhängig auszutauschen und zu speichern. Der Begriff „Cloud“ deutet dabei an, dass für Anwender:innen sowohl die konkrete Software als auch die Hardware in der „Wolke“ verdeckt bleiben. Losgelöst von Systemwelten ist Zugriff auf die Daten jederzeit und von überall her möglich.

Wie ist es möglich, geräte- und systemunabhängig auf Daten, Anwendungen und andere Ressourcen zuzugreifen? Hier kommt das Cloud-Computing ins Spiel. Cloud-Computing bietet Datenspeicherung, Datenzugriff, Netzwerkfunktionen sowie Entwicklungstools in der Cloud. Für Unternehmen ergibt sich daraus eine bedarfsorientierte IT-Struktur on demand. Denn alle notwendigen Ressourcen stellt der Cloud-Service-Provider (CSP) zur Verfügung, wobei die Leistung skalierbar ist.

 

IBM-Cloud-Plattform: Alle Cloud-Arten unter einem Dach

Das Cloud-Computing-Angebot in der IBM Cloud umfasst die vier gängigsten Cloud-Arten: Private CloudsPublic CloudsHybrid-Clouds und Multi-Clouds.

Unterschiedliche Cloud-Typen

Private Clouds sind meist auf eine geschlossene Benutzergruppe oder einzelne Benutzer:innen beschränkt. Der Zugriff ist häufig hinter einer Firewall isoliert zugewiesen.

Sogenannte Managed Private Clouds sind ein Sonderfall. Unternehmen ohne eigenes IT-Team entscheiden sich häufig für diese Option. Sie erlaubt die Nutzung von Cloud-Services und IT-Infrastrukturen, wobei der CSP die Administration komplett übernimmt.

Public Clouds sind Cloud-Umgebungen, die ihre Dienste typischerweise offen über das Internet anbieten. Zu den größten Anbietern von Public Clouds zählen neben IBM mit der IBM Cloud Mitbewerber wie Amazon Web Services (AWS), AlibabaGoogle Cloud und Microsoft Azure.

Hybrid-Clouds wiederum sind IT-Umgebungen, die sich aus LANs (Local-Area-Networks), WANs (Wide-Area-Networks) beziehungsweise VPNs (Virtual-Private-Networks) zusammensetzen und über APIs (Programmierschnittstellen) verbunden sind. Nach außen erscheinen diese Clouds wie eine homogene IT-Umgebung.

Multi-Clouds ermöglichen die Nutzung von Diensten und Plattformen unterschiedlicher Anbieter. Trotzdem wirkt dieser Cloud-Typ für Anwender:innen wie eine einzige große Cloud. In eine Multi-Cloud können außerdem mehrere Cloud-Modelle (Private und Public Cloud) verschiedener Anbieter integriert sein.

Welche Cloud-Art ist am besten geeignet?

Welche Cloud für Ihr Unternehmen am besten geeignet ist, hängt von den individuellen Anforderungen ab. Ein paar Richtwerte helfen bei der Auswahl:

  • Firmen mit volumenintensiven Workloads und häufig wechselnden Anforderungen greifen meist zu Public Clouds.
  • Bei Workloads mit vorhersehbaren, gleichbleibenden Verwendungsmustern oder besonderen Anforderungen an den Datenschutz empfehlen sich Private Clouds.
  • Mit Hybrid-Clouds lassen sich (fast) beliebige Workloads an verschiedenen Orten hosten. Häufig ist diese Lösung für Unternehmen die flexibelste.

Daneben gibt es drei Haupttypen von Cloud-Services: IaaS (Infrastructure-as-a-Service)PaaS (Platform-as-a-Service) und SaaS (Software-as-a-Service).

IaaS (Infrastructure-as-a-Service) stellt Kund:innen virtualisierte Ressourcen und eine IT-Infrastruktur bereit, die sich über das Internet abrufen lassen. Das gesamte Segment der Server- und Netzwerk-Virtualisierung und des Data-Storage zählt dazu.

Über PaaS können Unternehmen beispielsweise Anwendungshosting oder Softwareentwicklung betreiben. Meist kommt PaaS als ergänzende Dienstleistung zum Einsatz – und weniger, um die komplette IT-Infrastruktur eines Unternehmens abzubilden (beziehungsweise auszulagern). PaaS basiert auf der Open-Source-Plattform Cloud Foundry, die die Programmiersprachen Java, Node.js, PHP und Python unterstützt.

SaaS ist ein Service, der Software-Anwendungen bereitstellt. Meist sind SaaS-Apps Webanwendungen oder mobile Apps, auf die Nutzer:innen über einen Webbrowser zugreifen.

Die Auswahl des passenden Cloud-Modells und die Auswahl der Cloud-Services sind so spezifisch wie die Anforderungen Ihres Unternehmens. Keine Lösung gleicht der anderen.

 

Wie die IBM Cloud funktioniert

Wer von IBM Cloud spricht, meinte bisher IBM Bluemix und IBM Softlayer. Diese beiden Angebote gehen in der neuen Definition der IBM Cloud auf. Die Begriffe sind seit vielen Jahren eingeführt und tauchen häufig noch in Beschreibungen auf, auch wenn sie inhaltlich vollständig durch die neue IBM Cloud abgelöst wurden. Die IBM Cloud stellt eine integrierte Umgebung bereit, über die der Zugriff auf die ausgewählten Services erfolgt. Das Angebot richtet sich an Entwicklungsteams, Organisationen und Unternehmen.

IBM Cloud: Services in der Übersicht

Über das PaaS-Angebot der IBM Cloud greifen Entwickler:innen auf mehr als 130 Services zu. Weitere Analysewerkzeuge und Dienste der IBM Cloud über IaaS lassen das Angebot auf über 170 Services der unterschiedlichsten Kategorien anwachsen.

In den folgenden Bereichen bietet die IBM Cloud Dienste an, die heute bei vielen Kund:innen zum Standardrepertoire gehören:

  • Internet der Dinge (Internet of Things, IoT)
  • Künstliche Intelligenz (KI)
  • VMware, Compute
  • Network
  • Storage
  • Management
  • Sicherheit
  • Daten-Management
  • Analytics
  • Mobile
  • Entwickler-Tools
  • Blockchain
  • Integration
  • Migration

Die in der IBM Cloud zur Verfügung gestellten Dienste bilden nicht nur aktuelle Anforderungen ab, sondern bieten auch eine solide Basis für Ideen und Visionen zukünftiger IT-Szenarien.

Internet der Dinge (IoT)

Das Internet der Dinge (IoT) bezeichnet die Vernetzung und das Zusammenwirken unterschiedlicher Geräte und Datenströme. Meist sind die einzelnen Objekte dieses Netzwerks nicht nur untereinander, sondern auch über das Internet vernetzt. Diese globale Infrastruktur bildet die Grundlage für Dienstleistungen und Anwendungen, die das Zusammenspiel von Geräten, Sensoren und anderen Objekten nutzen.

Künstliche Intelligenz (KI)

Das zum Cloud-Portfolio gehörende IBM Watson Studio ist das Mittel der Wahl, um Data-Science-Landschaften zu entwickeln und KI-gestützte Prozessdigitalisierung umzusetzen. Ebenso ist es die Basis für die Entwicklung von Anwendungen in den Bereichen Machine-Learning, Sprachverarbeitung und Bilderkennung.

VMware und Compute stellen Rechenressourcen zur Verfügung, über die Unternehmen Arbeitsaufträge – sogenannte Workloads – hosten. Die Rechenleistung wird durch Bare-Metal-Server, virtuelle Server, Serverless-Computing-Dienste und Container-Strukturen in der Cloud zur Verfügung gestellt. VMware ermöglicht dabei die Migration von VMware-Workloads in die IBM Cloud über virtuelle Maschinen (VMs).

Cloud-Netzwerkdienste wie beispielsweise Load-Balancer, Content-Delivery-Networks (CDN), VPN-Tunnel und Firewalls sind klassische Netzwerkdienste. Load-Balancer sind in der Regel Servern oder VMs vorgeschaltet. Sie sorgen dafür, dass die Serverlast gleichmäßig verteilt wird und keine Überlastungen auftreten.

Management-Tools sorgen für die Überwachung von Cloud-Deployments. Dazu zählen Protokollanalysen, Automatisierungen und Infrastructure-as-Code (IAC) zur dynamischen Steuerung von Rechnerressourcen. Security-Services bieten alle Instrumente für ein erfolgreiches Identity-and-Access-Management (IAM, Zugriffsverwaltung) und sichere Benutzer-Authentifizierungen.

Beim Datenmanagement stehen SQL- und NoSQL-Datenbanken sowie Query- und Migrationstools zur Verfügung. Über Toolkits wie IBM Lift CLI und Cloud Mass Data Migration lassen sich Daten und Strukturen jeder Herkunft in die Cloud überführen. Zur Datenanalyse bietet die IBM Cloud eine Reihe von Data-Science-Tools wie Apache Spark, Apache Hadoop, IBM Watson Machine Learning sowie Streaming-Analysedienste.

Für Entwickler:innen stehen weitere Entwicklungswerkzeuge in der IBM Cloud zur Verfügung. Ein Beispiel ist die IBM-Programmsammlung mit Command-Line-Interface (CLI) und Tools zur Bereitstellung und Veröffentlichung von Applikationen und Anwendungs-Pipelines. Außerdem bietet die IBM Cloud Toolkits zur Überwachung von mobilen Apps und deren Backend-Komponenten.

Im Bereich Blockchain als Software-as-a-Service-Angebot bietet die IBM Cloud Entwickler:innen Instrumente zur Entwicklung von Apps und zum Monitoring von Blockchain-Transaktionen. Mit Anwendungen wie API Connect, App Connect und IBM Secure Gateway gibt es darüber hinaus ein breites Angebot für die Entwicklung standardisierter Schnittstellen.

 

5G und Edge-Computing in der Cloud

5G und Edge-Computing finden sich ebenfalls als Elemente in unterschiedlichen Bereichen und Services der IBM Cloud. Entwickler:innen haben die Möglichkeit, mobile Apps und deren Backend-Komponenten anzulegen und zu überwachen. Das IBM Cloud Pak for Network Automation ermöglicht es, Teile des Netzwerkbetriebs KI-basiert zu automatisieren und Prozessdigitalisierungen auch über Mobilfunknetze zu realisieren.

Klassische Einsatzfelder dafür sind beispielsweise vRANs (Virtual Radio-Access-Networks). Diese zählen zu den zentralen Projekten in der Mobilfunkbranche, sowohl in 4G-LTE- als auch in 5G-Mobilfunknetzen. Ein typisches Einsatzgebiet sind beispielsweise Streamingdienste innerhalb eines virtuellen Netzes.

Datenschutz in der IBM-Cloud-Umgebung

Sichere Passwörter und geschützte Zugangscodes sind eine wesentliche Basis für wirksamen Datenschutz in der Cloud-Umgebung. Ein schwacher Passwortschutz ermöglicht Unbefugten den Zugriff auf Ihre Daten, sofern diese nicht zusätzlich verschlüsselt sind. Über den Passwortschutz hinaus sollten Zugriffsrechte auf Dateien und  Verzeichnisstrukturen individuell und nicht pauschal eingerichtet werden. Ist die Cloud verschlüsselt, schützt dies zusätzlich vor Datenspionage.

Zur IBM Cloud Security gehört die SSL-Verschlüsselung (Secure Socket-Layer) von Internetverbindungen. Eine bessere Datensicherheit bietet die SSL-Weiterentwicklung TLS (Transport-Layer-Security), bei der Protokollschwächen von SSL bereinigt wurden. Viele Zertifikatsanbieter bezeichnen TLS-Zertifikate allerdings nach wie vor als SSL-Zertifikate. Daher besteht die Namenskonvention weiter, auch wenn sich SSL- und TLS-Verschlüsselung in der Qualität unterscheiden. Generell gilt: Sensible Daten sollten zusätzlich durch separate Verschlüsselung abgesichert sein oder gar nicht erst in der Cloud landen.

Greifen Cloud-Lösungen auf Provider-Dienste zu, die Server außerhalb der EU betreiben, müssen die Anbieter dieser Dienste dem Safe-Harbour-Abkommen zugestimmt haben. Dies soll gewährleisten, dass der Anbieter die EU-Sicherheitsbestimmungen akzeptiert und einhält. Hintergrund: Bei Multi-Cloud-Lösungen genügt eine ungeprüfte API zu AWS oder Google-Diensten, um gegen EU-Recht und die DSGVO zu verstoßen. Entsprechend wichtig ist es, bei Cloud-Lösungen auf EU-konforme und zertifizierte Angebote zu setzen.

Die IBM Cloud im Vergleich mit Microsoft Azure, AWS und Google Cloud

Eine wesentliche Stärke der IBM Cloud liegt im umfangreichen Angebot von skalierbaren Services, die sich flexibel und individuell buchen lassen. Sie gilt als zuverlässig und fair, was das Preismodell angeht, da Unternehmen durch maßgeschneiderte Angebote nur die benötigten Dienstleistungen bezahlen müssen.

Wer in erster Linie Wert auf komplexe Webanwendungen, Cloud-Computing und Skalierbarkeit legt, der findet mit der Google Cloud ein ebenfalls passendes Produkt. Doch auch die Cloud-Services von Microsoft und Amazon können je nach Anforderungen eine brauchbare Alternative sein. Wie so oft kommt es auf den konkreten Anwendungsfall an, für den Sie die jeweiligen Angebote im Detail studieren sollten.

Microsoft beispielsweise liefert mit Azure ein im Vergleich zur IBM Cloud und Google Cloud insgesamt kleineres Spektrum an Anwendungen. Vorteile gegenüber dem IBM-Angebot bringt die nahtlose Integrierung von Azure mit den Microsoft-Produkten OneDrive, SharePoint und MS-Teams. Besitzer von IBM-Hardware oder bestehenden Rahmenverträgen dort sind hingegen wohl mit der IBM Cloud im Vorteil.

Ähnliches gilt für Amazon mit den Amazon Web Services beziehungsweise dem Elastic Cloud Computing. Besonders bei der Anzahl verfügbarer Komponenten kann die Amazon-Cloud-Lösung überzeugen. Mehr Komponenten und Services bietet keiner der Anbieter. Den Support gibt es wiederum nur als kostenpflichtiges Online-Angebot, was manch einen Unternehmenskunden vielleicht abschreckt.

IBM Cloud: Für jede IT-Anforderung die passende Lösung

Cloud-Lösungen bieten Unternehmen viele Vorteile. Sie reduzieren zum Beispiel die Kosten für die IT-Infrastruktur bei gleichzeitig höherer Flexibilität. Dank der unterschiedlichen Cloud-Varianten bietet die IBM-Cloud-Plattform für jedes Unternehmen maßgeschneiderte Lösungen. Von der Unternehmens-IT über Webshops bis hin zu Entwicklungsplattformen und Blockchain-Anwendungen lässt sich das gesamte Leistungsspektrum einer modernen IT-Landschaft abbilden. Umfangreiche Migrationsdienste erleichtern dabei den Einstieg und den Wechsel zu modernen Cloud-Strukturen. Den anderen großen Anbietern Microsoft, Amazon und Google steht die IBM Cloud in nichts nach und richtet sich vornehmlich, aber nicht nur an große Unternehmen mit besonderen Anforderungen.

Quelle:

https://www.vodafone.de/business/featured/technologie/was-ist-und-wie-funktioniert-die-ibm-cloud/