Wenn’s schnell gehen muss

Ein Ausweg aus dem agilen Dilemma der digitalen Transformation

Einer der Schlüsselbegriffe der digitalen Transformation lautet „Agilität". Unabhängig von der Branche predigen Berater, Analysten und Fachmedien, dass Unternehmen agile Prozesse implementieren und anwenden müssen, um ihre Stellung an sich rasch verändernden Märkten halten und verbessern zu können. Und man braucht nur auf die Netflixes, Airbnbs und Ubers dieser Welt und ihren rasanten Aufstieg zu schauen, um ihnen Recht zu geben. Die Flexibilität und Performance der Anwendungen wird zum essenziellen Erfolgsfaktor.

Also setzen Unternehmen und ihre IT vermehrt auf agile, anwendungsorientierte Prozesse. Dabei ergeben sich jedoch häufig Spannungen zwischen dem Geforderten und dem Möglichen.

Soll und Haben

Entwicklerteams adaptieren DevOps-Prozesse, um Anwendungen schneller und öfter als bisher bereitstellen zu können – unter Umständen mehrmals pro Tag. Zudem nutzen sie neue Architekturen, die auf Microservices und Containern basieren, um die Bereitstellungsgeschwindigkeit noch weiter zu erhöhen. Die Cloud ist hier die Umgebung der Wahl. Sie bietet genau die Flexibilität, Skalierbarkeit und Einfachheit (Stichwort: Self-Service), um diese Prozesse zu realisieren.

Bei all der Euphorie um diesen anwendungsorientierten Ansatz stehen Unternehmen aber vor der Herausforderung, dass sie in ihren traditionellen Rechenzentren nicht einfach den Stecker ziehen können. Es wurden hohe Summen in ihren Aufbau und Unterhalt gesteckt und diese Investitionen sollen auch weiterhin genutzt werden. Außerdem zucken die CSOs regelmäßig zusammen, wenn Cloud-Umgebungen zur Sprache kommen. Denn wenn Daten und Anwendungen eine so entscheidende Rolle für den Geschäftserfolg haben, darf ihre Sicherheit keine untergeordnete Rolle spielen.

Die Lösung bieten hier hybride Umgebungen aus On-Premise sowie Private und Public Cloud. Auf diese Weise bleiben bestehende Infrastrukturen erhalten, während den Entwicklern die Vorteile der Cloud in Sachen Agilität und Geschwindigkeit offenstehen.

Aufbruch in die Cloud

Bisher nutzten Anwendungsarchitekturen einen monolithischen Entwicklungsprozess, wurden in einem physischen Rechenzentrum bereitgestellt und um Hardware-Appliances herum gebaut, während die IT für alle Vorgänge verantwortlich war. Traditionelle Methoden der Anwendungsbereitstellung verlassen sich entweder auf Hardware, Open-Source-Lösungen oder Load-Balancing von Cloudanbietern. Wenn sie einzeln verwendet werden, bieten diese Methoden jedoch nicht einmal ansatzweise das nötige Maß an Agilität, das moderne Anwendungsteams brauchen und fordern.

Der neue Ansatz setzt dagegen auf die Entwicklung und Bereitstellung Cloud-nativer Anwendungen und Multi-Cloud-Umgebungen, während agile Methoden nach dem Self-Service-Prinzip auf Basis eines Verbrauchsmodells genutzt werden. Diese neuen Umgebungen machen es umso wichtiger, dass die Bereitstellung von Anwendungen und ihre Sicherheit optimiert werden, egal wo sie laufen. Moderne Anwendungsarchitekturen müssen nicht nur elegant mit Microservice- und Container-basierten Architekturen integrieren, sondern auch mit DevOps-Tools und Prozessen wir Ansible, Chef, Jenkins und Puppet.

Anwendungs-Teams wollen Agilität und die IT will diese über ihre bestehenden Infrastrukturen bereitstellen, die sowohl sicher als auch leicht zu verwalten und zu kontrollieren sind. Zudem soll die Infrastruktur auch den Weg bereiten, um mehr Anwendungen in die Cloud zu migrieren. Es braucht also eine Lösung, die sowohl die nötige Sicherheit und Flexibilität bietet, als auch über alle genutzten Umgebungen hinweg Anwendungen bereitstellen kann, egal ob traditionell oder cloudbasiert.

Worauf es ankommt

Eines der wichtigsten Themen ist die Sicherheit der Anwendungen, um sowohl die Performance aufrecht zu erhalten, als auch Datenverluste zu verhindern. Die nachfolgenden Punkte sollten bei der Auswahl der Lösung beachtet werden:

  1. Die erste Verteidigungslinie: Um Angriffe auf Anwendungen zu verhindern, sollten entsprechende Sicherheitsmaßnahmen in der Lösung enthalten sein. Allen voran eine Web Application Firewall (WAF). Diese sollte elastisch skalieren, um genügend Ressourcen zur Verarbeitung von eingehendem Traffic verfügbar zu halten, sowie mit Funktionen wie Load-Balancing Latenzen minimieren. Vorgefertigte Richtlinien-Sets sollten gegen gängige gefahren (OWASP TOP 10) wie SQL-Injection schützen und nur auf die verwundbaren Teile der Applikation angewendet werden, um bei maximaler Absicherung auch die Reaktionsfähigkeit aufrechtzuerhalten. Zudem sollte sichergestellt sein, dass die Richtlinien regelmäßig im Hinblick auf aktuelle und aufkommende Bedrohungen aktualisiert werden.
  2. Verkehrskontrolle: Im letzten Jahr sind DDoS-Attacken und Bedrohungen durch Bot-Netze häufiger, größer und vor allem aggressiver geworden. Daher sollte die Lösung unbedingt Funktionen zum Monitoring des Traffics auf Anwendungs-Ebene bieten. Sauberer Traffic von Nutzern sollte ungehindert passieren können während das System gleichzeitig gefährlichen Datenverkehr identifiziert und abwehrt, bevor Server Ressourcen und Verfügbarkeit beeinträchtigt werden können. Achten sie auch auf die Elastizität der Infrastruktur und Funktionen wie Verbindungsmultiplexing, um Latenzen bei der Abwehr minimal zu halten.
  3. Sicherer Transfer: Web-Applikationen nutzen HTTP-Cookies, um die Nutzererfahrung zu personalisieren, und können sehr sensible Kundendaten enthalten. Daher sollten sie darauf achten, dass alle Cookies, die von Ihrer Web-Applikation gesetzt werden, sowie der Transfer sensibler Informationen durch die Lösung verschlüsselt werden können.

Neben den Sicherheitsfunktionen spielen noch eine Menge anderer Faktoren eine Rolle, wenn es darum geht, agile Prozesse zu realisieren und die Anwendungsperformance zu steigern. Mehr erfahren Sie unter: https://www.a10networks.com/products/lightning-application-delivery-service

Das könnte Sie auch interessieren:
Show Comments ()