Home Drucken

Klaus Erber • Cloud Architekt

Persönliche Daten



Vorname Klaus
Name Erber
Geburtsdatum 05.01.1967
Familienstand verheiratet, 2 Kinder
Staatsangehörigkeit deutsch
Straße Pappelreihe 24
Wohnort D-21255 Tostedt (bei Hamburg)
eMail k.erber@erber-freelance.de
Telefon +49 172 6248666

Ausbildung

Schulbildung Realschule
1986 Abschluß der Berufsausbildung zum Chemiefacharbeiter
1991 Abschluß als Industriemeister Fachrichtung Chemie, inkl. Ausbildereignungsprüfung
1994 - 1998 Studium der Wirtschaftsinformatik bei der AKAD, Hochschule für Berufstätige Rendsburg und Abschluß als Diplom-Wirtschaftsinformatiker/FH (Diplomarbeit Note 1.7, Kolloquium 1.0, Gesamtnote 'gut'). Original: [Zeugnis]
2002 Ausbildung zum certified TopLink Trainer durch die Fa. Oracle [Zertifikat]
2023 Ausbildung zum Certified Kubernetes Administrator, Zertifizierung bei der Cloud Native Computing Foundation [Zertifikat]

Werdegang

Zeitraum Position/Beschreibung
01.08.1983 -
31.12.1998
Auszubildender, Facharbeiter, Schichtleiter, Betriebsleiter, Softwareentwickler (Nebenbeschäftigung)
unbefristetes Arbeitsverhältnis bei der Fa. ESSO AG danach HOLBORN Europa Raffinerie GmbH, Hamburg, [Zeugnis]
01.01.1999 -
30.06.2001
Geschäftsführer, Systemingenieur
unbefristetes Arbeitsverhältnis bei der Fa. maxheim wirtschaftsinformatik / mwi holding gmbh / mwi hamburg gmbh, Hamburg [Zeugnis]
01.07.2001 -
31.03.2020
Senior IT-Consultant
unbefristetes Arbeitsverhältnis bei der Gauss Interprise Consulting AG später evodion Information Technologies GmbH, Hamburg
01.08.2015 -
31.01.2020
Geschäftsführer
Nebenberufliche Geschäftsführung der evodion Mitarbeiter Beteiligungsgesellschaft GbR, Hamburg
ab 01.01.2020 IT-Freiberufler
Selbstständiger Cloud Architekt.

Erfahrung

Der sichere, effiziente und verlässliche Betrieb einer Anwendung ist für mich genauso wichtig, wie die eigentliche Softwareentwicklung. Deshalb habe schon immer entsprechende Aufgaben in Projekten übernommen. Die aktuellen Entwicklungen rund um DevOps-Kulturen, Containerisierung, Kubernetes und Cloud Computing sind bei mir gängige Praxis geworden.

Ich bringe Ihre Anwendungen in die Cloud. Sicher, hochverfügbar, skalierbar, kosteneffizient und ohne Vendor-Lockin.

Ich verbinde Dev und Ops, da ich beiden Welten Zuhause bin. Devs können mit mehr Ops-Wissen wesentlich bessere Architekturentscheidungen treffen und somit ihre Anwendungen cloudfähig machen. Ops können mit entsprechenden Dev-Wissen lernen ihre Infrastruktur in Code zu gießen und somit ein neues Level an Automatisierung erreichen. Zusammen können entwickelte Features viel schneller und in höherer Qualität zum Endbenutzer gebracht werden.

Auch wenn es nicht das Ziel ist eine Anwendung in der Cloud zu betreiben, so sind doch die sich z. Zt. etablierenden DevOps-Ansätze auch für den Betrieb on premisses von großem Vorteil. Denn schnelle, flexible, sichere und automatisierte Verfahren für Softwaretests und -auslieferung wirken sich auch hier positiv aus.

Rollen

Cloud Architekt, DevOps-Engineer, Senior IT-Consultant, Projektleiter, Senior/Lead Developer, Schulungsleiter

Softskills

Teamfähig, agil, verlässlich, Know-How-Transfer ins Team, sicherheitsbewusst, empathisch, neugierig, viel Weitblick, kreativ, kritikfähig, Feedbackgeber

Aktuelle Technologien

Der Übersichtlichkeit halber, habe ich ältere Technologien aus der Liste gestrichen, da sie in heutigen Projekten keine große Relevanz mehr haben. Im Zweifelsfall, fragen Sie bitte einfach nach, ob ich Ihnen zu solchen Themen weiterhelfen kann. Meine vollständige Projektliste kann hier auch hilfreich sein.

Betriebssysteme

Linux (debian, Ubuntu, RHEL & Clone), MacOS, Windows

Virtualisierung

KVM, Proxmox, OpenStack, HyperV, Virtual Box

Cloudprovider

Google Cloud Platform, SC Synergy (Apache Cloudstack), Azure, AWS, Scaleway, Hetzner, IONOS

CI/CD

GitHub Actions, Azure DevOps, Gitlab CD/CI, Atlassian Bamboo, GoCD, Gitea, Nexus, Artifactory, FluxCD, Jenkins

Datenbanken

MySQL, MariaDB, PostgreSQL, MS-SQL, Firestore, Oracle, H2, Redis/ValKey

Netzwerke

Wireguard VPN, OpenVPN, IPSec, OPNSense, pfSense, OpenWRT, Websockets/STOMP, IoT/MQTT, Routing, HTTP/S

Middleware/Frameworks

Spring Boot, Google Firebase, RabbitMQ, Keycloak, Node.js, NodeRed, Tomcat, nginx, haproxy, JBoss/Wildfly, Apache-Webserver, JEE, EJB, EJB3, Web Services/REST/SOAP

DevOps/Cloud

Terraform/OpenTofu, Ansible, Docker, OCI, ELK, Loki, Splunk, Cloudinit, Vagrant, Packer, certbot, restic, Podman/Buildah, Minio, devcontainers

Kubernetes (Certified Kubernetes Administrator)

Kubernetes kubeadm/RKE2/k3s/aks/gke/cloudstack minikube/kind, Rancher, Istio, Linkerd, Longhorn, Rook/Ceph, k3s, podman, Helm/helmfile, Prometheus, Alertmanager, Grafana, letsencrypt/cert-manager, Operator Development in Golang, PostgreSQL Operators: Zalando & Crunchy Data, Kyverno, velero, vcluster (Kubernetes in Kubernetes), Longhorn, Ceph/Rook, Sealed Secrets, cert-manager

Skript-, Programmier- und Auszeichnungssprachen

Python, Go, Java, Groovy, Shell, Perl, JSON, YAML, TOML, XML/DTD/XMLSchema

Sonstige

Branchen

IT-Dienstleister, Bildung, Pharmaindustrie, Versicherungen, Banken, Leasing, Behörden, Verlage, Presseagenturen, Mineralölindustrie, Steuerberatung

Führungserfahrungen

Geschäftsführung eines IT-Startups, Geschäftsführung einer Mitarbeiter Beteiligungsgesellschaft, mehrjährige Erfahrung in der Leitung von IT-Projekten (Teamgrößen bis zu 12 Mitarbeiter), mehrjährige Führungserfahrung in der mineralölverarbeitenden Industrie (Teamgrößen bis zu 19 Mitarbeiter)

Schulungsleitung und Beratung

Trainer für Docker & Kubernetes, Coaching und Beratung im IT-Bereich, Durchführung von Schulungen für Softwareentwickler und Anwender

Sprachkenntnisse

Deutsch, Englisch

Wichtige Konzepte

Hier eine Auswahl von Konzepten die ich in Projekten umsetze:

DevOps ist ein Ansatz, der Entwicklung (Dev) und Betrieb (Ops) eng miteinander verzahnt, um Software schneller und effizienter bereitzustellen. Durch Automatisierung, kontinuierliche Integration und Zusammenarbeit wird eine hohe Verfügbarkeit, Sicherheit und Qualität der Anwendungen gewährleistet.

Infrastructure as Code (IaC) bedeutet, dass die gesamte IT-Infrastruktur wie Netzwerke, Server und Datenbanken in Code beschrieben wird. Dadurch können Umgebungen automatisiert, versioniert und reproduzierbar bereitgestellt und verwaltet werden, was Effizienz und Skalierbarkeit erhöht.

Container sind leichtgewichtige, isolierte Umgebungen, in denen Anwendungen mit all ihren Abhängigkeiten ausgeführt werden. Sie ermöglichen eine konsistente Ausführung über verschiedene Umgebungen hinweg und erleichtern die Skalierbarkeit und Portabilität von Anwendungen.

Orchestrierung bezeichnet die automatisierte Verwaltung und Koordination von Containern, Netzwerken und Anwendungen in komplexen Umgebungen. Sie sorgt dafür, dass Container gestartet, skaliert, überwacht und bei Ausfällen automatisch neu verteilt werden, um einen reibungslosen Betrieb sicherzustellen.

Der Zero Trust-Ansatz geht davon aus, dass kein Benutzer oder System automatisch vertraut wird – egal ob innerhalb oder außerhalb des Netzwerks. Jede Anfrage muss authentifiziert und autorisiert werden, was hilft, die Sicherheit von Anwendungen und Daten zu stärken.

Identity and Access Management (IAM) regelt, welche Benutzer und Systeme auf welche Ressourcen zugreifen dürfen. Durch strikte Rollen- und Rechteverwaltung wird sichergestellt, dass nur autorisierte Entitäten Zugriff auf sensible Daten und Systeme haben.

Verschlüsselung schützt Daten sowohl im Ruhezustand (at rest) als auch während der Übertragung (in transit). Dies stellt sicher, dass sensible Informationen selbst dann sicher bleiben, wenn sie abgefangen oder kompromittiert werden.

Eine Web Application Firewall (WAF) schützt Webanwendungen, indem sie eingehenden und ausgehenden HTTP-Datenverkehr überwacht und potenziell bösartige Anfragen blockiert. So werden Angriffe wie SQL-Injections oder Cross-Site-Scripting verhindert.

Secret Management befasst sich mit der sicheren Speicherung und Verwaltung von sensiblen Informationen wie API-Schlüsseln, Passwörtern und Zertifikaten. Dienste wie Azure Keyvault oder Google Secrets Manager helfen, diese Geheimnisse sicher zu verwalten und Zugriffe zu kontrollieren.

Der Least Privilege-Ansatz stellt sicher, dass Benutzer und Systeme nur die minimal erforderlichen Rechte haben, um ihre Aufgaben zu erfüllen. Dies reduziert das Risiko von Sicherheitsvorfällen und ungewolltem Zugriff.

Continuous Integration (CI) ist ein Prozess, bei dem Codeänderungen automatisch Builds, Unit Tests und gegebenenfalls Deployments auslösen. Dies sorgt für eine schnelle Erkennung von Fehlern und ermöglicht eine kontinuierliche Auslieferung von hochwertiger Software.

Continuous Delivery erweitert Continuous Integration und ermöglicht die automatisierte Bereitstellung von Codeänderungen. Vor dem Übergang in Staging- oder Produktionsumgebungen sind manuelle Freigaben durch Entwickler oder die Qualitätssicherung notwendig.

Continuous Deployment geht einen Schritt weiter als Continuous Delivery und automatisiert die vollständige Auslieferung von Codeänderungen bis in die Produktionsumgebung. Jede erfolgreich getestete Änderung wird ohne manuelle Freigaben sofort produktiv geschaltet, was eine schnelle und kontinuierliche Bereitstellung ermöglicht.

Monitoring umfasst das kontinuierliche Beobachten und Messen von Systemen anhand vordefinierter Metriken wie CPU-Auslastung, Speicher oder Netzwerkaktivität. Es dient dazu, Probleme frühzeitig zu erkennen und die Verfügbarkeit der Systeme sicherzustellen.”

Observability geht über klassisches Monitoring hinaus und bietet einen umfassenderen Einblick in den Zustand eines Systems. Durch die Kombination von Metriken, Logs und Traces ermöglicht es, Probleme proaktiv zu identifizieren und deren Ursachen tiefgehender zu verstehen.

Backup & Recovery bezieht sich auf die regelmäßige Sicherung von Daten, um im Falle eines Verlusts oder einer Beschädigung eine Wiederherstellung zu ermöglichen. Ein durchdachter Backup- und Recovery-Plan stellt sicher, dass kritische Daten und Systeme nach Ausfällen oder Cyberangriffen schnell wiederhergestellt werden können.

Disaster Recovery (DR) ist ein strategischer Prozess, der sicherstellt, dass IT-Systeme und Daten nach schwerwiegenden Vorfällen wie Naturkatastrophen, Cyberangriffen oder Hardwareausfällen wiederhergestellt werden können. Ein DR-Plan definiert klare Maßnahmen und Wiederherstellungsziele, um den Geschäftsbetrieb schnellstmöglich zu sichern.

Cloud Native beschreibt einen Ansatz zur Entwicklung und Ausführung von Anwendungen, die speziell für Cloud-Umgebungen optimiert sind. Durch den Einsatz von Containern, Microservices und dynamischer Orchestrierung bieten Cloud-Native-Anwendungen eine hohe Skalierbarkeit, Flexibilität und Resilienz.

High Availability (HA) bezieht sich auf die Fähigkeit eines Systems oder einer Anwendung, trotz Ausfällen oder Problemen nahezu durchgängig verfügbar zu sein. Dies wird durch redundante Architekturen, automatische Failover-Mechanismen und die Vermeidung von Single Points of Failure erreicht.

Software Defined Networking (SDN) ist ein Ansatz, bei dem Netzwerkkonfiguration und -steuerung über Software zentralisiert und automatisiert werden. Dies ermöglicht eine flexible und dynamische Verwaltung von Netzwerkressourcen und eine schnelle Anpassung an wechselnde Anforderungen.

GitOps ist ein Ansatz zur Verwaltung und Automatisierung von Infrastruktur und Anwendungen, bei dem das Git-Repository als zentrale Quelle für die gesamte Konfiguration dient. Änderungen werden durch Git-Commits versioniert und automatisch in die Zielumgebung übertragen, wodurch der Prozess transparent und nachvollziehbar wird.

Self Healing beschreibt die Fähigkeit eines Systems, automatisch auf Fehler zu reagieren und sich selbst zu reparieren, ohne manuelles Eingreifen. Durch Mechanismen wie automatische Neustarts, Replikation und Ausfallüberwachung wird die Verfügbarkeit und Stabilität des Systems gewährleistet.

Autoscaling ermöglicht es einem System, automatisch Ressourcen wie Rechenleistung oder Speicherplatz je nach Last anzupassen. Dadurch wird sichergestellt, dass immer genügend Ressourcen zur Verfügung stehen, um die Anforderungen zu erfüllen, während gleichzeitig Kosten durch Überprovisionierung vermieden werden.

Serverless ist ein Cloud-Modell, bei dem Anwendungen ausgeführt werden, ohne dass Entwickler sich um die zugrunde liegende Serverinfrastruktur kümmern müssen. Die Cloud-Anbieter verwalten automatisch die Skalierung und Ressourcen, während die Abrechnung nur für die tatsächlich genutzte Rechenzeit erfolgt.

Service Mesh ist eine Infrastrukturebene, die die Kommunikation zwischen Microservices in einer verteilten Anwendung steuert. Es bietet Funktionen wie Load Balancing, Service Discovery, Verschlüsselung, Monitoring und Fehlerbehandlung, ohne dass Änderungen an den Anwendungen selbst erforderlich sind.

-> Weiter zu den Projekten

Projekte

Dies sind meine interessantesten Projekte der letzten 5 Jahre. Weitere finden Sie unter

https://www.erber-freelance.de/projects

Kubernetes Betriebsumgebung für Kundenstamm Management

Aufgabenstellung

Projekt Kontext: Das Geschäft des Kunden ist das Kundenstamm Management. Dieses wird von verschiedenen teilweise selbst entwickelten Anwendungen unterstützt, die im ursprünglichen Zustand in einem inhouse laufenden Docker Swarm Cluster betrieben wurden. Die eingesetzten Datenbanken sind PostgreSQL und MongoDB. Ziel des Projektes ist es die Anwendungen in die Google Cloud Umgebung zu migrieren und sie dort in Kubernetes zu betreiben. Über die Kernanwendungen hinaus sollen auch alle anderen Geschäftsanwendungen in die Google Cloud Kubernetes Umgebung migriert werden. Im Übergang ist eine Hybride Cloud Architektur (GCP/Hetzner) zu betreiben, die Resourcen in der Hetzner Cloud sollen dabei über den Prometheus Stack überwacht werden. Meine Aufgabe ist es, das Team bei diesem Vorhaben zu unterstützen und die notwendigen Kenntnisse zu vermitteln. Zum Start des Projektes wurde von mir eine Basisimplementierung geliefert auf der nun aufgebaut wird.

Architektur & Infrastruktur: Entwicklung und Implementierung einer skalierbaren Cloud-Architektur auf der Google Cloud Platform (GCP), mit Fokus auf Deployment, Backup & Recovery sowie Monitoring. 100% Infrastructure as Code (IaC). Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller.

Netzwerk- & Sicherheitsinfrastruktur: Einrichtung einer Virtual Private Cloud (VPC) mit VPNs, realisiert durch IPSec und Wireguard, für sichere und schnelle Verbindungen. Google-Cloud-DNS-Setup für reibungslose Netzwerkauflösungen. Automatisierung aller Netzwerkeinstellungen mit Terraform.

Kubernetes & Service Mesh: Aufbau und Verwaltung von Kubernetes-Clustern inklusive eines Service Mesh mit Linkerd zur Absicherung und Optimierung der Kommunikation zwischen den einzelnen Komponenten. Monitoring und Alerting implementiert mit dem Kube-Prometheus-Stack, Grafana und Alertmanager.

Workshops & Wissenstransfer: Der Großteil der Umsetzung erfolgt im Rahmen von interaktiven Workshops, um dem Kunden praktische Fähigkeiten und Best Practices zu Kubernetes, Cloud Networking und Automatisierung zu vermitteln.

Datenbank-Automatisierung: Automatisierte Einrichtung von PostgreSQL-Clustern, inklusive Backup- und Wiederherstellungsszenarien auf S3, sowie automatisierte Schema-Migrationen.

CI/CD: GitHub Workflows für Continuous Integration & Delivery (CI/CD). Verbesserung der Entwicklungs- und Release-Prozesse für schnellere und zuverlässigere Deployments.

Teilzeit ca. 6 Std./Woche

Zeitraum seit 03/2024
Branche Kundenstamm Management
Technologien Google cloud platform, Hetzner Cloud, OpenTofu, helm, Kubernetes, Docker, PostgreSQL, Linkerd, Prometheus Stack, Grafana Loki, GitHub Actions, devcontainers.
Rollen Konzeption, Umsetzung, Beratung
Referenz Herr E. hilft uns sehr effektiv unsere Anwendungen in die Google Cloud zu bringen
- Anonym, Abteilungsleitung verifiziert

Kubernetes Betriebsumgebung für ERP Software

Aufgabenstellung

Projekt Kontext: Im Projekt wird eine ERP Software als SaaS-Lösung entwickelt. Backends werden mit Spring Boot und nodejs entwickelt, Frontends mit Angular. Als Datenbank kommt PostgreSQL zum Einsatz. Um die Entwicklung sowie den Betrieb zu unterstützen war es meine Aufgabe, eine Kubernetes Betriebsumgebung aufzubauen sowie die entsprechenden Container Images, Helm Charts und CI/CD Pipelines zu erstellen. Auch die automatisierte Erstellung und Migration der Datenbanken gehörte zu meinen Aufgaben.

Architektur & Infrastruktur: Entwicklung und Umsetzung eines skalierbaren Cloud-Architektur-Konzepts auf der Apache Cloudstack Kubernetes Engine, mit Fokus auf Deployment, Backup & Recovery sowie Monitoring. Vollständig als Code umgesetzt (100% IaC).

Netzwerk- & Sicherheitsinfrastruktur: Einrichtung einer Virtual Private Cloud (VPC) mit IPSec Site-to-Site VPNs und Google-Cloud-DNS für nahtlose Integration und Sicherheit. Automatisierung aller Netzwerkeinstellungen mittels OpenTofu/Terraform. Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller.

Kubernetes Automatisierung: Aufbau von Kubernetes-Clustern inklusive Implementierung kritischer Komponenten (z.B. Network Policies, cert-manager, ingress-nginx, Dex, external-dns, Kyverno). Integriertes Monitoring und Alerting via Kube-Prometheus, Grafana, und Alertmanager sowie Log-Management mit Loki.

Datenbank-Automatisierung: Automatisierte Einrichtung von PostgreSQL-Clustern mit dem Crunchy Data PostgreSQL Operator, inklusive Backup- und Wiederherstellungsszenarien nach S3. Automatisierte Schema-Migrationen und effizientes Datenmanagement.

CI/CD und Containerisierung: Containerisierung von Anwendungen, Erstellung maßgeschneiderter Helm-Charts und Aufbau von GitHub Workflows für Continuous Integration & Delivery (CI/CD). Optimierung der Entwicklungs- und Release-Pipelines für eine höhere Geschwindigkeit und Zuverlässigkeit der Deployments.

Teilzeit ca. 12 Std./Woche

Zeitraum 07/2024 - 09/2024
Branche ERP Software Hersteller
Technologien Apache Cloudstack, OpenTofu, helm, Kubernetes, Docker, PostgreSQL, Prometheus Stack, Grafana Loki, GitHub Actions, Spring Boot Angular.
Rollen Konzeption, Umsetzung, Beratung

Verwaltungssoftware für Vermietungen

Aufgabenstellung

Projekt Kontext: Die Verwaltungssoftware für Vermietungen wird als Webanwendung entwickelt. Es gibt eine in nodejs/svelte/MySQL entwickelte Version, die momentan in Betrieb ist. Eine Reimplementierung in Spring Boot/Angular/PostgreSQL wird z. Zt. durchgeführt. Um die Entwicklung sowie den Betrieb zu unterstützen war es meine Aufgabe, eine Kubernetes Betriebsumgebung aufzubauen sowie die entsprechenden Container Images, Helm Charts und CI/CD Pipelines zu erstellen. Auch die Netzwerkkonfiguration und die automatisierte Erstellung und Migration der Datenbanken gehörten zu meinen Aufgaben.

Architektur & Infrastruktur: Design und Implementierung einer Cloud-Architektur auf der Google Cloud Platform (GCP) mit Fokus auf hochverfügbare Deployments, Backup & Recovery sowie Monitoring. 100% Infrastructure as Code (IaC).

Netzwerk- & Sicherheitsinfrastruktur: Einrichtung einer Virtual Private Cloud (VPC) mit VPN, umgesetzt mit Wireguard für sichere Verbindungen. Automatisierung der Netzwerkinfrastruktur und DNS-Konfiguration mittels OpenTofu/Terraform. Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller.

Kubernetes & Containerisierung: Automatisierte Einrichtung und Verwaltung von Kubernetes-Clustern inklusive Setup kritischer Komponenten (z.B. Network Policies, cert-manager, ingress-nginx). Implementierung einer Web Application Firewall (WAF) mit modsecurity im nginx Ingress Controller zur Absicherung des Traffics. Vollständiges Monitoring und Alerting mit Kube-Prometheus-Stack, Grafana und Alertmanager und Loki Log Management. Implementierung von Velero für Desaster Recovery.

Datenbank-Automatisierung: Automatisierte Verwaltung von MySQL- und PostgreSQL-Datenbanken, inklusive Backup & Recovery zu S3. Effizientes Schema-Management und automatisierte Datenmigration.

CI/CD und Containerisierung: Containerisierung von Anwendungen, Erstellung von Helm-Charts und Implementierung von GitHub Workflows für Continuous Integration & Delivery (CI/CD). Optimierung der Entwicklungsprozesse zur Steigerung der Effizienz und Zuverlässigkeit.

Teilzeit ca. 6 Std./Woche

Zeitraum 11/2023 - 06/2024
Branche Vermietungen
Technologien Google cloud platform, OpenTofu/Terraform, helm, Kubernetes, Docker, MySQL, PostgreSQL, modsecurity, Prometheus Stack, Grafana Loki, GitHub Actions, Velero, PHP, JavaScript/Svelte, Spring Boot, Angular.
Rollen Konzeption, Umsetzung, Beratung
Referenz Herr E. hat unsere Verwaltungssoftware für Vermietungen sicher und effizient in der Google Cloud implementiert.
- Torsten Jahn, Geschäftsführer (Studentenwerk der FH e.V.) verifiziert

Lifecycle Management für Spezialfahrzeuge

Aufgabenstellung

Projekt Kontext: Das Projekt beschäftigt sich mit Entwicklung von Anwendungen rund um das Lifecycle Management von Spezialfahrzeugen. Die Anwendungen sind in einer Microservice-Architektur aufgebaut. Zum einen gibt es React/Spring-Boot/PostgreSQL basierte Anwendungen, die bestimmte Geschäftsprozesse abbilden (z. B. Fahrzeug Konfiguration oder Flottenmanagement). Zum anderen gibt es Anwendungen, die sich mit der Verarbeitung von Fahrzeug Telemetriedaten beschäftigen. Diese Anwendungen werden in Java/Apache Spark/InfluxDB realisiert. Meine Aufgabe ist es, die Cloud-Infrastruktur auf Microsoft Azure aufzubauen und die dafür nötigen Automatisierungen zu entwickeln.

Architektur & Infrastruktur: Implementierung einer Cloud-Infrastruktur auf Microsoft Azure mit einem Hub-and-Spoke-Netzwerktopologie-Ansatz. VPN realisiert mit OpenVPN für sichere Verbindungen zu privaten Workloads. Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller. Implementierung von Velero für Desaster Recovery.

Microservices & Datenmanagement: Aufbau einer Microservice-Architektur für eine skalierbare und modulare Anwendungslandschaft. Verwaltung von klassischen Anwendungen mit PostgreSQL und Big Data Workloads unter Verwendung von Azure Data Lake Storage und Apache Spark sowie InfluxDB für Fahrzeug Telemetriedaten für performante Datenverarbeitung und Analyse.

Authentifizierung & Sicherheit: Implementierung einer sicheren Authentifizierungs- und Autorisierungslösung mittels Keycloak, um einen sicheren Zugriff auf die Microservices und Anwendungen zu gewährleisten.

CI/CD und Containerisierung: Containerisierung von Anwendungen, Erstellung von Helm-Charts und Implementierung von Azure DevOps Pipelines für Continuous Integration & Delivery (CI/CD). Optimierung der Entwicklungsprozesse zur Steigerung der Effizienz und Zuverlässigkeit.

Teilzeit ca. 8 Std./Woche

Zeitraum seit 06/2023
Branche Automotive
Technologien Microservices architecture, Azure cloud platform, Terraform, helm/helmfile, Kubernetes, Docker, Keycloak, Postgres, Prometheus Stack, Grafana Loki, Velero, Azure DevOps, Apache Spark, InfluxDB, Spring Boot, React.
Rollen Konzeption, Umsetzung, Beratung

Docker/Kubernetes Schulungsumgebungen

Aufgabenstellung

Projekt Kontext: Das Geschäft von workshops.de ist es neben vielen anderen Themen auch Docker- und Kubernetes-Workshops anzubieten. Hierfür wurden reproduzierbare Schulungsumgebungen benötigt, die keine lokalen Installationen beim Workshop-Telnehmer erfordern. Meine Aufgabe war es, die Automatisierungen zu entwicklen um einen Kubernetes-Cluster auf der Google Cloud Platform (GCP) für jede Schulung bereitzustellen. Auf diesem Cluster werden dann auch die Entwicklungsumgebungen der Teilnehmer betrieben, die diese dann per Webbrowser bedienen können. Die Implementierung steht als Open Source Projekt auf GitHub zur Verfügung: https://github.com/klauserber/coder-development-cluster

Architektur & Infrastruktur: Automatisierter Auf- und Abbau von Kubernetes- und Netzwerkinfrastrukturen auf der Google Cloud Platform (GCP) für jede Schulung, unter Verwendung von 100% Infrastructure as Code (IaC). Netzwerksetup mit VPC und Kubernetes-Cluster, einschließlich cert-manager, ingress-nginx, Monitoring und PostgreSQL mit Backup & Recovery.

Schulungsumgebungen & Coder: Implementierung der Software Coder als Haupt-Workload zur Bereitstellung von Entwicklungsumgebungen, die vollständig über den Webbrowser zugänglich sind. Erstellung und Automatisierung von Templates für reproduzierbare, standardisierte Entwicklungsumgebungen ohne lokale Installationen.

Kubernetes & Automatisierung: Automatisiertes Deployment von Kubernetes-Komponenten und Anwendungen mit Ansible und Terraform zur schnellen Bereitstellung der Schulungsumgebungen. Authentifizierung über Keycloak für sicheren Zugriff auf die Umgebungen.

CI/CD & Skalierbarkeit: Effiziente Skalierung und Verwaltung der Umgebungen durch CI/CD Pipelines über GitHub Actions, um den schnellen Auf- und Abbau vor und nach jeder Schulung sicherzustellen.

Teilzeit ca. 4 Std./Woche

Zeitraum 10/2022 - 12/2022
Branche Bildung
Technologien Google cloud platform, Terraform, Ansible, Kubernetes, helm, Docker, Coder (webbased vscode), Keycloak, Prometheus Stack, GitHub Actions
Rollen Konzeption, Umsetzung, Beratung
Referenz K. hat hier eine sehr coole und innovative Platform für unsere Kurse gebaut!
- Robin Böhm, Geschäftsführer (workshops.de) verifiziert

Docker/Kubernetes Intensivschulungen

Aufgabenstellung

Durchführung des Workshops ‘Docker/Kubernetes Intensivschulungen’ bei workshops.de: https://workshops.de/seminare-schulungen-kurse/docker-kubernetes

Schulungsinhalte & Fokus: Vermittlung von Docker- und Kubernetes-Grundlagen bis hin zu fortgeschrittenen Themen. Teilnehmer lernen Containerisierung und den Einsatz von Docker, sowie den Aufbau und die Verwaltung von Kubernetes-Clustern. Themen umfassen Docker-Architektur, Netzwerk- und Volume-Management, Kubernetes-Architektur, Pods, Services, Ingress, StatefulSets und automatische Skalierung. Außerdem werden fortgeschrittene Konzepte wie Network Policies, Health-Checks, Helm und Prometheus zur Überwachung und Verwaltung von Clustern behandelt.

Hands-on Übungen: Mehr als 30 praxisorientierte Aufgaben in bereitgestellten Testumgebungen, um das erworbene Wissen direkt anzuwenden.

Zeitraum seit 05/2022
Branche Bildung
Technologien Kubernetes, Docker
Rollen Trainer
Referenz K. ist ein super Trainer für Docker & Kubernetes und auch menschlich sehr zu empfehlen :).
- Robin Böhm, Geschäftsführer (workshops.de) verifiziert

Infrastruktur für Office Applikationen

Aufgabenstellung

Projekt Kontext: Das Projekt befasst sich mit der Bereitstellung von Office-Anwendungen wie z. B. Dateiverwaltung, Textverarbeitung, Tabellenkalkulation, eMail, Termine, Videokonferenzen oder Chat auf Basis von Open Source Projekten wie Nextcloud, Collabora, OpenXChange, Jitsi oder Element/Matrix. Ziel ist es Produkte wie Microsoft Office 365 oder Google Workspace zu ersetzen um die Datensoveränität für öffentliche Einrichtungen zu gewährleisten. Besonderer Fokus liegt hierbei auf Sicherheit (BSI-Grundschutz), Skalierbarkeit und hoher Verfügbarkeit. Die Aufgabe meines Teams ist es, die Cloud-Infrastruktur auf der IONOS Cloud Platform aufzubauen und die dafür nötigen Automatisierungen zu entwickeln sowie den Betrieb mit entsprechenden Monitoring zu gewährleisten.

Architektur & Infrastruktur: Entwicklung und Umsetzung eines skalierbaren Cloud-Architektur-Konzepts auf der IONOS Kubernetes Engine und virtuellen Maschinen, mit Fokus auf Automatisierung und Monitoring. So gut wie vollständig als Code umgesetzt.

Netzwerk- & Sicherheitsinfrastruktur: Einrichtung von virtuellen Rechenzentren pro Umgebung und Kunde. Automatisierung aller Netzwerkeinstellungen mittels Terraform und Ansible. Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller. Implementierung der Netzwerksegmentierung und -sicherheit mit pfSense Firewalls.

Kubernetes Automatisierung: Aufbau von Kubernetes-Clustern inklusive Implementierung kritischer Komponenten (z.B. Network Policies, cert-manager, ingress-nginx, external-dns, Kyverno). Integriertes Monitoring und Alerting via Prometheus Operator, Grafana, und Alertmanager sowie Log-Management mit Elastic Cloud on Kubernetes (ECK). Deployments der Komponenten mit GitLab Runners, Ansible und GitOps/FluxCD.

Eigene Entwicklungen: Für einige Aufgaben wurden im Team eigene Module entwickelt, wie z. B. Ansible-Collections für die Steuerung der IONOS Cloud und der pfSense Automatisierung bzw. zum Aufbau des dynamischen Inventories. Auch die Entwicklung einer Reihe von Containern und helm-charts für den Einsatz in FluxCD und im GitLab CI/CD gehörte zu unseren Aufgaben. Auch für die Teams der Anwendungen wurden bestimmte Komponenten entwickelt, wie zum Beispiel ein ValKey(Redis) Helm chart um diese Anwendung hochverfügbar bereitzustellen.

Management Umgebung: Alle Kunden Umgebungen sind per Wireguard VPNs mit einer Management Umgebung verbunden. Diese bietet den DevOps Engineers den Zugang zu den Umgebungen mittels einer OpenVPN Verbindung. Darüber hinaus werden hier weitere Dienste wie z. B. Thanos, eine PKI, Kubernetes Zugangsmenagement, Jump Hosts, Ansible Tower, Redhat IPA und Redhat Satellite betrieben.

CI/CD: Es wurden umfangreiche Automatisierungen entwickelt um die einzelnen virtuellen Rechenzentren jederzeit voll automatisch auf- bzw. abzubauen oder zu skalieren. Hierfür wurden GitLab CI/CD Pipelines und GitOps/FluxCD Resourcen entwickelt. Nahezu alle Pfade der Automation werden midestens einmal am Tag im Rahmen von Integrationstests durchlaufen.

Teilzeit ca. 24 Std./Woche

Zeitraum seit 06/2020
Branche Behörde
Technologien Terraform, Ansible, Python, Kubernetes, IONOS Cloud, GitLab/GitLab runners, FluxCD, ValKey/Redis, devcontainers, pfSense, Prometheus Stack, Grafana, Wireguard, OpenVPN, Thanos, PKI
Rollen Konzeption, Umsetzung, Beratung
Referenz K. gestaltete Automatisierungs- und Monitoringprozesse sicher und effizient, auch in großen und komplexen Infrastrukturprojekten.
- Thomas Kühn, Service delivery owner (Dataport) verifiziert

Rezeptabarbeitung

Aufgabenstellung Neuimplementierung eines Workflow-engines zur Rezeptabarbeitung bei der Arzneimittelproduktion. Übergang von der vorhandenen monolithischen Architektur hin zu einer Microservice-Architektur inkl. Micro Frontends.
Zeitraum 08/2019 - 03/2020
Branche Pharma
Technologien Java/Spring Boot, Event Sourcing – AXON Framework, Oracle DB, RabbitMQ, Docker, Vue.js/Vuex, Web Components Standard, PWA, mobile First, Storybook, GoCD.
Rollen Konzeption, Umsetzung

App spaces

Aufgabenstellung Multi Cloud/on premise Umgebung für IT-Projekte. Design-Prinzipien: Cloud native 12 Factor Apps, Infrastructure as Code, Pets vs Cattle, Continues Integration/Delivery/Deployment.
Zeitraum 12/2018 – 07/2019
Branche IT
Technologien KVM, vSphere, GCP, Azure, AWS, Ubuntu, Cloudinit, Ansible, Python, golang, Vagrant, Packer, Terraform, Wireguard VPN, Docker, Kubernetes, Gitlab, letsencrypt/certbot, restic, consul.
Rollen DevOps Engineer
Referenz K. E. überzeugt mit seinem extrem weiten Spektrum an Fachwissen, das er professionell einsetzt und auch Nicht-ITlern sehr verständlich erklärt.
- Peter Störmer, Geschäftsführer (evodion IT) verifiziert

Online Marktplätze - Automatisierter Vertragsabschluss

Aufgabenstellung Plattform zur automatischen Abwicklung von Leasingvertragsabschlüssen, inkl. Marktplatzanbindung, Unterzeichnung per Videochat und Kreditprüfung.
Zeitraum 04/2018 – 09/2019
Branche Leasing
Technologien Java, Spring Boot, Microservices, Angular, Camunda, Oracle, Docker, Kubernetes, ELK, Grafana, Prometheus.
Rollen Beratung Architektur und Vorgehensmodell, DevOps-Engineer

IT-Notfallhandbuch

Aufgabenstellung Erstellung eines IT-Notfallhandbuches nach BSI-Standard 100-4. ca. 700 IT-Prozesse, 3 eigene verteilte Rechenzentren.
Zeitraum 04/2018 – 11/2018
Branche Versicherung
Technologien keine
Rollen Projektleitung, Hauptautor
Referenz Einwandfreie Zusammenarbeit, ausgezeichnetes Ergebnis. Vielen Dank.
- Guido Krüger, Abteilungsleiter (Itzehoer Versicherung) verifiziert