Vorname | Klaus |
Name | Erber |
Geburtsdatum | 05.01.1967 |
Familienstand | verheiratet, 2 Kinder |
Staatsangehörigkeit | deutsch |
Straße | Pappelreihe 24 |
Wohnort | D-21255 Tostedt (bei Hamburg) |
k.erber@erber-freelance.de | |
Telefon | +49 172 6248666 |
Schulbildung | Realschule |
1986 | Abschluß der Berufsausbildung zum Chemiefacharbeiter |
1991 | Abschluß als Industriemeister Fachrichtung Chemie, inkl. Ausbildereignungsprüfung |
1994 - 1998 | Studium der Wirtschaftsinformatik bei der AKAD, Hochschule für Berufstätige Rendsburg und Abschluß als Diplom-Wirtschaftsinformatiker/FH (Diplomarbeit Note 1.7, Kolloquium 1.0, Gesamtnote 'gut'). Original: [Zeugnis] |
2002 | Ausbildung zum certified TopLink Trainer durch die Fa. Oracle [Zertifikat] |
2023 | Ausbildung zum Certified Kubernetes Administrator, Zertifizierung bei der Cloud Native Computing Foundation [Zertifikat] |
Zeitraum | Position/Beschreibung |
---|---|
01.08.1983 - 31.12.1998 |
Auszubildender, Facharbeiter, Schichtleiter, Betriebsleiter, Softwareentwickler (Nebenbeschäftigung) unbefristetes Arbeitsverhältnis bei der Fa. ESSO AG danach HOLBORN Europa Raffinerie GmbH, Hamburg, [Zeugnis] |
01.01.1999 - 30.06.2001 |
Geschäftsführer, Systemingenieur unbefristetes Arbeitsverhältnis bei der Fa. maxheim wirtschaftsinformatik / mwi holding gmbh / mwi hamburg gmbh, Hamburg [Zeugnis] |
01.07.2001 - 31.03.2020 |
Senior IT-Consultant unbefristetes Arbeitsverhältnis bei der Gauss Interprise Consulting AG später evodion Information Technologies GmbH, Hamburg |
01.08.2015 - 31.01.2020 |
Geschäftsführer Nebenberufliche Geschäftsführung der evodion Mitarbeiter Beteiligungsgesellschaft GbR, Hamburg |
ab 01.01.2020 | IT-Freiberufler Selbstständiger Cloud Architekt. |
Der sichere, effiziente und verlässliche Betrieb einer Anwendung ist für mich genauso wichtig, wie die eigentliche Softwareentwicklung. Deshalb habe schon immer entsprechende Aufgaben in Projekten übernommen. Die aktuellen Entwicklungen rund um DevOps-Kulturen, Containerisierung, Kubernetes und Cloud Computing sind bei mir gängige Praxis geworden.
Ich bringe Ihre Anwendungen in die Cloud. Sicher, hochverfügbar, skalierbar, kosteneffizient und ohne Vendor-Lockin.
Ich verbinde Dev und Ops, da ich beiden Welten Zuhause bin. Devs können mit mehr Ops-Wissen wesentlich bessere Architekturentscheidungen treffen und somit ihre Anwendungen cloudfähig machen. Ops können mit entsprechenden Dev-Wissen lernen ihre Infrastruktur in Code zu gießen und somit ein neues Level an Automatisierung erreichen. Zusammen können entwickelte Features viel schneller und in höherer Qualität zum Endbenutzer gebracht werden.
Auch wenn es nicht das Ziel ist eine Anwendung in der Cloud zu betreiben, so sind doch die sich z. Zt. etablierenden DevOps-Ansätze auch für den Betrieb on premisses von großem Vorteil. Denn schnelle, flexible, sichere und automatisierte Verfahren für Softwaretests und -auslieferung wirken sich auch hier positiv aus.
Cloud Architekt, DevOps-Engineer, Senior IT-Consultant, Projektleiter, Senior/Lead Developer, Schulungsleiter
Teamfähig, agil, verlässlich, Know-How-Transfer ins Team, sicherheitsbewusst, empathisch, neugierig, viel Weitblick, kreativ, kritikfähig, Feedbackgeber
Der Übersichtlichkeit halber, habe ich ältere Technologien aus der Liste gestrichen, da sie in heutigen Projekten keine große Relevanz mehr haben. Im Zweifelsfall, fragen Sie bitte einfach nach, ob ich Ihnen zu solchen Themen weiterhelfen kann. Meine vollständige Projektliste kann hier auch hilfreich sein.
Linux (debian, Ubuntu, RHEL & Clone), MacOS, Windows
KVM, Proxmox, OpenStack, HyperV, Virtual Box
Google Cloud Platform, SC Synergy (Apache Cloudstack), Azure, AWS, Scaleway, Hetzner, IONOS
GitHub Actions, Azure DevOps, Gitlab CD/CI, Atlassian Bamboo, GoCD, Gitea, Nexus, Artifactory, FluxCD, Jenkins
MySQL, MariaDB, PostgreSQL, MS-SQL, Firestore, Oracle, H2, Redis/ValKey
Wireguard VPN, OpenVPN, IPSec, OPNSense, pfSense, OpenWRT, Websockets/STOMP, IoT/MQTT, Routing, HTTP/S
Spring Boot, Google Firebase, RabbitMQ, Keycloak, Node.js, NodeRed, Tomcat, nginx, haproxy, JBoss/Wildfly, Apache-Webserver, JEE, EJB, EJB3, Web Services/REST/SOAP
Terraform/OpenTofu, Ansible, Docker, OCI, ELK, Loki, Splunk, Cloudinit, Vagrant, Packer, certbot, restic, Podman/Buildah, Minio, devcontainers
Kubernetes kubeadm/RKE2/k3s/aks/gke/cloudstack minikube/kind, Rancher, Istio, Linkerd, Longhorn, Rook/Ceph, k3s, podman, Helm/helmfile, Prometheus, Alertmanager, Grafana, letsencrypt/cert-manager, Operator Development in Golang, PostgreSQL Operators: Zalando & Crunchy Data, Kyverno, velero, vcluster (Kubernetes in Kubernetes), Longhorn, Ceph/Rook, Sealed Secrets, cert-manager
Python, Go, Java, Groovy, Shell, Perl, JSON, YAML, TOML, XML/DTD/XMLSchema
IT-Dienstleister, Bildung, Pharmaindustrie, Versicherungen, Banken, Leasing, Behörden, Verlage, Presseagenturen, Mineralölindustrie, Steuerberatung
Geschäftsführung eines IT-Startups, Geschäftsführung einer Mitarbeiter Beteiligungsgesellschaft, mehrjährige Erfahrung in der Leitung von IT-Projekten (Teamgrößen bis zu 12 Mitarbeiter), mehrjährige Führungserfahrung in der mineralölverarbeitenden Industrie (Teamgrößen bis zu 19 Mitarbeiter)
Trainer für Docker & Kubernetes, Coaching und Beratung im IT-Bereich, Durchführung von Schulungen für Softwareentwickler und Anwender
Deutsch, Englisch
Hier eine Auswahl von Konzepten die ich in Projekten umsetze:
DevOps ist ein Ansatz, der Entwicklung (Dev) und Betrieb (Ops) eng miteinander verzahnt, um Software schneller und effizienter bereitzustellen. Durch Automatisierung, kontinuierliche Integration und Zusammenarbeit wird eine hohe Verfügbarkeit, Sicherheit und Qualität der Anwendungen gewährleistet.
Infrastructure as Code (IaC) bedeutet, dass die gesamte IT-Infrastruktur wie Netzwerke, Server und Datenbanken in Code beschrieben wird. Dadurch können Umgebungen automatisiert, versioniert und reproduzierbar bereitgestellt und verwaltet werden, was Effizienz und Skalierbarkeit erhöht.
Container sind leichtgewichtige, isolierte Umgebungen, in denen Anwendungen mit all ihren Abhängigkeiten ausgeführt werden. Sie ermöglichen eine konsistente Ausführung über verschiedene Umgebungen hinweg und erleichtern die Skalierbarkeit und Portabilität von Anwendungen.
Orchestrierung bezeichnet die automatisierte Verwaltung und Koordination von Containern, Netzwerken und Anwendungen in komplexen Umgebungen. Sie sorgt dafür, dass Container gestartet, skaliert, überwacht und bei Ausfällen automatisch neu verteilt werden, um einen reibungslosen Betrieb sicherzustellen.
Der Zero Trust-Ansatz geht davon aus, dass kein Benutzer oder System automatisch vertraut wird – egal ob innerhalb oder außerhalb des Netzwerks. Jede Anfrage muss authentifiziert und autorisiert werden, was hilft, die Sicherheit von Anwendungen und Daten zu stärken.
Identity and Access Management (IAM) regelt, welche Benutzer und Systeme auf welche Ressourcen zugreifen dürfen. Durch strikte Rollen- und Rechteverwaltung wird sichergestellt, dass nur autorisierte Entitäten Zugriff auf sensible Daten und Systeme haben.
Verschlüsselung schützt Daten sowohl im Ruhezustand (at rest) als auch während der Übertragung (in transit). Dies stellt sicher, dass sensible Informationen selbst dann sicher bleiben, wenn sie abgefangen oder kompromittiert werden.
Eine Web Application Firewall (WAF) schützt Webanwendungen, indem sie eingehenden und ausgehenden HTTP-Datenverkehr überwacht und potenziell bösartige Anfragen blockiert. So werden Angriffe wie SQL-Injections oder Cross-Site-Scripting verhindert.
Secret Management befasst sich mit der sicheren Speicherung und Verwaltung von sensiblen Informationen wie API-Schlüsseln, Passwörtern und Zertifikaten. Dienste wie Azure Keyvault oder Google Secrets Manager helfen, diese Geheimnisse sicher zu verwalten und Zugriffe zu kontrollieren.
Der Least Privilege-Ansatz stellt sicher, dass Benutzer und Systeme nur die minimal erforderlichen Rechte haben, um ihre Aufgaben zu erfüllen. Dies reduziert das Risiko von Sicherheitsvorfällen und ungewolltem Zugriff.
Continuous Integration (CI) ist ein Prozess, bei dem Codeänderungen automatisch Builds, Unit Tests und gegebenenfalls Deployments auslösen. Dies sorgt für eine schnelle Erkennung von Fehlern und ermöglicht eine kontinuierliche Auslieferung von hochwertiger Software.
Continuous Delivery erweitert Continuous Integration und ermöglicht die automatisierte Bereitstellung von Codeänderungen. Vor dem Übergang in Staging- oder Produktionsumgebungen sind manuelle Freigaben durch Entwickler oder die Qualitätssicherung notwendig.
Continuous Deployment geht einen Schritt weiter als Continuous Delivery und automatisiert die vollständige Auslieferung von Codeänderungen bis in die Produktionsumgebung. Jede erfolgreich getestete Änderung wird ohne manuelle Freigaben sofort produktiv geschaltet, was eine schnelle und kontinuierliche Bereitstellung ermöglicht.
Monitoring umfasst das kontinuierliche Beobachten und Messen von Systemen anhand vordefinierter Metriken wie CPU-Auslastung, Speicher oder Netzwerkaktivität. Es dient dazu, Probleme frühzeitig zu erkennen und die Verfügbarkeit der Systeme sicherzustellen.”
Observability geht über klassisches Monitoring hinaus und bietet einen umfassenderen Einblick in den Zustand eines Systems. Durch die Kombination von Metriken, Logs und Traces ermöglicht es, Probleme proaktiv zu identifizieren und deren Ursachen tiefgehender zu verstehen.
Backup & Recovery bezieht sich auf die regelmäßige Sicherung von Daten, um im Falle eines Verlusts oder einer Beschädigung eine Wiederherstellung zu ermöglichen. Ein durchdachter Backup- und Recovery-Plan stellt sicher, dass kritische Daten und Systeme nach Ausfällen oder Cyberangriffen schnell wiederhergestellt werden können.
Disaster Recovery (DR) ist ein strategischer Prozess, der sicherstellt, dass IT-Systeme und Daten nach schwerwiegenden Vorfällen wie Naturkatastrophen, Cyberangriffen oder Hardwareausfällen wiederhergestellt werden können. Ein DR-Plan definiert klare Maßnahmen und Wiederherstellungsziele, um den Geschäftsbetrieb schnellstmöglich zu sichern.
Cloud Native beschreibt einen Ansatz zur Entwicklung und Ausführung von Anwendungen, die speziell für Cloud-Umgebungen optimiert sind. Durch den Einsatz von Containern, Microservices und dynamischer Orchestrierung bieten Cloud-Native-Anwendungen eine hohe Skalierbarkeit, Flexibilität und Resilienz.
High Availability (HA) bezieht sich auf die Fähigkeit eines Systems oder einer Anwendung, trotz Ausfällen oder Problemen nahezu durchgängig verfügbar zu sein. Dies wird durch redundante Architekturen, automatische Failover-Mechanismen und die Vermeidung von Single Points of Failure erreicht.
Software Defined Networking (SDN) ist ein Ansatz, bei dem Netzwerkkonfiguration und -steuerung über Software zentralisiert und automatisiert werden. Dies ermöglicht eine flexible und dynamische Verwaltung von Netzwerkressourcen und eine schnelle Anpassung an wechselnde Anforderungen.
GitOps ist ein Ansatz zur Verwaltung und Automatisierung von Infrastruktur und Anwendungen, bei dem das Git-Repository als zentrale Quelle für die gesamte Konfiguration dient. Änderungen werden durch Git-Commits versioniert und automatisch in die Zielumgebung übertragen, wodurch der Prozess transparent und nachvollziehbar wird.
Self Healing beschreibt die Fähigkeit eines Systems, automatisch auf Fehler zu reagieren und sich selbst zu reparieren, ohne manuelles Eingreifen. Durch Mechanismen wie automatische Neustarts, Replikation und Ausfallüberwachung wird die Verfügbarkeit und Stabilität des Systems gewährleistet.
Autoscaling ermöglicht es einem System, automatisch Ressourcen wie Rechenleistung oder Speicherplatz je nach Last anzupassen. Dadurch wird sichergestellt, dass immer genügend Ressourcen zur Verfügung stehen, um die Anforderungen zu erfüllen, während gleichzeitig Kosten durch Überprovisionierung vermieden werden.
Serverless ist ein Cloud-Modell, bei dem Anwendungen ausgeführt werden, ohne dass Entwickler sich um die zugrunde liegende Serverinfrastruktur kümmern müssen. Die Cloud-Anbieter verwalten automatisch die Skalierung und Ressourcen, während die Abrechnung nur für die tatsächlich genutzte Rechenzeit erfolgt.
Service Mesh ist eine Infrastrukturebene, die die Kommunikation zwischen Microservices in einer verteilten Anwendung steuert. Es bietet Funktionen wie Load Balancing, Service Discovery, Verschlüsselung, Monitoring und Fehlerbehandlung, ohne dass Änderungen an den Anwendungen selbst erforderlich sind.
Dies sind meine interessantesten Projekte der letzten 5 Jahre. Weitere finden Sie unter
https://www.erber-freelance.de/projects
Aufgabenstellung | Projekt Kontext: Das Geschäft des Kunden ist das Kundenstamm Management. Dieses wird von verschiedenen teilweise selbst entwickelten Anwendungen unterstützt, die im ursprünglichen Zustand in einem inhouse laufenden Docker Swarm Cluster betrieben wurden. Die eingesetzten Datenbanken sind PostgreSQL und MongoDB. Ziel des Projektes ist es die Anwendungen in die Google Cloud Umgebung zu migrieren und sie dort in Kubernetes zu betreiben. Über die Kernanwendungen hinaus sollen auch alle anderen Geschäftsanwendungen in die Google Cloud Kubernetes Umgebung migriert werden. Im Übergang ist eine Hybride Cloud Architektur (GCP/Hetzner) zu betreiben, die Resourcen in der Hetzner Cloud sollen dabei über den Prometheus Stack überwacht werden. Meine Aufgabe ist es, das Team bei diesem Vorhaben zu unterstützen und die notwendigen Kenntnisse zu vermitteln. Zum Start des Projektes wurde von mir eine Basisimplementierung geliefert auf der nun aufgebaut wird. Architektur & Infrastruktur: Entwicklung und Implementierung einer skalierbaren Cloud-Architektur auf der Google Cloud Platform (GCP), mit Fokus auf Deployment, Backup & Recovery sowie Monitoring. 100% Infrastructure as Code (IaC). Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller. Netzwerk- & Sicherheitsinfrastruktur: Einrichtung einer Virtual Private Cloud (VPC) mit VPNs, realisiert durch IPSec und Wireguard, für sichere und schnelle Verbindungen. Google-Cloud-DNS-Setup für reibungslose Netzwerkauflösungen. Automatisierung aller Netzwerkeinstellungen mit Terraform. Kubernetes & Service Mesh: Aufbau und Verwaltung von Kubernetes-Clustern inklusive eines Service Mesh mit Linkerd zur Absicherung und Optimierung der Kommunikation zwischen den einzelnen Komponenten. Monitoring und Alerting implementiert mit dem Kube-Prometheus-Stack, Grafana und Alertmanager. Workshops & Wissenstransfer: Der Großteil der Umsetzung erfolgt im Rahmen von interaktiven Workshops, um dem Kunden praktische Fähigkeiten und Best Practices zu Kubernetes, Cloud Networking und Automatisierung zu vermitteln. Datenbank-Automatisierung: Automatisierte Einrichtung von PostgreSQL-Clustern, inklusive Backup- und Wiederherstellungsszenarien auf S3, sowie automatisierte Schema-Migrationen. CI/CD: GitHub Workflows für Continuous Integration & Delivery (CI/CD). Verbesserung der Entwicklungs- und Release-Prozesse für schnellere und zuverlässigere Deployments. Teilzeit ca. 6 Std./Woche |
Zeitraum | seit 03/2024 |
Branche | Kundenstamm Management |
Technologien | Google cloud platform, Hetzner Cloud, OpenTofu, helm, Kubernetes, Docker, PostgreSQL, Linkerd, Prometheus Stack, Grafana Loki, GitHub Actions, devcontainers. |
Rollen | Konzeption, Umsetzung, Beratung |
Referenz |
Herr E. hilft uns sehr effektiv unsere Anwendungen in die Google Cloud zu bringen - Anonym, Abteilungsleitung verifiziert |
Aufgabenstellung | Projekt Kontext: Im Projekt wird eine ERP Software als SaaS-Lösung entwickelt. Backends werden mit Spring Boot und nodejs entwickelt, Frontends mit Angular. Als Datenbank kommt PostgreSQL zum Einsatz. Um die Entwicklung sowie den Betrieb zu unterstützen war es meine Aufgabe, eine Kubernetes Betriebsumgebung aufzubauen sowie die entsprechenden Container Images, Helm Charts und CI/CD Pipelines zu erstellen. Auch die automatisierte Erstellung und Migration der Datenbanken gehörte zu meinen Aufgaben. Architektur & Infrastruktur: Entwicklung und Umsetzung eines skalierbaren Cloud-Architektur-Konzepts auf der Apache Cloudstack Kubernetes Engine, mit Fokus auf Deployment, Backup & Recovery sowie Monitoring. Vollständig als Code umgesetzt (100% IaC). Netzwerk- & Sicherheitsinfrastruktur: Einrichtung einer Virtual Private Cloud (VPC) mit IPSec Site-to-Site VPNs und Google-Cloud-DNS für nahtlose Integration und Sicherheit. Automatisierung aller Netzwerkeinstellungen mittels OpenTofu/Terraform. Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller. Kubernetes Automatisierung: Aufbau von Kubernetes-Clustern inklusive Implementierung kritischer Komponenten (z.B. Network Policies, cert-manager, ingress-nginx, Dex, external-dns, Kyverno). Integriertes Monitoring und Alerting via Kube-Prometheus, Grafana, und Alertmanager sowie Log-Management mit Loki. Datenbank-Automatisierung: Automatisierte Einrichtung von PostgreSQL-Clustern mit dem Crunchy Data PostgreSQL Operator, inklusive Backup- und Wiederherstellungsszenarien nach S3. Automatisierte Schema-Migrationen und effizientes Datenmanagement. CI/CD und Containerisierung: Containerisierung von Anwendungen, Erstellung maßgeschneiderter Helm-Charts und Aufbau von GitHub Workflows für Continuous Integration & Delivery (CI/CD). Optimierung der Entwicklungs- und Release-Pipelines für eine höhere Geschwindigkeit und Zuverlässigkeit der Deployments. Teilzeit ca. 12 Std./Woche |
Zeitraum | 07/2024 - 09/2024 |
Branche | ERP Software Hersteller |
Technologien | Apache Cloudstack, OpenTofu, helm, Kubernetes, Docker, PostgreSQL, Prometheus Stack, Grafana Loki, GitHub Actions, Spring Boot Angular. |
Rollen | Konzeption, Umsetzung, Beratung |
Aufgabenstellung | Projekt Kontext: Die Verwaltungssoftware für Vermietungen wird als Webanwendung entwickelt. Es gibt eine in nodejs/svelte/MySQL entwickelte Version, die momentan in Betrieb ist. Eine Reimplementierung in Spring Boot/Angular/PostgreSQL wird z. Zt. durchgeführt. Um die Entwicklung sowie den Betrieb zu unterstützen war es meine Aufgabe, eine Kubernetes Betriebsumgebung aufzubauen sowie die entsprechenden Container Images, Helm Charts und CI/CD Pipelines zu erstellen. Auch die Netzwerkkonfiguration und die automatisierte Erstellung und Migration der Datenbanken gehörten zu meinen Aufgaben. Architektur & Infrastruktur: Design und Implementierung einer Cloud-Architektur auf der Google Cloud Platform (GCP) mit Fokus auf hochverfügbare Deployments, Backup & Recovery sowie Monitoring. 100% Infrastructure as Code (IaC). Netzwerk- & Sicherheitsinfrastruktur: Einrichtung einer Virtual Private Cloud (VPC) mit VPN, umgesetzt mit Wireguard für sichere Verbindungen. Automatisierung der Netzwerkinfrastruktur und DNS-Konfiguration mittels OpenTofu/Terraform. Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller. Kubernetes & Containerisierung: Automatisierte Einrichtung und Verwaltung von Kubernetes-Clustern inklusive Setup kritischer Komponenten (z.B. Network Policies, cert-manager, ingress-nginx). Implementierung einer Web Application Firewall (WAF) mit modsecurity im nginx Ingress Controller zur Absicherung des Traffics. Vollständiges Monitoring und Alerting mit Kube-Prometheus-Stack, Grafana und Alertmanager und Loki Log Management. Implementierung von Velero für Desaster Recovery. Datenbank-Automatisierung: Automatisierte Verwaltung von MySQL- und PostgreSQL-Datenbanken, inklusive Backup & Recovery zu S3. Effizientes Schema-Management und automatisierte Datenmigration. CI/CD und Containerisierung: Containerisierung von Anwendungen, Erstellung von Helm-Charts und Implementierung von GitHub Workflows für Continuous Integration & Delivery (CI/CD). Optimierung der Entwicklungsprozesse zur Steigerung der Effizienz und Zuverlässigkeit. Teilzeit ca. 6 Std./Woche |
Zeitraum | 11/2023 - 06/2024 |
Branche | Vermietungen |
Technologien | Google cloud platform, OpenTofu/Terraform, helm, Kubernetes, Docker, MySQL, PostgreSQL, modsecurity, Prometheus Stack, Grafana Loki, GitHub Actions, Velero, PHP, JavaScript/Svelte, Spring Boot, Angular. |
Rollen | Konzeption, Umsetzung, Beratung |
Referenz |
Herr E. hat unsere Verwaltungssoftware für Vermietungen sicher und effizient in der Google Cloud implementiert. - Torsten Jahn, Geschäftsführer (Studentenwerk der FH e.V.) verifiziert |
Aufgabenstellung | Projekt Kontext: Das Projekt beschäftigt sich mit Entwicklung von Anwendungen rund um das Lifecycle Management von Spezialfahrzeugen. Die Anwendungen sind in einer Microservice-Architektur aufgebaut. Zum einen gibt es React/Spring-Boot/PostgreSQL basierte Anwendungen, die bestimmte Geschäftsprozesse abbilden (z. B. Fahrzeug Konfiguration oder Flottenmanagement). Zum anderen gibt es Anwendungen, die sich mit der Verarbeitung von Fahrzeug Telemetriedaten beschäftigen. Diese Anwendungen werden in Java/Apache Spark/InfluxDB realisiert. Meine Aufgabe ist es, die Cloud-Infrastruktur auf Microsoft Azure aufzubauen und die dafür nötigen Automatisierungen zu entwickeln. Architektur & Infrastruktur: Implementierung einer Cloud-Infrastruktur auf Microsoft Azure mit einem Hub-and-Spoke-Netzwerktopologie-Ansatz. VPN realisiert mit OpenVPN für sichere Verbindungen zu privaten Workloads. Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller. Implementierung von Velero für Desaster Recovery. Microservices & Datenmanagement: Aufbau einer Microservice-Architektur für eine skalierbare und modulare Anwendungslandschaft. Verwaltung von klassischen Anwendungen mit PostgreSQL und Big Data Workloads unter Verwendung von Azure Data Lake Storage und Apache Spark sowie InfluxDB für Fahrzeug Telemetriedaten für performante Datenverarbeitung und Analyse. Authentifizierung & Sicherheit: Implementierung einer sicheren Authentifizierungs- und Autorisierungslösung mittels Keycloak, um einen sicheren Zugriff auf die Microservices und Anwendungen zu gewährleisten. CI/CD und Containerisierung: Containerisierung von Anwendungen, Erstellung von Helm-Charts und Implementierung von Azure DevOps Pipelines für Continuous Integration & Delivery (CI/CD). Optimierung der Entwicklungsprozesse zur Steigerung der Effizienz und Zuverlässigkeit. Teilzeit ca. 8 Std./Woche |
Zeitraum | seit 06/2023 |
Branche | Automotive |
Technologien | Microservices architecture, Azure cloud platform, Terraform, helm/helmfile, Kubernetes, Docker, Keycloak, Postgres, Prometheus Stack, Grafana Loki, Velero, Azure DevOps, Apache Spark, InfluxDB, Spring Boot, React. |
Rollen | Konzeption, Umsetzung, Beratung |
Aufgabenstellung | Projekt Kontext: Das Geschäft von workshops.de ist es neben vielen anderen Themen auch Docker- und Kubernetes-Workshops anzubieten. Hierfür wurden reproduzierbare Schulungsumgebungen benötigt, die keine lokalen Installationen beim Workshop-Telnehmer erfordern. Meine Aufgabe war es, die Automatisierungen zu entwicklen um einen Kubernetes-Cluster auf der Google Cloud Platform (GCP) für jede Schulung bereitzustellen. Auf diesem Cluster werden dann auch die Entwicklungsumgebungen der Teilnehmer betrieben, die diese dann per Webbrowser bedienen können. Die Implementierung steht als Open Source Projekt auf GitHub zur Verfügung: https://github.com/klauserber/coder-development-cluster Architektur & Infrastruktur: Automatisierter Auf- und Abbau von Kubernetes- und Netzwerkinfrastrukturen auf der Google Cloud Platform (GCP) für jede Schulung, unter Verwendung von 100% Infrastructure as Code (IaC). Netzwerksetup mit VPC und Kubernetes-Cluster, einschließlich cert-manager, ingress-nginx, Monitoring und PostgreSQL mit Backup & Recovery. Schulungsumgebungen & Coder: Implementierung der Software Coder als Haupt-Workload zur Bereitstellung von Entwicklungsumgebungen, die vollständig über den Webbrowser zugänglich sind. Erstellung und Automatisierung von Templates für reproduzierbare, standardisierte Entwicklungsumgebungen ohne lokale Installationen. Kubernetes & Automatisierung: Automatisiertes Deployment von Kubernetes-Komponenten und Anwendungen mit Ansible und Terraform zur schnellen Bereitstellung der Schulungsumgebungen. Authentifizierung über Keycloak für sicheren Zugriff auf die Umgebungen. CI/CD & Skalierbarkeit: Effiziente Skalierung und Verwaltung der Umgebungen durch CI/CD Pipelines über GitHub Actions, um den schnellen Auf- und Abbau vor und nach jeder Schulung sicherzustellen. Teilzeit ca. 4 Std./Woche |
Zeitraum | 10/2022 - 12/2022 |
Branche | Bildung |
Technologien | Google cloud platform, Terraform, Ansible, Kubernetes, helm, Docker, Coder (webbased vscode), Keycloak, Prometheus Stack, GitHub Actions |
Rollen | Konzeption, Umsetzung, Beratung |
Referenz |
K. hat hier eine sehr coole und innovative Platform für unsere Kurse gebaut! - Robin Böhm, Geschäftsführer (workshops.de) verifiziert |
Aufgabenstellung | Durchführung des Workshops ‘Docker/Kubernetes Intensivschulungen’ bei workshops.de: https://workshops.de/seminare-schulungen-kurse/docker-kubernetes Schulungsinhalte & Fokus: Vermittlung von Docker- und Kubernetes-Grundlagen bis hin zu fortgeschrittenen Themen. Teilnehmer lernen Containerisierung und den Einsatz von Docker, sowie den Aufbau und die Verwaltung von Kubernetes-Clustern. Themen umfassen Docker-Architektur, Netzwerk- und Volume-Management, Kubernetes-Architektur, Pods, Services, Ingress, StatefulSets und automatische Skalierung. Außerdem werden fortgeschrittene Konzepte wie Network Policies, Health-Checks, Helm und Prometheus zur Überwachung und Verwaltung von Clustern behandelt. Hands-on Übungen: Mehr als 30 praxisorientierte Aufgaben in bereitgestellten Testumgebungen, um das erworbene Wissen direkt anzuwenden. |
Zeitraum | seit 05/2022 |
Branche | Bildung |
Technologien | Kubernetes, Docker |
Rollen | Trainer |
Referenz |
K. ist ein super Trainer für Docker & Kubernetes und auch menschlich sehr zu empfehlen :). - Robin Böhm, Geschäftsführer (workshops.de) verifiziert |
Aufgabenstellung | Projekt Kontext: Das Projekt befasst sich mit der Bereitstellung von Office-Anwendungen wie z. B. Dateiverwaltung, Textverarbeitung, Tabellenkalkulation, eMail, Termine, Videokonferenzen oder Chat auf Basis von Open Source Projekten wie Nextcloud, Collabora, OpenXChange, Jitsi oder Element/Matrix. Ziel ist es Produkte wie Microsoft Office 365 oder Google Workspace zu ersetzen um die Datensoveränität für öffentliche Einrichtungen zu gewährleisten. Besonderer Fokus liegt hierbei auf Sicherheit (BSI-Grundschutz), Skalierbarkeit und hoher Verfügbarkeit. Die Aufgabe meines Teams ist es, die Cloud-Infrastruktur auf der IONOS Cloud Platform aufzubauen und die dafür nötigen Automatisierungen zu entwickeln sowie den Betrieb mit entsprechenden Monitoring zu gewährleisten. Architektur & Infrastruktur: Entwicklung und Umsetzung eines skalierbaren Cloud-Architektur-Konzepts auf der IONOS Kubernetes Engine und virtuellen Maschinen, mit Fokus auf Automatisierung und Monitoring. So gut wie vollständig als Code umgesetzt. Netzwerk- & Sicherheitsinfrastruktur: Einrichtung von virtuellen Rechenzentren pro Umgebung und Kunde. Automatisierung aller Netzwerkeinstellungen mittels Terraform und Ansible. Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller. Implementierung der Netzwerksegmentierung und -sicherheit mit pfSense Firewalls. Kubernetes Automatisierung: Aufbau von Kubernetes-Clustern inklusive Implementierung kritischer Komponenten (z.B. Network Policies, cert-manager, ingress-nginx, external-dns, Kyverno). Integriertes Monitoring und Alerting via Prometheus Operator, Grafana, und Alertmanager sowie Log-Management mit Elastic Cloud on Kubernetes (ECK). Deployments der Komponenten mit GitLab Runners, Ansible und GitOps/FluxCD. Eigene Entwicklungen: Für einige Aufgaben wurden im Team eigene Module entwickelt, wie z. B. Ansible-Collections für die Steuerung der IONOS Cloud und der pfSense Automatisierung bzw. zum Aufbau des dynamischen Inventories. Auch die Entwicklung einer Reihe von Containern und helm-charts für den Einsatz in FluxCD und im GitLab CI/CD gehörte zu unseren Aufgaben. Auch für die Teams der Anwendungen wurden bestimmte Komponenten entwickelt, wie zum Beispiel ein ValKey(Redis) Helm chart um diese Anwendung hochverfügbar bereitzustellen. Management Umgebung: Alle Kunden Umgebungen sind per Wireguard VPNs mit einer Management Umgebung verbunden. Diese bietet den DevOps Engineers den Zugang zu den Umgebungen mittels einer OpenVPN Verbindung. Darüber hinaus werden hier weitere Dienste wie z. B. Thanos, eine PKI, Kubernetes Zugangsmenagement, Jump Hosts, Ansible Tower, Redhat IPA und Redhat Satellite betrieben. CI/CD: Es wurden umfangreiche Automatisierungen entwickelt um die einzelnen virtuellen Rechenzentren jederzeit voll automatisch auf- bzw. abzubauen oder zu skalieren. Hierfür wurden GitLab CI/CD Pipelines und GitOps/FluxCD Resourcen entwickelt. Nahezu alle Pfade der Automation werden midestens einmal am Tag im Rahmen von Integrationstests durchlaufen. Teilzeit ca. 24 Std./Woche |
Zeitraum | seit 06/2020 |
Branche | Behörde |
Technologien | Terraform, Ansible, Python, Kubernetes, IONOS Cloud, GitLab/GitLab runners, FluxCD, ValKey/Redis, devcontainers, pfSense, Prometheus Stack, Grafana, Wireguard, OpenVPN, Thanos, PKI |
Rollen | Konzeption, Umsetzung, Beratung |
Referenz |
K. gestaltete Automatisierungs- und Monitoringprozesse sicher und effizient, auch in großen und komplexen Infrastrukturprojekten. - Thomas Kühn, Service delivery owner (Dataport) verifiziert |
Aufgabenstellung | Neuimplementierung eines Workflow-engines zur Rezeptabarbeitung bei der Arzneimittelproduktion. Übergang von der vorhandenen monolithischen Architektur hin zu einer Microservice-Architektur inkl. Micro Frontends. |
Zeitraum | 08/2019 - 03/2020 |
Branche | Pharma |
Technologien | Java/Spring Boot, Event Sourcing – AXON Framework, Oracle DB, RabbitMQ, Docker, Vue.js/Vuex, Web Components Standard, PWA, mobile First, Storybook, GoCD. |
Rollen | Konzeption, Umsetzung |
Aufgabenstellung | Multi Cloud/on premise Umgebung für IT-Projekte. Design-Prinzipien: Cloud native 12 Factor Apps, Infrastructure as Code, Pets vs Cattle, Continues Integration/Delivery/Deployment. |
Zeitraum | 12/2018 – 07/2019 |
Branche | IT |
Technologien | KVM, vSphere, GCP, Azure, AWS, Ubuntu, Cloudinit, Ansible, Python, golang, Vagrant, Packer, Terraform, Wireguard VPN, Docker, Kubernetes, Gitlab, letsencrypt/certbot, restic, consul. |
Rollen | DevOps Engineer |
Referenz |
K. E. überzeugt mit seinem extrem weiten Spektrum an Fachwissen, das er professionell einsetzt und auch Nicht-ITlern sehr verständlich erklärt. - Peter Störmer, Geschäftsführer (evodion IT) verifiziert |
Aufgabenstellung | Plattform zur automatischen Abwicklung von Leasingvertragsabschlüssen, inkl. Marktplatzanbindung, Unterzeichnung per Videochat und Kreditprüfung. |
Zeitraum | 04/2018 – 09/2019 |
Branche | Leasing |
Technologien | Java, Spring Boot, Microservices, Angular, Camunda, Oracle, Docker, Kubernetes, ELK, Grafana, Prometheus. |
Rollen | Beratung Architektur und Vorgehensmodell, DevOps-Engineer |
Aufgabenstellung | Erstellung eines IT-Notfallhandbuches nach BSI-Standard 100-4. ca. 700 IT-Prozesse, 3 eigene verteilte Rechenzentren. |
Zeitraum | 04/2018 – 11/2018 |
Branche | Versicherung |
Technologien | keine |
Rollen | Projektleitung, Hauptautor |
Referenz |
Einwandfreie Zusammenarbeit, ausgezeichnetes Ergebnis. Vielen Dank. - Guido Krüger, Abteilungsleiter (Itzehoer Versicherung) verifiziert |