Projekt-Nr 35598-06
DevOps Engineer (m/w) für GCP und ein Geospatial / Weather Data Engineer (m/w)

Projektangebot für Freelancer
Position: IT Beratung / Consulting
Projektleitung / Organisation / Koordination
Software-Entwicklung / Programmierung
Projekttyp: Freiberufliche Position (Freelancer)
 
Projektbeschreibung

Wir suchen für unsren Kunden zwei Positionen (gerne auch in einer Person vereint)


Es geht um den Aufbau einer Weather Data Pipeline für Energy Trading.

gesucht wird ein DevOps Engineer für GCP und ein Geospatial / Weather Data Engineer (exotisch, aber hier unabdingbar)


1. Core Cloud & Infrastruktur (GCP)

Die Plattform wird auf GCP gehostet. Der Ingenieur benötigt nachweisliche Erfahrung im Aufbau von Hochleistungsrechnerumgebungen.

• Compute Engine: Fachwissen in der Verwaltung von GPU-Instanzen (NVIDIA A100s). Muss Spot-/Preemptible-Lebenszyklen und Committed Use Discounts (CUDs) verstehen.
• Speicherarchitektur: Möglichkeit, skalierbare Speicherhierarchien zu entwerfen. Erfahrung in der Verwaltung ausgeglichener persistenter Festplatten mit hohem I/O-Vorgang für GPU-Caching. Große Ausgabetensoren müssen zur Archivierung nahtlos zu GCS migriert werden.
• Netzwerk und Sicherheit: Konfigurieren von VPCs, API-Gateways und IAM-Rollen basierend auf den Best Practices des Kunden. Dies gewährleistet den sicheren Datenabruf von externen APIs und die sichere Weiterleitung an nachgelagerte Anwendungen.

2. Datenverarbeitung & -formatierung

Python ist die obligatorische Programmiersprache für dieses Projekt. Der/Die Entwickler/in muss über fundierte Kenntnisse des wissenschaftlichen Python-Stacks verfügen.


• Multidimensionale Datenverarbeitung: Expertenkenntnisse in xarray und numpy zur Bearbeitung massiver atmosphärischer Gitter.
• Cloud-native Formate: Tiefes Verständnis des Zarr-Speicherformats. Optimierung von Chunking-Strategien für parallele Operationen auf GCS erforderlich. Erfahrung in der Konvertierung älterer Formate (GRIB, NetCDF) nach Zarr ist unerlässlich.
• Paralleles Rechnen: Erfahrung mit Dask zur Verteilung speicherintensiver Aufgaben auf mehrere Kerne oder Knoten.
• CUDA & Geschäftsintegration: Verwaltung von PyTorch/CUDA-Abhängigkeiten und Integration von Modellausgaben in SQL-Datenbanken.

3. Datenaufnahmepipelines

Das Projekt erfordert den konsistenten Abruf großer Datenmengen aus externen Quellen.


• API-Integration: Entwicklung fehlertoleranter Fetcher für AWS S3 (GFS), ECMWF Open Data (IFS) und Copernicus CDS (ERA5).
• Datentransformation: Erstellung von Interpolationsskripten zur Ausrichtung eingehender GCM-Gitter an exakte 0,25-Grad-äquirektanguläre Gitter.
• Lexikon-Mapping: Standardisierung von Variablennamen verschiedener Anbieter gemäß den NVIDIA Earth-2-Standards (z. B. t2m, u100, v100).

4. Orchestrierung & Scheduling

Das System muss autonom laufen, um täglich Handelssignale bereitzustellen.


• Apache Airflow: Umfassende Erfahrung in der Erstellung von DAGs zur Orchestrierung der gesamten Pipeline.
• Betriebssicherheit: Implementierung strikter Fehlerbehandlung, automatischer Wiederholungsversuche und Alarmierungsmechanismen gemäß den Best Practices des Kunden.
• Ereignisgesteuerte Architektur: Entwicklung von Pipelines zur sofortigen Auslösung des Analog-Matchings nach Generierung des NVIDIA Earth-2-Ausgabetensors.
Anforderungen

Projektsprache:

  • Deutsch


Geplanter Projektstart: 30.03.2026
Projektende: 17.07.2026
Einsatzort: Remote
Auslastung: 75 PT

Hinweis: Falls Sie nicht angemeldet sind, werden Sie automatisch zur Einlog-Seite weitergeleitet. Erst nach der Anmeldung kann Ihre Anforderung berücksichtigt werden.

Kontakt

people4project GmbH
Lörenskogstr. 3
85748 Garching bei München
+49 (89) 55 29 39 - 40
Kontakt-Formular
Image

Vereinbarung zur Verwendung von Cookies


Allgemeine Verwendung

Wir verwenden Cookies, Tracking Pixels und ähnliche Technologien auf unserer Website. Cookies sind kleine Dateien, die von uns erstellt und auf Ihrem Gerät gespeichert werden. Unsere Website verwendet Cookies, die von uns oder von Dritten zu verschiedenen Zwecken im Rahmen der Verwendung und Funktionalität einschließlich der Personalisierung unserer Website abgelegt werden. Es ist möglich, dass Cookies verwendet werden, um zu nachzuvollziehen, wie Sie die Website verwenden und so zielgerichtete Werbung anzuzeigen.

Dritt-Anbieter

Unsere Website nutzt verschiedene Dienste von Dritt-Anbietern. Wenn Sie auf unserer Website sind, können diese Dienste anonyme Cookies im Browser des Benutzers ablegen und diese Cookies mit in der Cookie-Datei des Besuchers speichern. Im folgenden eine Liste einiger derartiger Dienste: Google, Facebook, Twitter, Adroll, MailChimp, Sucuri, Intercom und andere soziale Netzwerke, Anzeigen-Agenturen, Sicherheits-Software wie z.B. Firewalls, Datenanalyse-Unternehmen und Anbieter von Internetzugängen. Diese Dienste sammeln möglicherweise auch anonyme Identifizierungsmerkmale wie die IP-Adresse, den HTTP-Referrer, die eindeutige Geräte-Kennung und andere nicht-persönliche Informationen zur Identifizierung sowie Server Logfiles.