Die Herausforderung
joblocal betreibt eine der führenden Plattformen für regionale Stellenanzeigen in Deutschland. Das Kerngeschäft: Reichweite für Stellenanzeigen generieren und diese gezielt auf relevanten Kanälen ausspielen. Doch der bestehende AdTech-Stack basierte auf einem gewachsenen PHP-System, das den steigenden Anforderungen an Performance, Skalierbarkeit und Echtzeitverarbeitung nicht mehr gewachsen war.
Gleichzeitig wollte joblocal nicht nur ein neues System bekommen, sondern auch das eigene Entwicklerteam befähigen, dieses langfristig weiterzuentwickeln. Die Herausforderung war also zweifach: eine technische Modernisierung und ein nachhaltiger Kompetenzaufbau.
Der Ansatz: Pair-Programming
Statt eines klassischen Auftragsprojekts wählten wir einen kollaborativen Ansatz: innFactory-Entwickler arbeiteten über mehrere Monate in gemischten Teams direkt mit den joblocal-Entwicklern zusammen. Jede Codezeile wurde gemeinsam geschrieben, jede Architekturentscheidung gemeinsam getroffen.
Dieser Ansatz bringt mehrere Vorteile:
- Sofortiges Code-Review: Fehler werden während der Entstehung erkannt, nicht erst Wochen später
- Kontexttransfer: Das joblocal-Team kennt jeden Winkel des neuen Systems, weil es aktiv an der Entwicklung beteiligt war
- Nachhaltige Befähigung: Nach Projektende kann das Team selbstständig weiterentwickeln
Die technische Lösung
Targeted Performance Service
Das neue System ermöglicht die intelligente Steuerung von Reichweitenkampagnen für Stellenanzeigen. Basierend auf Datenanalysen werden Anzeigen automatisch auf den Kanälen platziert, die für die jeweilige Zielgruppe die höchste Conversion-Wahrscheinlichkeit bieten.
Moderne Architektur
| Komponente | Technologie |
|---|---|
| Backend | Play Framework, Scala |
| Data Lake | Databricks, Apache Spark |
| Streaming | AWS Kinesis |
| Datenbank | DynamoDB |
| Analytics | BigQuery |
| Cloud | Multi-Cloud (AWS & GCP) |
Data Lake mit Databricks
Die eigentliche Intelligenz des Systems liegt im Data Lake: Hier fließen Kampagnen-Performance-Daten, Klickraten und Conversion-Metriken zusammen. Spark-Jobs analysieren diese Daten und liefern die Grundlage für die automatisierte Kampagnenoptimierung. Durch Databricks können Data Scientists und Entwickler gemeinsam an ML-Modellen arbeiten, ohne sich um Infrastruktur kümmern zu müssen.
Multi-Cloud-Strategie
Das System nutzt bewusst Services beider großen Cloud-Provider: AWS Kinesis für Echtzeit-Streaming, DynamoDB für schnelle Key-Value-Zugriffe, aber BigQuery auf GCP für komplexe analytische Abfragen. Diese Best-of-Breed-Strategie ermöglicht optimale Performance bei vertretbaren Kosten.
Das Ergebnis
Nach mehreren Monaten intensiver Zusammenarbeit verfügt joblocal über einen modernen, skalierbaren AdTech-Stack, der den Anforderungen an Echtzeit-Kampagnensteuerung gewachsen ist. Wichtiger noch: Das eigene Entwicklerteam hat die Kompetenz aufgebaut, das System eigenständig weiterzuentwickeln und neue Features zu implementieren.
Das Projekt zeigt, wie Technologietransfer funktionieren kann: nicht durch Dokumentation oder Schulungen, sondern durch gemeinsames Arbeiten am echten System.
Verknüpfte Leistungen: Softwareentwicklung | KI & Machine Learning

