Senior Backend Engineer — Crawl & AI
Jinka
full-remoteseniorpermanentbackenddevops Full remote - Paris, FR Today via WTTJ
See how well this job matches your profile
Sign up to get an AI match score and generate a tailored application in seconds.
Get your match scoreTags
TypeScriptNode.jsPuppeteerBullMQElasticsearchKubernetesCI/CDSentryWeb CrawlingData Pipelines
About the role
Rôle
Senior Backend Engineer — Crawl & AI (remote) Tu rejoins l’équipe Crawler de Jinka pour contribuer à la couverture, à la fraîcheur et à la qualité des annonces immobilières, en livrant des systèmes prod-ready et en industrialisant des pipelines de mise à jour.
Missions
- Améliorer activement la couverture, la fraîcheur et la qualité des annonces.
- Ajouter de nouvelles sources, fiabiliser les flux existants et maintenir les flux IA.
- Analyser les retards, améliorer les performances et industrialiser les pipelines pour une mise à jour en temps réel.
Profil recherché
- Approche data-first : mesurer l’impact avant d’implémenter.
- Capacité à affronter le web “tel qu’il est” : rate limiting, anti-bots, pages dynamiques, encodages.
- Pragmatique : préférer des solutions robustes (ex. regex) plutôt que des modèles parfaits trop tard.
- Autonomie et ownership de sujets de bout en bout.
- Prod-ready : déployer rapidement, sans fonctionnalités dormantes.
- À l’aise avec l’infra/DevOps et la supervision (métriques, Sentry).
- Usage quotidien d’outils AI-augmentés (Claude, Copilot, Cursor) en restant le pilote.
Stack & environnement
- Crawler : TypeScript (migration), BullMQ, Inngest, Runpod, Puppeteer, FTP, MySQL.
- Matching : TypeScript, Elasticsearch, MySQL.
- Infra : Kubernetes.
- CI/CD : GitLab CI/CD.
- Outils/observabilité : logs (SigNoz), métriques (Grafana/Prometheus), erreurs (Sentry).
- Planification/outils : Fibery.
Conditions
- Full remote (choix télétravail total ou bureau à Paris selon convenance).
About Jinka
Jinka est une startup innovante dans le secteur de l’immobilier. L’équipe Crawler travaille à la couverture, à la fraîcheur et à la qualité des annonces, avec des pipelines de données et des flux IA pour maintenir des mises à jour en temps réel.
Scraped 4/7/2026