Lead Backend Engineer — Crawl & AI
Jinka
full-remoteleadpermanentbackenddevops Full remote - Paris, FR Yesterday via WTTJ
See how well this job matches your profile
Sign up to get an AI match score and generate a tailored application in seconds.
Get your match scoreTags
TypeScriptNode.jsKubernetesBullMQElasticsearchPuppeteerCI/CDData AnalysisAgileWeb Crawling
About the role
Lead Backend Engineer — Crawl & AI
Vous rejoignez Jinka pour améliorer et industrialiser la collecte d’annonces immobilières et les pipelines alimentant l’expérience produit.
Missions
- Améliorer la couverture, la fraîcheur et la qualité des annonces récupérées par le crawler.
- Ajouter de nouvelles sources d’annonces, fiabiliser les flux existants et industrialiser les pipelines.
- Piloter des projets de bout en bout, de l’analyse à la mise en production, avec des pratiques agiles.
Profil recherché
- Approche Data-first : mesurer l’impact avant de coder (faire des requêtes pour diagnostiquer).
- Aimer les défis du web réel : anti-bots, rate limiting, pages dynamiques, encodages complexes.
- Pragmatique : privilégier des solutions robustes (ex. regex) plutôt qu’une approche ML sur le long terme.
- Autonomie : capacité à mener un sujet de A à Z avec peu de process.
- Prod-ready : mise en production dès la première semaine, pas de fonctionnalités en attente.
- À l’aise avec l’infra/DevOps : déploiements, supervision et écoute des signaux (ex. Sentry).
- AI-Augmented : utiliser Copilot/Claude/Cursor pour itérer plus vite, tout en restant le pilote.
Stack & outils (principaux)
- Crawler : TypeScript (migration), BullMQ, Inngest, Runpod, Puppeteer, FTP, MySQL
- Matching : TypeScript, Elasticsearch, MySQL
- Infra : Kubernetes, GitLab CI/CD
- Observabilité : logs Signoz, métriques Grafana/Prometheus, erreurs Sentry
- Planification : Fibery
Conditions
- Télétravail total ou bureau à Paris selon vos besoins.
About Jinka
Jinka est une startup innovante spécialisée dans l’immobilier. Sa mission consiste à rendre la recherche immobilière plus simple, rapide et intelligente grâce à des systèmes de collecte (crawler) et des traitements backend/AI. L’équipe vise un impact direct sur l’expérience de millions d’utilisateurs.
Scraped 4/24/2026