Job position

Permanent
As soon as possible
45k-65k €
5 to 10 years experience
Hybrid
Paris, France
Published on 07/10/2025

Share this job

Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise.

🎯 Vos Missions Principales
  1. Conception et Développement des Pipelines :

    • Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python.

    • Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake.

  2. Industrialisation DataOps :

    • Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products.

    • Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure).

  3. Architecture et Expertise :

    • Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données.

    • Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place.

  4. Collaboration :

    • Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business.

⚙️ Environnement et Compétences Techniques Requises

  • Big Data & Processing (Expertise Indispensable) :

    • Maîtrise d'Apache Spark (Scala ou Python/PySpark).

    • Expérience solide avec Databricks et/ou Snowflake.

  • Cloud Computing :

    • Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks).

  • Langages :

    • Expertise en Python ou Scala. Une connaissance de Java est un plus.

    • Maîtrise du SQL.

  • Industrialisation :

    • Solide expérience en DevOps/DataOps (Git, CI/CD).

    • Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée.

  • LES + : Power BI, Talend

Exemple de mission :

·      Évaluer les solutions techniques,

·      Garantir la performance et la disponibilité des plateformes data,

·      Implémenter et Orchestrer les pipelines de données,

·      Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation),

·      Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Candidate profile

Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise.

Data Engineer Sénior, minimum 6 ans d'XP
Excellent communication et compréhension
Francophone & Anglophone

Working environment

Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise.

🎯 Vos Missions Principales
  1. Conception et Développement des Pipelines :

    • Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python.

    • Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake.

  2. Industrialisation DataOps :

    • Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products.

    • Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure).

  3. Architecture et Expertise :

    • Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données.

    • Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place.

  4. Collaboration :

    • Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business.

⚙️ Environnement et Compétences Techniques Requises

  • Big Data & Processing (Expertise Indispensable) :

    • Maîtrise d'Apache Spark (Scala ou Python/PySpark).

    • Expérience solide avec Databricks et/ou Snowflake.

  • Cloud Computing :

    • Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks).

  • Langages :

    • Expertise en Python ou Scala. Une connaissance de Java est un plus.

    • Maîtrise du SQL.

  • Industrialisation :

    • Solide expérience en DevOps/DataOps (Git, CI/CD).

    • Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée.

  • LES + : Power BI, Talend

Levallois-Perret, Île-de-France
20 - 99 employees
IT services
Inventiv'IT est un cabinet regroupant des experts, des partenaires et des consultants qui accompagnent nos clients dans le diagnostic, la mise en place de métrologies et le déploiement de solutions adaptées. Nous sommes experts sur 2 axes majeurs du Data Management : - le Big Data : • avec un catalogue de formations au Big Data (présentation, fondamentaux SI et métiers, analyse, outils Big Data etc.) • l'étude du système d'Information et la réalisation de POC ou de POV. • la définition d'une stratégie et d'une politique de la gouvernance des Data adaptées • l'accompagnement dans le déploiement des solutions Big Data - la Business Intelligence (ou Informatique Décisionnel) et le Smart BI : • l'étude, la définition des besoins et la préconisation de solutions adaptées • l'accompagnement dans la réalisation du projet : architecture, développement et déploiement des outils • l'accompagnement et la conduite du changement via des formations, des plans de communication pédagogique et le transfert des compétences • l'assurance d'experts techniquement compétents (Oracle, BI Apps, DACC, Tableau Software, Qlikview, ...) qui pilotent également les migrations et l'évolution des outils et des besoins de nos clients. Inventiv'IT est l'expert de la valorisation des données d'entreprises.

Apply to this job!

Find your next job from +9,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Data Engineer

Inventiv IT

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us