Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 951 résultats.
Freelance

Mission freelance
Data Engineer

Root-MENU
Publiée le
Python
SQL

6 mois
500-800 €
Paris, France
En tant que Data Engineer, vous interviendrez sur la conception, la mise en place et l’évolution des pipelines de données, avec un enjeu fort autour de la fiabilité et de la performance des traitements. Au sein de l’équipe data, vos missions seront les suivantes : ⋆ Concevoir et maintenir des pipelines de données (ETL/ELT) ⋆ Assurer la collecte, le nettoyage et la transformation des données ⋆ Optimiser les performances des flux et des bases de données ⋆ Garantir la qualité et la disponibilité des données ⋆ Collaborer avec les équipes data (analystes, data scientists) pour répondre aux besoins métiers ⋆ Participer aux choix techniques liés à l’architecture data
CDI

Offre d'emploi
Data Scientist - IA Générative (H/F)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow

43 800 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Freelance
CDI

Offre d'emploi
Data Engineer TERADATA ET DATAVIZ

WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)

12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions sous technologie Teradata, en étroite collaboration avec les autres membres de la squad et de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage, traitement et usages, mise à disposition : une expérience des environnements Unix, une forte expertise SQL et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous interviendrez à la fois sur des activités projet mais aussi sur du RUN (suite des traitements de production, analyse/résolution d’incidents, optimisations, amélioration continue). Ces interventions sont primordiales, chaque membre de la squad participe au traitement des incidents et à l’amélioration continue du périmètre applicatif.
CDI

Offre d'emploi
Lead Developer Backend - Expertise IA & Agentique - Paris (H/F)

EASY PARTNER
Publiée le
C/C++
Data science
Go (langage)

71k-90k €
Paris, France
Contexte du poste Vous êtes passionné par l'innovation et l'intelligence artificielle ? Rejoignez une entreprise en pleine croissance spécialisée dans le développement de solutions numériques avancées, située en plein cœur de Paris. Notre département R&D, composé d'une équipe pluridisciplinaire de talents, cherche à agrandir ses rangs avec un Lead Developer Backend afin de piloter des projets stratégiques liés à l'IA et aux systèmes agentiques. Ce poste clé est à pourvoir pour renforcer notre expertise technique et soutenir notre croissance face aux défis complexes du numérique, tout en collaborant étroitement avec la direction et les équipes de base de données. Missions Missions principales - Concevoir, architecturer et implémenter notre nouveau système avec une forte composante IA. - Assurer le pilotage technique et l'accompagnement de l'équipe dans la réflexion et l'optimisation technologique. - Travailler en étroite collaboration avec la direction R&D pour aligner les objectifs stratégiques. - Prendre en charge l'intégralité du cycle de vie des projets, de la définition des besoins à leur déploiement. Missions annexes - Participer activement à la gestion des incidents et à l'amélioration continue. - Contribuer à la veille technologique et à l'innovation au sein de l'entreprise.
Freelance

Mission freelance
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le
API
Python

12 mois
450-550 €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
CDI

Offre d'emploi
Senior Data Engineer F/H

Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Freelance

Mission freelance
Data Governance Specialist - Data Catalog

Codezys
Publiée le
Apache Airflow
Collibra
Databricks

6 mois
Lille, Hauts-de-France
Contexte de la mission Le Data Governance Specialist rejoint l’équipe Expertise du Centre d’Expertise (CoE) Data Governance . Cette équipe a pour mission d’élaborer des principes communs, de favoriser la transversalité des rôles et des processus de gouvernance des données, ainsi que d’industrialiser l’utilisation de l’expertise afin de résoudre les problématiques rencontrées par les Digital Units lors de l’exécution des processus de gestion des données. La mission consiste à assurer une expertise à la fois fonctionnelle et technique concernant la solution de Data Catalog de Decathlon ( Collibra ) et son intégration dans l’écosystème de la Data & Agentic Platform . Elle inclut également une participation active aux chantiers stratégiques de transformation, tels que le AI Governance Framework , la Trust AI et la Data Quality by Design . Objectifs et livrables Développement produit / Configuration du Data Catalog Collibra : Conception de solutions pour répondre aux problématiques des utilisateurs de Collibra et mise en œuvre de ces solutions dans l’outil (administration, configuration, développements spécifiques si nécessaire). Validation des spécifications, développement et déploiement des workflows. Assistance pour la collecte des demandes et des requêtes des utilisateurs, ainsi que leur tri. Intégration du Data Catalog (Collibra) avec l’écosystème technologique de la donnée : Participer à la conception, à la mise en œuvre et à l’exploitation du système d’échange de métadonnées entre le Data Catalog, les solutions composant la Data Platform de Décathlon et les différents référentiels de métadonnées de l’entreprise. Collaborer avec l’équipe d’architecture pour assurer une intégration fluide. Configurer les capacités Edge en vue de la collecte des différentes zones de données. Développer et maintenir les connexions (crawling, APIs, connecteurs), assurer l’échange d’informations entre les systèmes IT et le Data Catalog (en interaction avec le support technique de Collibra). Intégrer le Data Catalog au sein du Data Quality Metrics Store. Participer activement au programme de Data Contract.
CDI

Offre d'emploi
Alternance - Chargé de Projets DATA & B.I H/F

█ █ █ █ █ █ █
Publiée le
Big Data
Microsoft Excel
Python

Vert-le-Grand, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Analyst

GRLCI
Publiée le
Git
Python
SQL

Boulogne-Billancourt, Île-de-France
Nous recherchons pour l'un de nos client, un data Analyst afin de renforcer l'équipe existante. Les missions seront les suivantes : - Analyses opérationnelles et études ad hoc : o Réaliser des analyses exploratoires et des études descriptives (segmentation, cohortes, tendances) avec accompagnement, o Produire des synthèses et recommandations claires pour les opérationnels. - Support à l’industrialisation et aux pipelines : o Contribuer à la création et à l’exécution de scripts ETL/ELT simples, o Participer aux tests et à la mise en production sous la supervision de l’équipe data engineering. - Collaboration et acculturation : o Travailler avec les équipes produit, marketing, finance et opérationnelles pour comprendre leurs besoins, o Participer à des actions d’acculturation et à la formation interne sur l’usage des analyses et dashboards.
CDI
Freelance

Offre d'emploi
Développeur Python (H/F)

Aleysia
Publiée le
Agile Scrum
Big Data
Docker

12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Freelance

Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python

1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance
CDI

Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance

Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud

12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Freelance

Mission freelance
Data Analyst Professional

Codezys
Publiée le
Data visualisation
Python
SQL

12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
951 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous