Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 024 résultats.
CDI

Offre d'emploi
ALTERNANCE - Assistant(e) Data Référentiel (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Microsoft Excel
SharePoint

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance

Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud

12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Freelance
CDI

Offre d'emploi
Data Engineer

TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL

12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Freelance

Mission freelance
Data Platform Engineer - Metadata

CAT-AMANIA
Publiée le
Databricks
FastAPI
Github

1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Freelance
CDI
CDD

Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python

IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks

8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Freelance

Mission freelance
Consultant Senior Data Management / Data Quality

Inventiv IT
Publiée le
Collibra
Data governance
Data management

6 mois
550-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data , nous recherchons un Consultant Senior Data Management / Data Quality pour structurer et industrialiser les pratiques de qualité des données. La mission vise à mettre en place un cadre global de Data Quality Management ainsi qu’une offre de services Data Quality , en interaction avec les équipes Data, IT et métiers. Missions principalesStructuration Data Quality Définir et déployer un framework Data Quality Management . Mettre en place les processus de gestion de la qualité des données . Formaliser la gouvernance Data Quality (rôles, RACI, comitologie) . Définir les dimensions de qualité et les règles associées. Pilotage & conduite de programme Piloter ou contribuer à des projets Data complexes et transverses . Animer des ateliers métiers et IT (élicitation, co-construction). Assurer l’alignement entre enjeux métiers, Data et IT . Contribuer à la structuration d’une offre de services Data Quality . Production & conduite du changement Produire les livrables structurants (templates, référentiels, bonnes pratiques). Concevoir des supports d’acculturation et de vulgarisation . Accompagner la conduite du changement et l’adoption des pratiques Data Quality. Contribuer à l’enrichissement des référentiels documentaires . Architecture & alignement technique Collaborer avec les équipes techniques sur la définition d’une architecture Data cible . S’inscrire dans un environnement basé sur une plateforme Data moderne (ex : Databricks) . Environnement technique Data Management & Data Governance Data Quality Management (DQM) Data Catalog : Collibra Plateformes Data : Databricks Méthodologies : Agile Outils documentaires / collaboratifs
Freelance
CDI

Offre d'emploi
Développeur BI / .NET (SSIS, SSAS, Azure)

Management Square
Publiée le
.NET
Azure
Azure Data Factory

1 an
50k-55k €
500-550 €
Paris, France
Contexte de la mission Dans le cadre de la modernisation d’un outil interne de pilotage de données financières (type cube décisionnel), une organisation recherche un consultant BI expérimenté pour accompagner la transformation technique et fonctionnelle de cette plateforme. L’outil permet le suivi d’indicateurs clés liés à l’activité (notamment des données financières et opérationnelles) et est utilisé par plusieurs départements métiers. Objectifs de la mission Le consultant interviendra sur plusieurs axes : Migration d’une architecture décisionnelle existante vers des technologies plus modernes Transition vers une plateforme cloud (Microsoft Azure) Enrichissement fonctionnel de l’outil Mise en place de mécanismes d’alerte automatisés Support opérationnel et maintenance évolutive Responsabilités principales 1. Modernisation de l’architecture Migration d’un modèle SSAS multidimensionnel vers un modèle tabulaire Optimisation des performances et des modèles de données Adaptation et migration des flux d’intégration de données (SSIS) Refonte et migration des rapports (SSRS) Déploiement de la solution sur Azure (Analysis Services, Data Factory, SQL Database, etc.) Intégration de nouvelles sources de données via API 2. Évolutions fonctionnelles Développement de nouveaux indicateurs et KPI Amélioration des règles de gestion et des calculs existants Intégration de nouvelles sources de données Extension du modèle de données 3. Mise en place d’un système d’alerting Définition des événements déclencheurs (seuils, anomalies, etc.) Développement de mécanismes d’alertes automatisées (emails, dashboards…) Intégration fluide avec l’écosystème existant 4. Support et maintenance Support applicatif de niveau 2/3 Analyse et résolution des incidents Collaboration avec les utilisateurs métiers Garantie de la stabilité et de la performance de la solution
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 8vpph62lhn
CDI

Offre d'emploi
Expert Data / IA – Prévision des ventes H/F

DAVRICOURT
Publiée le
Intelligence artificielle

50k-55k €
Arras, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Expert Data / IA – Prévision des ventes pour l'un de nos clients. Vous interviendrez sur un projet stratégique sur site à proximité d'Arras ou en full remote. À ce titre, vos missions quotidiennes seront les suivantes : - Analyser les mécanismes actuels de prévision des ventes et les sources de données existantes ; - Évaluer la qualité, la structure et la fiabilité des données (ERP, historiques, tables métiers) ; - Identifier les variables clés influençant les ventes (saisonnalité, contraintes logistiques, etc.) ; - Concevoir et développer des modèles de prévision (statistiques et machine learning) ; - Tester, comparer et optimiser les modèles en fonction des spécificités métiers ; - Industrialiser les modèles (automatisation, intégration SI, pipelines data) ; - Structurer les flux de données et garantir la robustesse des solutions ; - Mettre à disposition des outils de restitution et faciliter leur adoption par les équipes métiers ; - Accompagner les équipes et proposer des axes d'amélioration à fort impact business.
Freelance

Mission freelance
Architecte Talend / Senior Data Management - PLUS DE 10 ANS D'EXPERIENCE

NEXTWYN
Publiée le
Data management
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)

12 mois
Paris, France
Description du poste Dans le cadre de notre accord-cadre, nous recherchons un Architecte / Consultant Senior spécialisé en Data Management , avec une expertise confirmée sur l’écosystème Talend. La mission s’inscrit dans un environnement technique existant et nécessite une capacité d’intervention en totale autonomie , sans phase de montée en compétence préalable. Le consultant interviendra sur : la conception et l’architecture des flux de données , l’optimisation des traitements et de la qualité des données, la mise en place et l’évolution des solutions d’intégration, la restitution et la valorisation des données. Il participera également activement aux échanges techniques , à l’ animation des réunions projets et à la production de livrables d’architecture .
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
CDD
CDI
Freelance

Offre d'emploi
Architecte Solutions SI- Expertise Data Modélisation 2

KEONI CONSULTING
Publiée le
COBOL
Java
TOGAF

18 mois
20k-60k €
250-750 €
Paris, France
CONTEXTE Dans le cadre de l’équipe Architecture Solutions SI de la Direction Stratégie SI Architecture et Cloud, En tant qu’Architecte Solutions SI / Expertise Data Modélisation : MISSIONS - Organiser et suivre l’accompagnement nécessaire des projets dans la définition de leur architecture de solution, en lien avec la stratégie et processus métier d’une part et les objectifs de rationalisation et d’alignement du SI d’autre part, et dans le respect du cadre d’architecture. - Définir, promouvoir, enrichir et suivre la bonne mise en œuvre opérationnelle du cadre normatif de constitution du SI. - Réaliser la modélisation fonctionnelle des objets Métiers dans le cadre du Modèle Fonctionnel . L'architecte avec son expertise sur les couches Data / Modélisation prends en charge les travaux associés au MF (Modèle Fonctionnel) correspondant à la modélisation fonctionnelle des objets Métiers définis depuis le MOM (Modèle Objets Métiers), en lien le DataOffice ou les Direction métiers. Dans le cadre des demandes projets, l’architecte définit le MF, met à jour la cartographie dans Mega HOPEX et peut être amené à accompagner les équipes de réalisation/développement dans la définition des MLD, Modèles logiques de données, déclinés depuis le MF (et potentiellement en support technique DBA Etudes, avec le MPD) Le MF, et ses déclinaisons, sont la base de l’ensemble des modèles de données des applications métiers et DataHub.
Freelance

Mission freelance
[LFR] Data Engineer TERADATA ET DATAVIZ, Sénior à Paris - 1456

ISUPPLIER
Publiée le

5 mois
300-405 €
Paris, France
Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
CDI

Offre d'emploi
Data Analyst senior Digital product F/H

█ █ █ █ █ █ █
Publiée le
SQL

Auvers-sur-Oise, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Chargé de data et performance livraison dernier kilomètre F/H

█ █ █ █ █ █ █
Publiée le
Python
SQL

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1024 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous