Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 871 résultats.
CDI
Freelance

Offre d'emploi
Data Pipeline Analyst - NL / FR

AEROW
Publiée le
Data analysis
Data management
Data visualisation

2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
Freelance

Mission freelance
DBA Oracle / Sql Server

Lùkla
Publiée le
Microsoft SQL Server
Oracle
SGBD

12 mois
450-550 €
Vélizy-Villacoublay, Île-de-France
La prestation attendue vise à mobiliser une expertise technique afin de mener à bien les montées de version applicatives des SGBD Oracle et MS SQL obsolètes : Oracle 11 à 19 & SQL 2012 à 2022. La prestation attendue pour le traitement de l’obsolescence des SGBD Oracle et SQL Server comprend les étapes et livrables suivants : • Audit des environnements existants o Recensement des versions déployées d’Oracle et SQL Server o Identification des bases de données et applications concernées o Analyse de la criticité et des dépendances o Synchronisation avec le responsable applicatif pour chaque base hébergée afin de prendre en compte les spécificités, exigences métier et contraintes opérationnelles • Évaluation des risques liés à l’obsolescence o Identification des failles de sécurité potentielles o Risques liés à la perte de support éditeur et à la non-conformité o Impact sur la performance et la stabilité du système • Proposition de scénarios de migration ou de mise à niveau o Sélection des versions cibles en conformité avec les recommandations éditeur o Planification des migrations (calendrier, priorités, méthodes) o Estimation des coûts, ressources et impacts associés • Réalisation de la migration, support et suivi o Mise à jour des SGBD dans un environnement de test puis production o Synchronisation et migration des données o Accompagnement technique durant la migration o Gestion des incidents et retour d’expérience o Collaboration étroite avec le responsable applicatif lors des phases critiques (tests, bascule, validation) • Documentation et formation o Rédaction des procédures de migration et d’exploitation o Mise à jour des référentiels o Formation des équipes techniques et des responsables applicatifs concernés • Garantir la pérennité et la conformité des environnements o Validation technique et fonctionnelle post-migration o Suivi des performances et de la sécurité o Veille technologique et recommandations pour anticiper les futures obsolescences
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Coordinateur de projet Data (Luxembourg)

EXMC
Publiée le
Gestion de projet

1 an
Luxembourg
Le consultant intègrera l’équipe Data qui a en charge la mise à disposition des données pour les différents consommateurs Data du client (BI, Data Scientists, équipes métiers, etc.). Dans ce cadre, le consultant interviendra en qualité de Coordinateur de Projet sur la gestion « end-to-end » des projets Data, depuis l’analyse et la formalisation des besoins métiers jusqu’à la livraison finale des données, en coordination avec les équipes techniques et métiers concernées. · Planifier, organiser et diriger les projets de l’initiation à la clôture. · Assurer le suivi de l’avancement des projets et la gestion des risques. · Coordonner les équipes internes et externes, veillant à une communication efficace et à la collaboration entre les parties prenantes. · Assurer la liaison entre les équipes techniques et les utilisateurs pour garantir une compréhension mutuelle des exigences et des solutions. · Collaborer avec les équipes de développement pour s’assurer que les solutions proposées sont mises en oeuvre conformément aux spécifications. · Proposer des solutions adaptées aux points bloquants identifiés et participer à leur validation. · Faciliter les réunions de travail de projet, les ateliers de travail et les sessions de revue. · Préparer et présenter des rapports d’avancement aux parties prenantes.
Freelance

Mission freelance
Consultant MOA Data / SQL – Secteur Protection Sociale

Comet
Publiée le
AMOA

1 an
400-650 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation SI, un grand acteur de la protection sociale renforce ses équipes pour accompagner une migration majeure de référentiels métiers . Ce projet à fort enjeu s’inscrit dans une feuille de route nationale avec des impacts réglementaires et opérationnels importants. Au sein d’une équipe MOA, vous interviendrez sur un projet structurant autour de la fiabilisation des données et de la migration vers un système cible fédéré . Vos responsabilités Participation à la préparation de la migration des données Fiabilisation et contrôle des référentiels Réalisation des recettes fonctionnelles et data Analyse et suivi des anomalies Interface entre équipes métiers et IT (MOA / MOE) Contribution à l’ accompagnement des utilisateurs Rédaction de livrables et documentation
Freelance

Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)

Pickmeup
Publiée le
Dataiku
Numpy
Pandas

2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Freelance

Mission freelance
Data Engineer

Codezys
Publiée le
Intelligence artificielle
Python
Snowflake

12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
CDI

Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F

CELAD
Publiée le

Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
CDI
Freelance

Offre d'emploi
Data Engineer Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Data Quality / VBA Developer (H/F)

OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI

2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
CDI

Offre d'emploi
Contrôleur de gestion & Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Merdrignac, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DBA / Ingénieur Data Senior (H/F)

SPI INFORMATIQUE
Publiée le
Git
Linux
PL/SQL

3 mois
310-490 €
Deux-Sèvres, France
Missions principales : Administration et gestion des bases de données Gestion des habilitations et des accès utilisateurs Réalisation de sauvegardes, restaurations et copies de données Gestion des environnements (développement, préproduction, production) Développement et automatisation de scripts Participation aux mises en production Maintien en condition opérationnelle (MCO) Analyse, correction et optimisation des performances Profil recherché Expérience significative en tant que DBA / Ingénieur Data Excellente maîtrise de PostgreSQL Solides compétences en scripting et automatisation Expérience sur des environnements de production Autonomie, rigueur et capacité d’analyse
Freelance

Mission freelance
Business analyst ERP / data

Pickmeup
Publiée le
Business Analyst

6 mois
500-650 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre d’un programme de transformation structurant, notre client lance un projet d’harmonisation de ses systèmes de gestion à l’échelle internationale, avec la mise en place d’un ERP Cloud unique. L’objectif est de standardiser les processus métiers et les outils sur plusieurs zones géographiques (Europe, Amérique du Nord, filiales internationales), couvrant notamment les fonctions industrielles, financières ainsi que les activités commerciales liées aux pièces et consommables. Au sein de l’équipe projet, vous intervenez en tant que Business Analyst et assurez le lien entre les équipes métiers et les équipes techniques. Vous contribuez directement à la bonne compréhension des besoins et à la qualité de leur mise en œuvre. Description du poste Cadrage et conception Analyser les processus existants et contribuer à la définition des processus cibles Participer aux ateliers avec les équipes métiers afin d’aligner les besoins avec les standards de la solution Challenger les pratiques actuelles pour favoriser l’adoption de solutions pérennes Recueil et formalisation des besoins Rédiger les spécifications fonctionnelles sous forme de user stories Structurer et prioriser les demandes en lien avec les parties prenantes Assurer la bonne compréhension des besoins par les équipes techniques Recette et validation Définir les scénarios de test et organiser les campagnes de recette Participer aux phases de tests (intégration et acceptation utilisateur) Suivre les anomalies et valider les correctifs Data et migration Contribuer aux travaux de reprise de données (analyse, mapping, nettoyage) Veiller à la qualité et à la cohérence des données migrées Coordination et accompagnement Assurer le rôle d’interface entre les équipes métiers et IT Suivre l’avancement des développements et communiquer auprès des parties prenantes Accompagner les utilisateurs dans la conduite du changement Support et documentation Participer au support fonctionnel de premier niveau Maintenir une documentation projet claire et à jour Livrables attendus Backlog fonctionnel (user stories, règles de gestion, mapping) Plans de test et cahiers de recette Dossiers d’arbitrage pour les évolutions Documentation projet structurée Langues Anglais professionnel requis Qualités Bon relationnel et sens de la communication Capacité à synthétiser et vulgariser Rigueur et sens de l’organisation Esprit d’équipe
Freelance

Mission freelance
DBA PostgreSQL / Redis (Niort 79)

AKERWISE
Publiée le
PostgreSQL

1 an
Niort, Nouvelle-Aquitaine
Dans le cadre de l’exploitation et de l’évolution de sa plateforme de stockage de données, un grand acteur du secteur assurantiel recherche un ingénieur bases de données orienté PostgreSQL et automatisation . Le consultant interviendra au sein d’un collectif agile dédié aux infrastructures de données , dans une équipe multidisciplinaire travaillant sur plusieurs technologies de bases de données et de stockage. La mission se déroule sur site à Niort avec jusqu’à 3 jours de télétravail par semaine Missions principales Gestion des habilitations et des accès Gestion et création de comptes techniques Administration des droits utilisateurs à la maille base / schéma Analyse et correction des problématiques de droits Gestion des données et des environnements Rafraîchissement d’environnements à partir de sauvegardes Copie de données entre environnements (dev, préproduction, production) Mise en œuvre et évolution de scripts existants Paramétrage et gestion de configurations (yaml, SQL) Gestion des sauvegardes et mises à jour associées Administration et exploitation des bases Création et décommissionnement de bases ou schémas Analyse des impacts lors des opérations de décommissionnement Vérification et maintien de la cohérence des droits après création Maintien en condition opérationnelle et développement Maintien en condition opérationnelle de la plateforme de données Tests de non-régression des outils de la plateforme Développement ou évolution d’outillages internes (Python, PL/pgSQL, scripts) Automatisation des opérations d’exploitation Livrables attendus Rédaction de dossiers d’expertise Déclaration et suivi des changements Réalisations techniques et mises en production Maintien en condition opérationnelle des serveurs Production de scripts d’automatisation
Freelance
CDI

Offre d'emploi
Architecte Data

R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop

1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
2871 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous