Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 404 résultats.
Freelance
CDI

Offre d'emploi
Expert IBM Infosphere - Data Replication

VISIAN
Publiée le
AS/400
IBM DataStage

1 an
Paris, France
Contexte Dans le cadre du programme qui vise à construire une Data Platform intégrée , la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud) . Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace. Nous recherchons un Expert IBM IDR qui aura pour mission de stabiliser la solution, améliorer la scalabilité et accompagner l'élargissement du périmètre des données répliquées.
Freelance

Mission freelance
Data-AI-Analytics / Business Intelligence

Nicholson SAS
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI

6 mois
300-420 €
Obernai, Grand Est
Consultant Data & Enterprise Architecture Informations Pratiques: Secteur : Industrie / Excellence Opérationnelle Localisation : Obernai (67) – Présentiel Démarrage : ASAP Durée : Jusqu’au 21/09/2026 (Visibilité long terme) Contexte de la mission Dans le cadre d’une transformation organisationnelle majeure ("Transform 2025"), le groupe souhaite aligner son écosystème digital sur sa nouvelle structure. L'enjeu est de piloter l'adaptation des outils d’ Enterprise Architecture (LeanIX) et la chaîne de valeur Data & Analytics associée. Vos Missions Rattaché(e) à l’équipe Enterprise Architecture, vous intervenez sur l’ensemble du cycle de données, du paramétrage de l’outil métier à la restitution analytique : Architecture & Paramétrage : Ajuster la configuration de LeanIX pour refléter la nouvelle structure organisationnelle. Data Engineering (Stack Azure) : Adapter les flux et le modèle de données (ETL, bases de données) pour garantir la continuité du reporting. Data Visualization : Mettre à jour et optimiser les rapports Power BI existants. Prospective : Participer à l’étude de faisabilité et à l’évaluation de la solution ARIS comme alternative stratégique. Expertise Technique & Livrables Configuration EA : Paramétrage expert LeanIX. Ingénierie de données : Azure Data Factory, Azure Synapse (Dedicated SQL Pool), Azure Functions (Python), déploiement via scripts Bicep. Business Intelligence : Modèles sémantiques et rapports Power BI. Documentation : Rédaction de l’ensemble des supports techniques en anglais . Profil Recherché Expert(e) en Data/BI avec une sensibilité forte pour l’architecture d’entreprise. Expérience : 4 à 10 ans (Profil Confirmé à Expert). Compétences clés : Maîtrise de l’écosystème Azure, SQL, Python et Power BI. Une connaissance de LeanIX ou ARIS est un atout majeur. Soft Skills : Autonomie, force de proposition et capacité à naviguer dans un environnement de transformation. Langues : Français et Anglais courants. Conditions de la prestation Grille de prix (TJM max) : Confirmé (4-7 ans) : 300 € Senior (8-10 ans) : 360 € Expert (+10 ans) : 420 € Critères d'évaluation : Respect des jalons, conformité aux standards de qualité internes et proactivité dans la gestion des interfaces métiers.
CDI

Offre d'emploi
Contrôleur de gestion & Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Merdrignac, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer (Rennes) H/F

LeHibou
Publiée le
DBT
Microsoft Power BI
Snowflake

3 mois
300-400 €
Rennes, Bretagne
Notre client dans le secteur Assurance recherche un/une Data Engineer H/F Description de la mission: Pour accélérer les travaux, notre client — acteur majeur de l’assurance — recherche un Data Engineer disponible rapidement pour une mission courte et ciblée. Ce besoin est ponctuel mais stratégique dans le cadre d’un projet décisionnel, la DSI impose une finalisation impérative avant fin juin 2026 . Le Data Engineer interviendra en renfort de l’équipe Data pour : Migrer des reporting Power BI actuellement basés sur des fichiers vers Snowflake . Préparer et structurer les données dans Snowflake pour une future exploitation sous Tableau . Participer à la mise en place ou à l’ajustement des pipelines via DBT . Réaliser un peu de transformation via Talend si nécessaire. Garantir la qualité, la performance et la fiabilité des flux migrés. Collaborer avec les équipes internes pour respecter les délais imposés par la DSI.
Freelance

Mission freelance
Data Analyst

PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance

1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Alternance

Offre d'alternance
Senior Data Engineer CDI (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Apache Spark
CI/CD

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Ingineer Databriks

Nicholson SAS
Publiée le
Databricks
PySpark
Python

9 mois
Paris, France
Bonjour, Dans le cadre d’un programme stratégique autour de la data, nous recherchons plusieurs Data Engineers Databricks pour intervenir sur une plateforme à fort enjeu. 📍 Localisation : France – 100% Remote 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 💰 TJM (selon séniorité et localisation) Paris : Séniorité 3 : 580 € Séniorité 4 : 660 € Séniorité 5 : 740 € Province : Séniorité 3 : 520 € Séniorité 4 : 590 € Séniorité 5 : 670 € 🚀 Contexte & Missions Dans le cadre du développement d’une usine data (plateforme Databricks) , vous interviendrez pour accélérer la mise en œuvre de cas d’usage data à forte valeur ajoutée. L’objectif est de renforcer les équipes avec 6 Data Engineers (confirmés à seniors). À ce titre, vos missions seront : Développer et industrialiser des pipelines de données sur Databricks Participer à la mise en œuvre de cas d’usage data Optimiser les traitements et la performance des workflows data Contribuer à l’architecture et à l’évolution de la plateforme data Garantir la qualité, la fiabilité et la traçabilité des données 🛠️ Environnement technique Databricks (Data Intelligence Platform) Azure Databricks Apache Spark Python SQL 🎯 Profil recherché Data Engineer Databricks Expérience : à partir de 3 ans (profils confirmés à seniors) Bonne maîtrise des environnements data modernes et distribués Capacité à travailler en autonomie dans un contexte agile ✅ Compétences clés Développement de pipelines data sur Databricks Maîtrise de Spark (PySpark) Solide niveau en Python & SQL Bonne compréhension des architectures data (batch / streaming) 💡 Mission long terme avec forte visibilité.
Freelance
CDI

Offre d'emploi
Tech Lead ( Luxembourg)

EXMC
Publiée le
Java
Jenkins
Kubernetes

1 an
Luxembourg
Dans ce cadre, la prestation consiste à contribuer à/au(x) : •L'évolution d’applications d'investisssement de la salle de marchés. •La mise en place de la conception et le développement des nouvelles fonctionalités de la salle de marché •L'analyse et résolution des problèmes •Evolutions d’architecture du SI de la salle des marchés •Découpage et au chiffrage des développements à mettre en place sur la base de user stories •Documentation technique des développements •Mise en place et maintien des tests unitaires des développements •Support de production •Release management et à la mise en production des différents livrables produits •L'assistance sur la plateforme d'integration continue (Jenkins, Nexus, Sonar, XlDeploy, Docker) •La réduction de la dette technique et l'amélioration de la couverture des tests Les livrables attendus sont : •Développements des fonctionalités spécifiées par les différents Utilisateurs et/ou Bénéficiaires. •Documentation des développements •Tests unitaires des développements •Suivi dans JIRA •Mises en production •Support
Freelance

Mission freelance
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le
API
Python

12 mois
450-550 €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance
CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL

3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
CDI
Freelance

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Freelance

Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)

HOXTON PARTNERS
Publiée le
Data management

3 ans
680-900 €
Paris, France
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🌐 Langue : Anglais (obligatoire)
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
CDI

Offre d'emploi
Data Analyst GCP

█ █ █ █ █ █ █
Publiée le
BigQuery
SQL

Île-de-France, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte IAM H/F

Les Filles et les Garçons de la Tech
Publiée le
Active Directory
Administration Windows
IAM

6 mois
400-590 €
Toulouse, Occitanie
Pour l'un de nos clients dans le secteur de l'aéronautique, nous recherchons un architecte IAM H/F, pour intervenir sur des sujets à forte valeur ajoutée autour de la gestion des identités et des accès. Missions : Accompagner les équipes sur l’ architecture IAM (définition, évolution, bonnes pratiques) Intervenir en support des trains/projets (logique Agile / delivery) Contribuer à l’amélioration continue des solutions IAM existantes Apporter votre expertise sur les environnements Active Directory / Windows Garantir la cohérence et la sécurité des architectures d’identités
Freelance

Mission freelance
PO DATA - Expérience data clinique / santé impératif

Net technologie
Publiée le
Data governance
Data quality

1 an
France
Nous recherchons un consultant PO expérimenté sur des données cliniques en environnement international (fluent english). Vos missions : Intervenir sur des initiatives liées aux données opérationnelles cliniques en faisant le lien entre les équipes métiers, cliniques et data engineering. ❇️ Recueillir et formaliser les besoins métiers autour des données cliniques ❇️ Traduire les exigences fonctionnelles en spécifications data exploitables ❇️ Contribuer à la qualité, gouvernance et traçabilité des données ❇️ Animer des ateliers et coordonner les parties prenantes ❇️ Travailler en environnement Agile (Jira, Confluence)
2404 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous