Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 824 résultats.
CDI

Offre d'emploi
Chef de Projet Build to Run – Réseau / Data / Telecom (H/F)

5COM Consulting
Publiée le
Pilotage
Ticketing

40k-50k €
Saint-Denis, Île-de-France
Rattaché(e) à une entité Production & Opérations, vous interviendrez sur des projets à forts enjeux autour des infrastructures Réseau, Data et Télécom. Votre rôle sera central dans la préparation, la sécurisation et la coordination des mises en production (MEP) , en lien étroit avec les équipes de conception (Build), d’exploitation (Run), de sécurité et les métiers. 🚀 Vos missions principales Piloter les activités Build to Run sur un portefeuille de projets (cadrage, planning, gestion des jalons Go/No Go) Organiser et animer les instances projet (comités, ateliers, points de synchronisation) Construire et suivre les plans de mise en production (bascule, repli, prérequis) Garantir l’ exploitabilité des solutions dès leur conception Coordonner l’ensemble des parties prenantes (équipes techniques, sécurité, partenaires) Identifier et piloter les risques liés aux MEP Assurer un reporting régulier et structuré auprès des responsables Contribuer à l’ amélioration continue des processus Build to Run (REX, standardisation) 🛠️ Environnement technique Réseaux de collecte / infrastructures Télécom Outils de supervision et d’inventaire (ex : Zabbix, NetBox, Nautobot…) Automatisation / industrialisation (scripts, CI/CD, orchestrateurs) Outils de gestion et de suivi (ServiceNow, Jira ou équivalents) 📦 Livrables attendus Dossiers de cadrage Build to Run Plans de mise en production complets (MEP, bascule, repli) Dossiers d’exploitabilité et documentation Run Planning consolidé des mises en production + reporting Comptes-rendus de comités et ateliers Retours d’expérience (REX) et recommandations d’amélioration
Freelance

Mission freelance
Consultant data tracking & analytics

SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript

6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
Freelance
CDD
CDI

Offre d'emploi
Expert Data Gouvernance H/F

Avanda
Publiée le
Apache Airflow
Collibra
Databricks

12 mois
Paris, France
Nous recherchons, dans le cadre du renforcement des equipes Data Governance d'un de nos clients au rayonnement international, un.e Expert.e Data Governance. Ce poste est base a Paris. Poste ouvert au statut freelance. Au sein de l'équipe Data Governance, l'Expert.e Data Gouvernance interviendra sur l'évolution fonctionnelle et technique du Data Catalog de l'entreprise et son intégration au sein d'un écosystème data & agentic platform en pleine structuration, ainsi que sur des chantiers stratégiques tels que l'AI Governance Framework et la mise en oeuvre d'une démarche Data Quality by Design. Les missions principales Administration, configuration et développement de workflows sur le Data Catalog Collecte et priorisation des besoins utilisateurs Conception et mise en oeuvre des échanges de métadonnées avec la plateforme data (crawling, APIs, connecteurs) Synchronisation avec les équipes architecture Intégration avec le Data Quality Metrics Store Participation au programme Data Contract
Freelance

Mission freelance
Engineering Manager Data

HAYS France
Publiée le
Snowflake

6 mois
Nouvelle-Aquitaine, France
Notre client dans le secteur Santé recherche un/une Engineering Manager Data H/F Description de la mission: Dans le cadre de la modernisation de sa plateforme Data, le client lance un programme stratégique de migration de son Data Warehouse vers Snowflake. Ce programme s’inscrit dans une transformation globale visant à migrer des environnements legacy vers une architecture cloud scalable, améliorer la qualité, la gouvernance et l’accessibilité des données, et accélérer les usages métiers en BI, analytics et data science. L’environnement est international avec de forts enjeux de coordination entre équipes IT et métiers. Objectifs de la mission En tant qu’Engineering Manager Data, la mission consiste à assurer le pilotage technique et opérationnel de la migration vers Snowflake ainsi que le management des équipes Data. Missions principales • Cadrage et pilotage de la migration vers Snowflake • Définition de l’architecture Data cible • Management et structuration d’une équipe de Data Engineers • Mise en place des bonnes pratiques en qualité, monitoring, CI/CD et gouvernance • Accompagnement des équipes métiers dans l’adoption de la plateforme • Suivi des performances, des délais et des risques projet Profil recherché • Expérience confirmée en tant qu’Engineering Manager ou Lead Data Engineer • Expérience avérée de migration vers Snowflake, fortement souhaitée • Solide background technique en Data Engineering • Expérience en management d’équipe, avec une expérience onshore / offshore appréciée • Capacité à évoluer dans des environnements complexes et internationaux • Bon relationnel et capacité à interagir avec des interlocuteurs métiers Livrables attendus • Roadmap de migration et architecture cible • Suivi des sprints et des livraisons • Documentation technique et bonnes pratiques • Reporting projet : avancement, risques, KPI • Structuration et montée en compétence de l’équipe Compétences / Qualités indispensables : Snowflake, Data Engineering, Management d'équipe Data, Architecture Data, SQL et Python, Airflow / DBT Informations concernant le télétravail : 2 jours par semaine de télétravail Bureaux à Bordeaux
Freelance
CDI
CDD

Offre d'emploi
Business Analyst SharePoint Online (Fonctionnel)- intranet

RIDCHA DATA
Publiée le
Business Analyst
Intranet
SharePoint Online

1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : ASAP ⏳ Durée : Mission longue 🌍 Contexte international 🚀 Contexte de la mission Dans le cadre de la refonte d’un intranet global sous SharePoint Online (Microsoft 365) , nous recherchons un Business Analyst fonctionnel pour accompagner les équipes métiers dans la définition et la mise en place d’une plateforme moderne et collaborative. 👉 L’objectif : proposer une expérience utilisateur fluide, homogène et adaptée à un environnement international. 🎯 Votre rôle En tant que Business Analyst fonctionnel , vous êtes l’interface clé entre les métiers et les équipes IT, avec une forte orientation recueil de besoin et conception fonctionnelle (pas de technique / pas de développement). 🧩 Vos missions principales 🔍 Analyse & cadrage Recueillir et analyser les besoins métiers Animer des ateliers avec les différentes parties prenantes Formaliser les besoins (user stories, use cases, parcours utilisateurs) Identifier les axes d’amélioration des processus existants 📝 Conception fonctionnelle Rédiger les spécifications fonctionnelles Structurer le contenu : navigation, taxonomie, métadonnées Contribuer à la définition de l’expérience utilisateur (UX) Construire et gérer le backlog fonctionnel 🤝 Coordination & accompagnement Faire le lien entre métiers et équipes techniques Participer aux phases de recette (tests fonctionnels, UAT) Accompagner le changement (supports, communication, formation) 🌍 Environnement international Interagir avec des équipes internationales Assurer la cohérence entre besoins locaux et standards globaux 🛠️ Environnement fonctionnel SharePoint Online (Microsoft 365) Outils collaboratifs (Teams, etc.) Méthodologie Agile / Scrum
Offre premium
CDI
CDD
Freelance

Offre d'emploi
Data Analyst Monétique

Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)

6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
Freelance

Mission freelance
Data Engineer

DEVIK CONSULTING
Publiée le
API REST
Azure
Databricks

1 an
400-700 €
Paris, France
Description Pour le compte de notre client grand compte, Nous recherchons Data Engineer pour intervenir sur une plateforme Data stratégique, avec un rôle clé dans la gestion des flux de données et le maintien en condition opérationnelle. Tâches principales Assurer l’ingestion et l’orchestration des données (JIRA, CRM type Salesforce/Zoho, outils métiers) Centraliser et structurer les données au sein d’un Data Lake Développer et maintenir des pipelines de données (Python, API REST) Garantir la qualité, la sécurité et l’anonymisation des données Collaborer avec les équipes métiers pour faciliter le reporting Profil Recherché Expérience confirmée en Data Engineering Maîtrise de Python et des API REST Bonne connaissance de PostgreSQL Expérience sur Azure et Databricks Sensibilité à la data visualisation appréciée Rigueur, autonomie et esprit analytique Lieu : Paris
Freelance
CDI

Offre d'emploi
Data Engineer spécialisé·e Informatica PowerCenter

ATTINEOS
Publiée le
Informatica

2 ans
Rouen, Normandie
Dans un contexte de projets stratégiques autour de la donnée, nous recherchons un·e Data Engineer spécialisé·e Informatica PowerCenter pour renforcer une équipe agile dynamique. Vous interviendrez sur la création et l’évolution de traitements data et d’applications, dans des environnements variés couvrant plusieurs domaines métiers (assurance IARD, santé, marché professionnel…). Vous participerez à l’ensemble du cycle de vie des projets : de la conception jusqu’à la maintenance en conditions opérationnelles. Vos missions : Rédiger les spécifications techniques détaillées Concevoir, développer et maintenir des traitements d’intégration de données Garantir la qualité, la performance, la sécurité et les délais de livraison Réaliser les tests unitaires et d’intégration Participer aux mises en production et aux déploiements Gérer les incidents et les demandes de changement Mener des analyses d’impact sur les pipelines de données existants Produire la documentation technique et réglementaire Environnement technique : Informatica PowerCenter 10.x, PowerExchange Navigator, SQL Server / SQL, Environnements Mainframe (apprécié), COBOL (lecture de copybooks), CI/CD, JIRA, Confluence
Freelance
CDI

Offre d'emploi
Tech-Lead Data Quality, IA, Azure

Management Square
Publiée le
Azure Synapse
Data quality
IA

1 an
57k-62k €
500-600 €
Paris, France
Activités principales : • Présenter des retours d'expérience sur la gestion de la qualité des données sur les plateformes Azure et les bonnes pratiques de gestion de la qualité sur les plateformes Azure • Réaliser un audit de la gestion de la qualité des données sur les plateformes et prendre connaissance des contrôles de qualité actuellement disponibles et des objectifs à court et moyen terme • Définir le champ des possibles sur la base des composants actuellement disponibles sur la plateforme ou standards sur Azure. • Présenter les apports de l'IA dans le cadre d'une pratique de contrôle de qualité des données • Présenter la stratégie de déploiement de la qualité des données pour les prochains mois • Déployer les contrôles de qualité existants ainsi que ceux identifiés par le CDO • Assurer le passage de connaissance vers les équipes internes
CDI

Offre d'emploi
Architecte Data - IBM InfoSphere DataStage PX

CAT-AMANIA
Publiée le
CI/CD
Exadata
Kubernetes

40k-73k €
Île-de-France, France
Offre d'emploi : Architecte Solution Data / Référent Technique Plateforme Dans le cadre du déploiement récent d'une infrastructure Data Factory d'envergure, comprenant un entrepôt de données transversal et un écosystème de services associés, un profil d'expert technique est recherché pour assurer la pérennité et l'évolution de la plateforme. Missions principales Le titulaire du poste agit en tant que référent sur l'ensemble des choix technologiques et architecturaux de la plateforme. Les responsabilités s'articulent autour des axes suivants : Conception et Architecture : Traduire les besoins métier en solutions fonctionnelles et techniques. Analyser les besoins, définir les solutions et valider les nouveaux cas d'usage. Gouvernance Technique : Identifier les écarts entre les besoins spécifiques et les fonctionnalités de la plateforme mutualisée. Maintenir la documentation technique (cartographies, dossiers d'architecture, principes d'éligibilité). Expertise Data : Garantir la qualité de la modélisation des données, du lignage et de la qualité des flux. Coordination : Assurer l'interface entre les référents IT (Projet/Production) et les interlocuteurs métier (CDO, utilisateurs finaux) pour définir les priorités et les trajectoires d'évolution. Accompagnement : Faciliter le travail des équipes de développement tout au long du cycle de vie des projets et garantir le respect des standards d'architecture. Compétences techniques requises Une maîtrise approfondie des environnements data complexes est indispensable, avec une expertise particulière sur les technologies suivantes : ETL : IBM InfoSphere DataStage PX (compétence critique). Bases de données : Oracle Exadata au sein d'une architecture de type "Data Mesh" multi-instances. Orchestration et CI/CD : AutoSys, Ansible, Jenkins. Environnement Cloud : Kubernetes. Développement et Monitoring : Notions en Java/Angular et utilisation de Dynatrace. Profil recherché Le candidat doit démontrer une capacité à prendre de la hauteur sur des problématiques complexes et à s'imposer comme un garant des choix d'architecture. Une aptitude à influencer les décisions stratégiques et une rigueur méthodologique dans la gestion du lignage et de la qualité des données sont essentielles. Ce poste s'adresse à un profil expérimenté possédant une vision transverse de la chaîne de valeur de la donnée, de l'ingestion à l'exposition.
CDI

Offre d'emploi
Analyste Développeur Data / BI H/F

ITEA
Publiée le
Microsoft Power BI

40k-50k €
Saverne, Grand Est
Les missions : Vos missions s’articulent autour de quatre axes majeurs : 1. Architecture et modélisation des données Concevoir, structurer et faire évoluer l’architecture data (modèles dimensionnels, entrepôts de données, data marts). Définir et garantir les standards de qualité, de sécurité et de gouvernance des données. 2. Intégration et gestion des flux de données (ETL) Développer, maintenir et optimiser les flux d’intégration de données avec SSIS et Talend. Assurer la collecte, la transformation et la consolidation des données issues de sources variées (ERP SAP, fichiers plats, API, etc.). 3. Business Intelligence et reporting Concevoir, développer et optimiser des rapports et tableaux de bord sous Power BI à destination des équipes métiers et de la direction. Recueillir et analyser les besoins des utilisateurs afin de proposer des solutions adaptées. Accompagner les utilisateurs dans la prise en main des outils décisionnels. 4. Support, accompagnement et amélioration continue Assurer le support technique et la maintenance des solutions BI existantes. Former les utilisateurs à l’utilisation et à la création de rapports. Participer à la veille technologique et être force de proposition dans l’amélioration continue des outils et des processus.
Freelance

Mission freelance
Directeur de Projet Data (Data Services) F/H

SMARTPOINT
Publiée le
Agent IA
BI
Big Data

12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants au sein de l’entité Data Services. Il coordonne les équipes internes et les centres de services (CDS) et garantit la qualité des livrables, le respect des budgets ainsi que des délais de livraison. Tâches et activités Piloter l’activité projet : planification, suivi des charges, budgets et ressources Coordonner les équipes internes et les centres de services (CDS) Animer les instances de gouvernance (COPIL / COPROJ) Assurer le cadrage des besoins métiers et techniques Organiser le reporting projet auprès des parties prenantes Suivre les risques, dépendances et plans d’actions associés Garantir la bonne exécution des projets dans le respect des engagements Livrables et résultats attendus Suivi hebdomadaire de l’activité projet (planning, risques, avancement) Suivi financier mensuel des projets (budget, consommé, forecast) Préparation et animation des comités de pilotage et comités projet Reporting régulier à destination des directions métiers et IT Respect des engagements en termes de qualité, coûts et délais Compétences techniques Maîtrise des outils de gestion de projet (Jira) Bonne connaissance des environnements Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des outils et architectures décisionnelles (Data, BI, IA) Compréhension des enjeux des plateformes Data & transformation digitale Compétences clés Leadership et coordination multi-équipes Capacité de communication et de reporting Rigueur et sens de l’organisation Gestion des priorités et des risques Orientation résultats et qualité de delivery
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
Freelance
CDI

Offre d'emploi
Data Engineer GenAI / Databricks

UCASE CONSULTING
Publiée le
AWS Cloud
Databricks
GenAI

1 an
40k-45k €
400-710 €
Île-de-France, France
Bonjour à tous 😀 🎯 Contexte : Dans le cadre du développement de ses capacités en Intelligence Artificielle Générative , nous recherchons un Data Engineer spécialisé sur Databricks pour intervenir sur des cas d’usage innovants à forte valeur ajoutée. Le poste combine des enjeux de data engineering, machine learning et mise en production dans un environnement moderne. 🛠️ Missions principales Concevoir et développer des modèles de Machine Learning (GenAI) Collecter, préparer et exploiter les données Développer des pipelines d’ingestion et de transformation Assurer la mise en production et le monitoring des modèles (MLOps) Intervenir sur des sujets d’architecture RAG et fine-tuning Conseiller sur les choix techniques et les cas d’usage 🧩 Environnement technique Python / SQL / Pandas Databricks Machine Learning / Deep Learning (LLM, Transformers) Architectures GenAI (RAG, fine-tuning) Cloud AWS MLOps
Freelance

Mission freelance
Data Engineer GCP Airflow (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Freelance

Mission freelance
Data ingénieur / Software ingénieur

SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark

1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
1824 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous