Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 845 résultats.
Freelance

Mission freelance
Expert Data Gouvernance (H/F) – Secteur Bancaire

CELAD
Publiée le

1 an
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
CDI

Offre d'emploi
Développeur Python, C++, Java et Big Data

CELAD
Publiée le

36k-42k €
Bordeaux, Nouvelle-Aquitaine
CDI / Freelance / Portage Salarial - Pas de télétravail - Bordeaux - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Développeur python pour intervenir chez un de nos clients. Vos missions Vous interviendrez sur plusieurs volets : Data & exploitation Gestion des données d’essais dans les outils internes Correction des anomalies de chargement Gestion et suivi de la documentation associée Réalisation de tests sur les évolutions des outils et des formats de chargement Développement & scripting Développement de scripts en Python (obligatoire) Correction de bugs et maintenance des applications existantes Contributions en C++ et/ou Java API & interconnexions Développement et maintien en conditions opérationnelles des API Interconnexion des applications métiers (ex : outils internes, PLM) Participation à l’industrialisation pour limiter le Shadow IT Rationalisation et amélioration des outils existants Innovation & Data avancée Participation à des sujets Big Data Intégration et connexion de LLMs aux outils existants Collaboration avec les équipes client sur les problématiques data
CDI

Offre d'emploi
Business Analyst Data

Peppermint Company
Publiée le
Business Analyst
Data management
Développement

Sophia Antipolis, Provence-Alpes-Côte d'Azur
vous interviendrez dans une Business Unit transverse couvrant plusieurs domaines : ✈️ Airline – 🏨 Hospitality – 🚆 Rail La mission s’inscrit dans un programme stratégique autour de la Data Platform (création et structuration d’outils data à grande échelle). 🧩 Missions Recueil et analyse des besoins métiers Rédaction des spécifications fonctionnelles Interface entre équipes techniques et métiers Contribution à la construction de la plateforme data Participation aux ateliers et cadrage fonctionnel Accompagnement des équipes sur les sujets data
CDI

Offre d'emploi
ALTERNANCE - Assistant Ingénieur data et chimie (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python

Pantin, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Product Owner Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Marseille, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Offre premium
Freelance
CDI

Offre d'emploi
Consultant technique IVANTI ITSM H/F

ADONYS
Publiée le
CMDB
Ivanti

3 ans
60k-80k €
600-800 €
Hauts-de-Seine, France
Dans le cadre d'une régie longue durée, nous sommes à la recherche d'une expertise technique Ivanti ITSM H/F Contexte: Migration et refonte d’une plateforme ITSM (Ivanti) vers une solution SaaS. Mise en place du nouveau service desk et harmonisation des processus ITSM entre filiales (Europe & Asie) Missions principales Piloter le projet de migration et de déploiement Ivanti SaaS (planification, suivi, coordination des livrables). Concevoir et configurer la plateforme Ivanti : objets métiers (Incident, Request, Change), workflows, templates e‑mail, règles d’automatisation, quick actions, business rules. Adapter et industrialiser les processus ITSM : incident management, request/service catalogue, change management, problem management. Harmoniser modèles et pratiques entre filiales (standardisation des catégories, champs, SLA, priorités). Mettre en place et alimenter la CMDB (modélisation CI, classes, attributs, intégrations via API/REST, règles de déduplication). Accompagner la création et le run du service desk (phase de transition, transfert de compétences). Animer la gouvernance ITSM : comités de changement (CAB), ateliers métiers, réunions de suivi, reporting KPI/SLA. Rédiger documentation fonctionnelle/technique, guides utilisateurs et supports de formation ; animer sessions de formation et conduite du changement. Travailler avec le support Ivanti et les équipes techniques pour les évolutions et déploiements. Responsabilités Garantir la conformité des processus et des déploiements aux bonnes pratiques ITSM. Assurer la qualité des livrables (recette, PV, campagnes de test, non‑régression). Coordonner parties prenantes internes (support Workplace, infra, sécurité, filiales) et prestataires externes. Veiller aux requirements multilingues et à la bonne gestion des notifications/communications (templates multilingues).
Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

emagine Consulting SARL
Publiée le
Business Intelligence
Master Data Management (MDM)

3 ans
Île-de-France, France
Objectifs et livrables Organiser les études en impliquant l’ensemble des parties prenantes identifiées et recueillir les besoins Comprendre les enjeux, objectifs et ambitions métiers Animer et conduire des ateliers avec les équipes métiers Collecter l’ensemble des inputs nécessaires aux études Documenter l’architecture fonctionnelle et formuler des recommandations Planifier les lots de travaux en s’appuyant sur les standards de la direction Data & Analytics Coordonner les contributeurs Data-as-a-Service (architectes techniques, data engineers, BI engineers) Documenter la valeur métier et la valeur apportée par la solution Préparer les budgets et le planning build/run Formaliser les propositions finales de type « Go to project »
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
CDD
CDI
Freelance

Offre d'emploi
Consultant Juriste Confirmé Data Privacy-RGPD

KEONI CONSULTING
Publiée le
Big Data
Gestion de projet
RGPD

18 mois
20k-60k €
100-450 €
Toulouse, Occitanie
Contexte Recherche en Droit Numérique MISSIONS - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers et en lien avec la Direction Protection des Données du Groupe Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques : Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
EXPERT MIDDLEWARE - ETL & DATA STREAMING

Signe +
Publiée le
Java

12 mois
400-550 €
La Défense, Île-de-France
EXPERT MIDDLEWARE - ETL & DATA STREAMING Centre de competence Architecture et Integration - Group Digital and IT (Saint-Gobain) Contexte Mission au sein de l'equipe Architecture et Integration dans un environnement international et multiculturel. Pilotage des lignes de services integration ETL : Talend (Cloud / hybride) et Data Streaming (Kafka Confluent Cloud). Missions principales Support, suivi et maintenance de l'existant (CRM / Annuaire / PIM) Accompagnement a la creation de nouveaux projets : analyse du besoin, cadrage technique, conception des flux Pilotage de l'equipe en Inde (developpements, tests, deploiements) Gestion du plan de charge et des plannings Administration et suivi operationnel de la plateforme Talend et des composants On Prem Administration et suivi operationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation des deux plateformes Definition et partage des bonnes pratiques (configuration / developpements) Competences requises Talend Data Integration Studio V8 - Expert API et formats Json, Xml, Csv - Confirme Management d'equipe - Confirme Java 8+ - Confirme Linux / Unix - Confirme Kafka - Confirme SQL et Base de donnees - Confirme Source management (Gitlab) - Confirme Connaissances CRM Salesforce - Elementaire
CDI
Freelance

Offre d'emploi
Builder Azure / DevSecOps Data

VISIAN
Publiée le
Azure
Azure DevOps
CI/CD

1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
CDI

Offre d'emploi
Revenue Data Analyst F/H - Finance, trésorerie (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Voisins-le-Bretonneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Consultant Data Governance & Steward - Delivery Ops

Tenth Revolution Group
Publiée le
Collibra
CRM
ERP

1 an
550-750 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Vous intervenez en tant que Data Steward Transverse / Consultant Gouvernance pour transformer la stratégie data en réalités opérationnelles. Votre mission est de faire le pont entre les enjeux métiers et les contraintes SI. Vous ne vous contentez pas de définir des politiques : vous les déployez concrètement sur le terrain. Vos principales missions : Opérationnalisation du patrimoine Data : Recenser les acteurs clés, cadrer les besoins métiers et formaliser les exigences (dictionnaires de données, règles de gestion, qualité, sécurité). Gouvernance "Hands-on" : Produire et maintenir la documentation (glossaires, cartographies de flux, procédures) et veiller à l'implémentation des règles dans les solutions cibles. Coordination & Delivery : Animer les comités opérationnels, réaliser les études d'impacts lors des évolutions SI et piloter les stratégies de migration de données. Outillage : Participer activement au choix et au déploiement des outils (MDM, Data Catalog) : contribution aux RFP, cadrage fonctionnel et accompagnement au changement auprès des utilisateurs.
5845 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous