Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 979 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst Data CIB H/F

STORM GROUP
Publiée le
Data analysis
SQL

3 ans
40k-45k €
400-600 €
Île-de-France, France
Au sein d’une direction IT dédiée aux activités de marchés, vous rejoignez une squad Data/BI travaillant sur des sujets de valorisation et d’exploitation de la donnée client. L’équipe développe et maintient des solutions de Business Intelligence autour d’un data lake commercial, permettant aux métiers Front Office d’exploiter leurs données clients pour différents usages : Suivi de la rentabilité commerciale Analyse de la performance des équipes commerciales Mesure de l’efficacité des interactions commerciales Exploitation des données CRM (contacts, meetings, interactions clients) Les équipes sont composées de Business Analysts, Data Analysts et Développeurs, organisées en méthodologie Agile et réparties sur plusieurs sites en Europe. Missions Le consultant interviendra sur des activités de support, de maintenance évolutive et de projets, avec les responsabilités suivantes : Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles Définir la stratégie de tests et rédiger les cahiers de recette Piloter les phases de tests fonctionnels et valider les livrables Assurer le suivi du backlog et son actualisation Coordonner les différents acteurs projet Assurer le reporting d’avancement Accompagner la conduite du changement auprès des utilisateurs Réaliser le support fonctionnel de niveau 2 (dashboards BI, requêtes SQL, interfaces) Contribuer aux pratiques Agile
Freelance
CDI

Offre d'emploi
📩 Data Engineer – Data Quality & Governance

Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API

1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
CDI

Offre d'emploi
DATA STEWARD CRM / DATA GOVERNANCE H/F

Savane Consulting
Publiée le

60k-75k €
Seine-et-Marne, France
Contexte du poste : Nous recherchons un Data Steward afin d’intervenir au sein de la Direction Commerciale, dans le cadre du déploiement d’un CRM Sales. Vous interviendrez sur un périmètre stratégique (offres commerciales, contrats, produits) avec un enjeu clé autour de la migration, de la qualité et de la gouvernance des données. Vous intégrerez un programme structurant avec des jalons majeurs à court terme, où la qualité des données sera déterminante pour la réussite des mises en production. Votre rôle sera central pour assurer la fiabilité, la structuration et la valorisation des données métiers, en lien étroit avec les équipes commerciales, la DSI et les équipes projet CRM. Missions principales : Piloter la migration des données vers le CRM (stratégie, mapping source/cible, fichiers d’import) Formaliser les cycles de vie des référentiels (contrats, campagnes, produits) Consolider les impacts liés aux évolutions des applications (décommissionnement, couplage SI) Animer des ateliers métiers pour accompagner les changements de pratiques Définir et mettre en œuvre les règles de qualité des données (complétude, cohérence, fraîcheur) Mettre en place le monitoring de la qualité (Power BI ou équivalent) Produire les supports de formation liés aux bonnes pratiques data Contribuer au catalogage des données dans Collibra Documenter les référentiels et les univers de données (offres, contrats, produits) Définir les règles de gouvernance de la donnée avec les parties prenantes Assurer le suivi continu de la qualité des données Documenter les impacts des évolutions des référentiels sur le SI Produire les reportings et bilans de suivi
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
DevOps
GenAI
Google Cloud Platform (GCP)

1 an
120-490 €
Paris, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Freelance

Mission freelance
Data Quality Analyst (H/F)

Freelance.com
Publiée le
BigQuery
DBT
ETL (Extract-transform-load)

3 mois
400-550 €
Paris, France
Dans le cadre d’un programme de transformation Data B2B sur une plateforme Cloud Data moderne, nous recherchons un Consultant Recette Data & Qualité des Données (QoD) expérimenté. Intégré à une équipe transverse en environnement Agile/Scrum, le consultant interviendra comme référent qualité des données afin de sécuriser les livrables Data produits par les équipes techniques et métiers. Les principales missions seront : Réaliser la recette des produits data et valider la conformité des tables générées Effectuer des analyses de Data Profiling sur les données sources et cibles Détecter les anomalies de données : doublons valeurs nulles incohérences de formats ruptures d’intégrité référentielle Développer des requêtes SQL avancées pour les contrôles qualité Traduire les règles métier en contrôles techniques automatisés Implémenter des scripts de contrôle qualité dans le framework ELT Produire les cahiers de recette technique et bilans Go / No-Go Mettre en place des dashboards et indicateurs de suivi de la qualité des données Créer et suivre les tickets d’anomalies dans JIRA Remonter les anomalies et risques liés à la qualité des données auprès des équipes métiers et techniques Participer aux cérémonies Agile et aux Sprint Reviews L’objectif du poste est d’assurer la fiabilité, la cohérence et la qualité des données exposées aux équipes métiers.
CDI

Offre d'emploi
Responsable Data F/H

LED'RH
Publiée le
Data Engineering
Data governance
Gestion de projet

60k-70k €
Nord, France
Envie d’avoir de l’impact sur la stratégie data d’une entreprise ? Discutons-en! Je suis Laetitia de LED’RH et accompagne les entreprises sur leurs projets de recrutements IT. Dans un contexte d’accélération autour de la Data et de l’IA, je recherche un profil en capacité de structurer et de piloter des stratégies Data, pour un client du secteur du Retail. Missions principales : Définir et mettre en œuvre la stratégie DATA et IA Assurer le lien avec les équipes de la DSI, les équipes Métiers et les différents partenaires externes. Piloter l’ensemble des projets DATA et IA, jusqu’à leur mise en production Participer au comité de pilotage Data Encadrer l’équipe technique, composée de spécialistes de la Data Garantir la qualité, la gouvernance et la sécurité des données Assurer une veille technologique et mettre en place les bonnes pratiques dans le domaine de la DATA et de l’IA.
Freelance

Mission freelance
Chef de projet Data & Digital H/F

Karma Partners
Publiée le
AWS Cloud
Azure
CMS

6 mois
400-630 €
Île-de-France, France
Au sein de l’équipe On Site Services de la Digital Factory, le chef de projet Data/Digital porte la relation privilégiée entre les équipes digitales et data. Il assure et coordonne la mise en œuvre des projets digitaux dans le respect des bonnes pratiques d’une entreprise datacentrique (identification et rationalisation des sources, réflexion autour des Core Data Model, cohérence et monitoring des flux, contribution à la mise en qualité des données...) tout en veillant à intégrer les enjeux légaux et de sécurité. Il travaillera notamment les sujets de stratégie d’exposition des données, d’intégration des données dans les applications tierce et de Gouvernance Data / Digital. Projet et Solutioning · Prendre en charge et suivre les projets B2B d’exposition et consolidation des données clients en lien avec les consommations et parcours de leurs convives · Contribuer à l’alimentation des roadmaps éditeurs en charge de systèmes d’encaissement au travers des demandes issues des interlocuteurs métier (amont) et chefs de projet déploiement (aval). · Gérer les des activités de conception, d'évolution et de maintenance corrective des applications dont il a la charge, · Oeuvrer à l’amélioration continue du niveau d'industrialisation du déploiement des solutions et du niveau de supervision du parc. Se positionner en référent technico/fonctionnel des systèmes d'encaissement vis-à-vis de ses pairs (architecte, delivery lead, product owner) et garantir la bonne intégration des outils au sein du SI Comitologie · Porter et animer la gouvernance projet (copil et coproj) avec les éditeurs · Porter la relation avec les équipes connexes à la Digital Factory (notamment sécurité et data) et identifier / gérer les impacts dans le cadre des projets et du run · Porter la relation avec les équipes légales et achats pour poser les bases/faire évoluer les contrats éditeur · Identifier/mitiger ou escalader les risques inhérents aux projets
CDI

Offre d'emploi
Alternant Business Analyst F/H

█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Excel

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER CONFIRME / SENIOR (H.F)

NSI France
Publiée le
Azure
Cloud
Data Engineering

6 mois
Île-de-France, France
Contexte Dans le cadre de projets de transformation et de modernisation des systèmes d'information chez de grands acteurs de la distribution et de la grande consommation, nous recherchons un Data Engineer confirmé / sénior pour intervenir sur une migration de plateforme Data vers le Cloud. Vous intégrerez une squad Agile dédiée, au sein d'une organisation Data Factory, dont la mission est de concevoir et déployer des produits Analytics innovants à destination des fonctions support, des équipes logistiques et des points de vente. Vos missions En tant que Data Engineer, vous interviendrez sur tout ou partie des missions suivantes : Analyse des traitements existants dans le cadre de projets de migration on-premise vers le Cloud Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein d'un Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) Rédaction de la documentation technique (dossiers d'analyse, release notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD Environnement technique Azure / Databricks / Spark Python / SQL CI/CD, Azure DevOps Outils Agile (JIRA)
Alternance

Offre d'alternance
Analytics Engineer/Data Analyst (f/m/d) - Data Pricing - Alternance

█ █ █ █ █ █ █
Publiée le
Git
Python
SQL

Fierville-les-Parcs, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Business Analyst DATA (H/F)

CELAD
Publiée le
Business Analyst
Recette

12 mois
400-450 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst DATA (H/F) pour intervenir chez un de nos clients. 💻💼 🎯 Voici un aperçu détaillé de vos missions : Dans le cadre de l’application SOCLE des Données Commerciales , vous intervenez sur l’ensemble des phases de conception, spécification et recette en lien avec les équipes DSI et métiers. À ce titre, vos principales missions seront : Participer à la conception fonctionnelle des besoins DATA Rédiger les spécifications fonctionnelles Mettre à disposition et structurer les jeux de données de test Contribuer à la recette DSI et métier (préparation, exécution, suivi) Valider les cas de tests et les résultats associés Analyser et qualifier les anomalies ou incohérences de données Assurer un rôle d’interface entre les équipes IT et métiers Participer à l’amélioration de la qualité et de la fiabilité des données commerciales
Freelance
CDI

Offre d'emploi
Data Engineer - Migration Data Lake

VISIAN
Publiée le
Data Engineering
Migration

1 an
Paris, France
Contexte Le Cluster lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo Workflows, Apache Superset, Metabase et OpenMetadata . Missions Analyse de l’existant & migration Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...). Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold). Conception des plans de bascule tout en minimisant les interruptions de service. Architecture & ingestion Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet. Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit. Modélisation & transformation Développement des modèles de transformation dans dbt : scripts SQL, tests automatisés, documentation et versionning. Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit. Orchestration Implémentation des workflows de migration et de rafraîchissement des données avec Argo Workflows (planification, gestion des dépendances, monitoring). Self-service & visualisation Déploiement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake. Rédaction des guides d’utilisation et accompagnement de la montée en compétence des équipes. Gouvernance, catalogue & lineage Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité). Mise en place des processus de data ownership, de versionning et de validation. Qualité & validation Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit). Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques. Sécurité & conformité Application des standards de sécurité du groupe (RBAC, data-masking). Contribution aux audits internes et aux revues de conformité réglementaire. Collaboration inter-équipes Travail en étroite coordination avec les équipes métiers. Participation aux cérémonies projets et aux ateliers de design.
CDI
Freelance

Offre d'emploi
Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Data management
Microsoft Power BI

3 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes client un Data Governance Manager – Stewardship & Adoption sur Bordeaux Expérience : mini 5 ans en Data Gouvernance Localisation : Bordeaux Démarrage asap pour 5 mois contexte de la mission et l’équipe Chez mon client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents • capacité à structurer et animer une communauté de Data Stewards • capacité à embarquer des parties prenantes variées et à conduire le changement • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation • approche pragmatique et orientée adoption / impact Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
CDI

Offre d'emploi
Analyste Stratégique & Data Analyst H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Python
SQL

25k-30k €
Chaumont, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data analyst H/F

Proxiad
Publiée le
Data analysis
Python
SQL

47k-65k €
Île-de-France, France
🎯 Objectifs principaux Recueillir et formaliser les besoins métiers liés aux données de référence Analyser les données existantes et proposer des modèles de données adaptés et réutilisables Contribuer à la création et à l’évolution des datasets stratégiques Garantir la qualité, la cohérence et la gouvernance des données Faciliter l’exposition et la consommation des données (API, Data Platform) Participer aux programmes de transformation et de migration 🛠️ Responsabilités clés Rédaction de user stories et critères d’acceptation Analyse fonctionnelle et data (y compris cas complexes) Modélisation des données (référentiels / MDM) Contribution aux analyses ad hoc Support aux équipes techniques (ingénieurs data) Participation à la gouvernance des données (qualité, métadonnées, catalogage) Rédaction de documentation et accompagnement à la mise en production À distance – maximum 3 jours par semaine Le consultant travaillera sur l'ordinateur portable et le système du client.
5979 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous