Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 283 résultats.
CDI
Freelance

Offre d'emploi
Développeur Python (H/F)

STORM GROUP
Publiée le
Python

3 ans
40k-50k €
400 €
Île-de-France, France
Contexte : Prestation au sein de l’équipe Architecture cloud et API composée de collaborateurs experts de la mise en œuvre d’architectures orientées services. Missions : En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD
CDI

Offre d'emploi
Proxy Product Owner-Data / Snowflake (Full Remote)

UMANTIC
Publiée le

60k €
France
## FICHE DE POSTE ### Proxy Product Owner - Data / Snowflake Mission de prestation - Secteur pharmaceutique * * * ### Informations clés | ---|--- Intitulé du poste | Proxy Product Owner Data Secteur d'activité | Industrie pharmaceutique Type de mission | Prestation de service Lieu de travail | Full Remote (rattachement Lyon) Date de démarrage | 1er juin 2026 Expérience requise | 2 ans minimum sur la fonction Langue | Anglais courant (impératif) * * * ### Contexte de la mission Dans le cadre du développement d'une plateforme data basée sur Snowflake, un acteur majeur de l'industrie pharmaceutique recherche un Proxy Product Owner pour soutenir la livraison de produits de données. Le Proxy PO assurera le rôle de lien opérationnel entre les parties prenantes métier et les équipes techniques, en garantissant que les solutions data soient alignées avec les besoins métier et livrées efficacement dans un environnement Agile. * * * ### Missions et responsabilités Sous la responsabilité du Product Owner, le candidat aura pour principales missions : * Assister le Product Owner dans la gestion et la priorisation du backlog produit * Assurer la documentation des besoins et traiter les demandes entrantes * Traduire les besoins métier en user stories détaillées et en critères d'acceptation * Travailler en étroite collaboration avec les data engineers et data analystes sur des solutions basées sur Snowflake * Garantir la clarté des exigences liées aux modèles de données, aux transformations et au reporting * Participer aux rituels Agile (daily, sprint planning, review, rétrospective) et soutenir l'exécution des sprints * Suivre l'avancement des livraisons et lever les blocages fonctionnels * Agir comme point de coordination clé entre les parties prenantes métier et les équipes techniques * * *
CDI

Offre d'emploi
Senior Data Analyst & Data Scientist Snowflake H/F

JEMS
Publiée le

40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Senior Data Analyst & Data Scientist spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Missions : • Être responsable de la couche analytique des métriques End-to-End : calculer et suivre les KPI incluant le temps de cycle, le lead time, le débit (throughput) et les encours (work-in-progress) à travers les étapes de production, • Construire des modèles de données granulaires pour un suivi complet des lots, en enrichissant la visibilité avec un niveau de détail par étape et une cartographie des dépendances entre tâches, • Mettre en place un contrôle statistique des processus appliqué aux métriques de flux : détecter les dérives des KPI par rapport aux limites de variabilité et développer des modèles prédictifs pour optimiser les temps de cycle, • Concevoir et maintenir des dashboards de suivi des flux ainsi que des visualisations d'analyse des goulets d'étranglement pour les équipes de production et les relecteurs de dossiers de lots, • Collaborer avec les data engineers pour intégrer les données SAP et les systèmes MES, en garantissant la qualité des données pour le suivi des lots et l'analyse des flux, • Travailler avec les équipes site pour cartographier finement les tâches de production et valider les dépendances, afin de soutenir la transition vers une séquence de lots optimisée, • Contribuer à l'intégration future de capacités de process mining et de workflows agentiques pour un ordonnancement intelligent des files de production. Référence de l'offre : 68gfaidg6x
Freelance

Mission freelance
Data Analyst Monétique (F/H)

CELAD
Publiée le
Azure
Big Data
Cloud

12 mois
500-530 €
Paris, France
Data Analyst Monétique (F/H) Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Monétique pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 🧭 Contexte de la mission Au sein de la Data Factory , la squad Data Monétique est composée d’environ 10 personnes et s’inscrit dans l’écosystème Data des moyens de paiement Cette équipe est en charge de : L’alimentation des équipes métiers et des autres squads data en données de paiements et données clients La production et diffusion de reportings et tableaux de bord power bi à destination des métiers et des établissements du groupe. L’alimentation de systèmes opérationnels et d’interfaces clients en données de paiements L’accompagnement des équipes métiers dans l’exploitation des données de paiement 🎯 Vos missions Dans ce contexte, vous interviendrez en tant que Data Analyst sur les activités suivantes : Participer à la collecte, la transformation et la gestion des données afin de garantir leur intégrité, qualité et sécurité Contribuer à l’animation de groupes de travail avec les sponsors, Business Analysts et membres de la squad (Data Engineers, Data Viz, BA…) Réaliser les recettes des traitements d’intégration et de transformation de données Rédiger et documenter les user stories, spécifications fonctionnelles et cahiers de recette en lien avec le Product Owner Accompagner et former les utilisateurs sur les usages des données et des outils de restitution
Freelance

Mission freelance
Expert Looker Core (BI / Big Data)

Signe +
Publiée le
Looker Studio

8 mois
900 €
Paris, France
Dans le cadre d’une étude autour d’un outil de datavisualisation cloud, la mission consiste à évaluer et accompagner l’usage de Looker Core (GCP) pour des cas d’usage métier et techniques. L’objectif est de : Déployer et accompagner des POC Looker Évaluer la capacité de l’outil à répondre aux besoins de self-service analytics Explorer les usages avancés (IA / conversational analytics) Contribuer à l’architecture cible dans un contexte cloud 🧠 Mission principale Le consultant interviendra en tant qu’ expert Looker Core pour : Accompagner les équipes métiers dans la construction de POC Former et guider les utilisateurs sur Looker Apporter une expertise sur : l’architecture Looker l’intégration GCP / BigQuery la sécurité et les bonnes pratiques les enjeux FinOps Collaborer avec les équipes IT (architectes, ops, data engineers, métiers)
Freelance

Mission freelance
Développeur Azure Databricks (Pré-embauche)

SQLI
Publiée le
Databricks

6 mois
400-600 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un développeur AAzure Databricks en pré-embauche. La mission : En tant que Développeur / Data Engineer Azure Databricks, vous intervenez au cœur de la Data Factory Entegra pour concevoir, développer et industrialiser les pipelines de données critiques du groupe. Vous travaillez en étroite collaboration avec : Le Head of Data, le Tech Lead Data, les équipes métiers et IT locales (France, UK, IT, ES, NL…), & les équipes partenaires. Responsabilités principales : Concevoir et développer des pipelines de données robustes et scalables sur Azure Databricks (PySpark, Delta Lake) Mettre en œuvre les chaînes d’ingestion, transformation et exposition des données (Bronze / Silver / Gold) Participer à l’industrialisation des traitements data (qualité, monitoring, performance, reprise sur incident) Contribuer à la structuration du socle Data Factory et aux bonnes pratiques de développement Documenter les développements et garantir la qualité du code et la maintenabilité. Travailler avec les équipes régionales pour : Comprendre les besoins fonctionnels, Accompagner la montée en compétences, Assurer le transfert de connaissances, Intervenir dans un contexte international, avec une forte dimension métier et “customer facing”.
Freelance

Mission freelance
Expert Data Gouvernance (H/F) – Secteur Bancaire

CELAD
Publiée le

1 an
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
Freelance

Mission freelance
Dev Back/Ops GCP (H/F)

Comet
Publiée le
Azure
FastAPI
Google Cloud Platform (GCP)

6 mois
400-600 €
Île-de-France, France
Rejoignez une application stratégique et innovante développée pour les équipes Marketing Globales d’un grand groupe international. Cette plateforme permet de mesurer, optimiser et piloter la performance de contenus digitaux à grande échelle . Le produit, actuellement en phase de MVP avec une forte adhésion interne, entre dans une étape clé : son passage à l’échelle internationale . Votre rôle : Au sein d’une équipe pluridisciplinaire (PO, UX, Data Scientist, Dev Full-Stack, Data Engineer) et sous la responsabilité du Tech Lead, vous interviendrez sur la transformation de la plateforme en un système scalable, performant et sécurisé . Vos missions : Monitoring & Observabilité : mise en place de logs, alerting, dashboards et KPIs Optimisation du code : refactoring API, amélioration des modèles de données et endpoints Performance : caching, optimisation base de données, gestion des ressources cloud Sécurité : correction de vulnérabilités, amélioration des mécanismes d’authentification Infrastructure : migration de bases de données, scalabilité des services cloud Stack technique : Cloud & Infra : GCP (obligatoire), Azure (nice-to-have) Backend & IA : Node.js, Python, FastAPI, Vertex AI Frontend (plus) : React Bases de données : PostgreSQL, MongoDB
Freelance
CDI

Offre d'emploi
Data Steward

ONSPARK
Publiée le
RGPD

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Steward pour accompagner nos clients grands comptes. Vous interviendrez dans des environnements où la qualité, la traçabilité et la conformité des données sont des enjeux majeurs, en lien avec les équipes Data et métier. Responsabilités Définir et appliquer les règles de gouvernance des données Maintenir le dictionnaire de données et les référentiels Assurer la qualité, la traçabilité et la conformité des données (RGPD) Sensibiliser et accompagner les équipes métier sur les bonnes pratiques Collaborer avec les Data Engineers et Data Architects
Freelance

Mission freelance
POT9141 - Un Data Ingénieur DevOps / AWS sur Plaisir

Almatek
Publiée le
AWS Cloud

6 mois
Plaisir, Île-de-France
Almatek recherche pour l'un de ses clients Un Data Ingénieur DevOps / AWS sur Plaisir. Contexte de la mission Dans le cadre de la mise en place d’une dataplateforme d’entreprise, la DSI du client souhaite intégrer un expert Data Ingénieur & DevOps AWS afin de : Mettre en place l’ingestion de différents types de données (structurées, semi?structurées, non structurées) Industrialiser l’ingestion des données depuis un datalake existant vers la nouvelle dataplateforme Automatiser l’intégration des données dans la couche standardisée AWS (RAW DATA vers STANDARDIZED) Réaliser la documentation et assurer le transfert de connaissances L’objectif principal est de finaliser un premier use case incluant l’ingestion de plus de 100 tables issues d’un ERP, tout en accompagnant la montée en compétences des équipes internes (équipe data et Data Engineer). Environnement Technique Data Engineering & Cloud AWS Services AWS Data : S3, Glue, Redshift, Athena, EMR, Lambda Pipelines et orchestration : Step Functions, Airflow, Lambda Python Patterns d’architecture data : Data Lake, ETL / ELT, Data Mesh Transformation data : dbt DevOps & Industrialisation Infrastructure as Code : Terraform CI/CD : GitLab CI/CD Gestion des environnements DEV / PREPROD / PROD Versionning du code et de la data : Git, DVC, LakeFS Sécurité & Gouvernance IAM, gestion des accès, chiffrement Gouvernance et catalogage : Glue Data Catalog, Collibra ou équivalent
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

emagine Consulting SARL
Publiée le
Business Intelligence
Master Data Management (MDM)

3 ans
Île-de-France, France
Objectifs et livrables Organiser les études en impliquant l’ensemble des parties prenantes identifiées et recueillir les besoins Comprendre les enjeux, objectifs et ambitions métiers Animer et conduire des ateliers avec les équipes métiers Collecter l’ensemble des inputs nécessaires aux études Documenter l’architecture fonctionnelle et formuler des recommandations Planifier les lots de travaux en s’appuyant sur les standards de la direction Data & Analytics Coordonner les contributeurs Data-as-a-Service (architectes techniques, data engineers, BI engineers) Documenter la valeur métier et la valeur apportée par la solution Préparer les budgets et le planning build/run Formaliser les propositions finales de type « Go to project »
Freelance
CDI

Offre d'emploi
Ingénieur Data SAS / Teradata – Environnement Banque (H/F)

Deodis
Publiée le
Data quality
Gouvernance

1 an
40k-45k €
400-480 €
Île-de-France, France
Nous recherchons un(e) Data Engineer spécialisé(e) SAS / Teradata pour intervenir au sein d’un environnement bancaire exigeant, dans le cadre de la gestion et de l’évolution d’une plateforme Data stratégique utilisée pour des besoins réglementaires. Vous serez en charge de l’administration de la plateforme SAS, de la mise en place et de l’automatisation des traitements de chargement de données via des scripts SAS et Shell, ainsi que du suivi de la qualité et de la conformité des données en base Teradata. Vous interviendrez également sur le support aux utilisateurs métiers (notamment en environnement international), l’analyse des incidents, la validation des flux de données et l’optimisation des traitements batch. Ce rôle requiert une forte expertise technique sur SAS, une bonne maîtrise des environnements Data legacy, ainsi qu’une capacité à évoluer dans un contexte structuré, orienté Data Quality, gouvernance et performance.
Freelance

Mission freelance
Engineering Manager Data

HAYS France
Publiée le
Snowflake

6 mois
Nouvelle-Aquitaine, France
Notre client dans le secteur Santé recherche un/une Engineering Manager Data H/F Description de la mission: Dans le cadre de la modernisation de sa plateforme Data, le client lance un programme stratégique de migration de son Data Warehouse vers Snowflake. Ce programme s’inscrit dans une transformation globale visant à migrer des environnements legacy vers une architecture cloud scalable, améliorer la qualité, la gouvernance et l’accessibilité des données, et accélérer les usages métiers en BI, analytics et data science. L’environnement est international avec de forts enjeux de coordination entre équipes IT et métiers. Objectifs de la mission En tant qu’Engineering Manager Data, la mission consiste à assurer le pilotage technique et opérationnel de la migration vers Snowflake ainsi que le management des équipes Data. Missions principales • Cadrage et pilotage de la migration vers Snowflake • Définition de l’architecture Data cible • Management et structuration d’une équipe de Data Engineers • Mise en place des bonnes pratiques en qualité, monitoring, CI/CD et gouvernance • Accompagnement des équipes métiers dans l’adoption de la plateforme • Suivi des performances, des délais et des risques projet Profil recherché • Expérience confirmée en tant qu’Engineering Manager ou Lead Data Engineer • Expérience avérée de migration vers Snowflake, fortement souhaitée • Solide background technique en Data Engineering • Expérience en management d’équipe, avec une expérience onshore / offshore appréciée • Capacité à évoluer dans des environnements complexes et internationaux • Bon relationnel et capacité à interagir avec des interlocuteurs métiers Livrables attendus • Roadmap de migration et architecture cible • Suivi des sprints et des livraisons • Documentation technique et bonnes pratiques • Reporting projet : avancement, risques, KPI • Structuration et montée en compétence de l’équipe Compétences / Qualités indispensables : Snowflake, Data Engineering, Management d'équipe Data, Architecture Data, SQL et Python, Airflow / DBT Informations concernant le télétravail : 2 jours par semaine de télétravail Bureaux à Bordeaux
CDI

Offre d'emploi
Lead Data H/F

CELAD
Publiée le

45k-50k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Freelance
CDI

Offre d'emploi
Business Analyst Senior - Surveillance des Communications h/f

Ela Technology
Publiée le
User acceptance testing (UAT)

6 mois
Seine-Saint-Denis, France
Dans le cadre d’un programme réglementaire stratégique au sein d’un environnement Global Markets , nous recherchons un Business Analyst Senior pour intervenir sur des enjeux majeurs de surveillance des communications et de conformité . La mission s’inscrit dans un contexte international, réglementé, à forte visibilité, au cœur des activités de marchés de capitaux. 🎯 Contexte de la mission Vous rejoignez une équipe dédiée à la surveillance de la conduite du Front Office (Trading & Sales), dont l’objectif est de garantir la conformité des communications avec les exigences réglementaires et les règles internes. Après une première phase basée sur des outils utilisateurs, l’ambition est aujourd’hui : D’industrialiser les solutions existantes De déployer une plateforme globale de surveillance De remplacer l’outil actuel par une nouvelle solution cible D’étendre la surveillance à l’ensemble des classes d’actifs D’intégrer des approches analytiques avancées (NLP / IA) Les priorités 2026–2027 portent notamment sur : La finalisation de la documentation réglementaire liée à la surveillance des communications Le développement et le déploiement mondial d’un nouvel outil de surveillance 🛠️ Rôles et responsabilités En tant que Business Analyst Senior , vous interviendrez au cœur du dispositif projet : Collecte, analyse et formalisation des exigences fonctionnelles , cas d’usage et spécifications Revue des besoins avec les Data Engineers afin de garantir la faisabilité technique Collaboration étroite avec les équipes métier, conformité, supervision de plateforme et direction Contribution à la définition d’une plateforme globale et holistique de surveillance Participation active aux rituels Agile (sprints, priorisation, coordination avec le PM) Contribution à la stratégie data liée aux usages analytiques multi‑vecteurs Développement et amélioration de solutions liées à : L’ingestion des communications électroniques Les processus de gestion des données Interface régulière avec le chef de projet et les équipes techniques Gestion de multiples sujets dans un contexte de délais réglementaires contraints Rédaction de : Spécifications fonctionnelles et techniques Plans de tests d’acceptation Organisation et animation des UAT , collecte des validations métier
CDD
CDI
Freelance

Offre d'emploi
DATA OPS DATAIKU DSS

R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD

6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

283 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous