Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 233 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer: SAP BW, HANA Studio, Databricks, Dataiku, SQL, Python, Contract, 2 years, Bruxelles

Publiée le
Data governance
Databricks
Dataiku

2 ans
40k-45k €
550-770 €
Hauts-de-France, France
Télétravail partiel
Pour un grand client final Bruxelles (minimum 2 jours/semaine sur site). De décembre 2025 à fin 2027. Dans le cadre de l’architecture cible, les plateformes BW/HANA, Databricks et Dataiku sont au cœur des activités de migration et de transformation des données. Vous rejoignez l’équipe opérationnelle Data Governance en tant qu’expert data, responsable de maintenir, concevoir et optimiser les processus de transformation et de modélisation des données en utilisant SAP BW, SAP HANA Studio, Databricks et Dataiku. Objectif: garantir la qualité, la performance et la pertinence des données pour les besoins métier. Responsabilités Développer et maintenir des flux complexes de transformation et de modélisation des données via BW et HANA Studio (modélisation avancée, développement, optimisation). Exploiter Databricks pour le stockage, le calcul et l’industrialisation des données. Utiliser Dataiku pour la transformation de données, avec un focus sur les recettes visuelles et le développement de plug-ins personnalisés. Assurer la qualité et l’intégrité des données sur l’ensemble du cycle de vie. Collaborer avec les parties prenantes techniques et fonctionnelles.
Freelance

Mission freelance
Data Platform Engineer - Terraform

Publiée le
CI/CD
DevOps
JIRA

6 mois
400-500 €
Paris, France
Télétravail 100%
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Freelance

Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)

Publiée le
Snowflake

6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance
CDI

Offre d'emploi
Chef de Projet & Business Analyst – Données Bilan Carbone / CSRD

Publiée le
PowerBI
SQL

1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons un(e) Chef de Projet / Business Analyst pour renforcer l’équipe RSE d’une DSI Workplace. L’équipe travaille sur plusieurs projets annuels autour de la gestion des données RSE, et la mission implique autonomie, responsabilité et un large éventail de compétences techniques et fonctionnelles. Missions principales : Assurer la gestion de projets liés aux données RSE et au bilan carbone. Collecter, formaliser et analyser les besoins métiers. Collaborer avec les data engineers pour définir les traitements nécessaires. Produire des rapports et analyses à partir des données (maîtrise d’Excel et SQL requise). Créer des dashboards et indicateurs (Power BI est un plus). Participer à la documentation et au suivi des projets.
Freelance

Mission freelance
Data Architecte H/F

Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
CDI

Offre d'emploi
Responsable Solutions IA (Chef de projet IA )

Publiée le
IA
Machine Learning
Natural Language Processing (NLP)

40k-59k €
Paris, France
Pour accompagner un client secteur public sur son usine IA , Redlab cherche un consultant chef projet IA (PO IA) uniquement en CDI ROLE : Chef de projet IA transverse, pilote les cas d’usage, coordonne métier/tech, structure les projets, assure adoption et gouvernance. Missions clés Cadrer, prioriser et piloter les projets IA. Traduire besoins métier → spécifications IA. Suivre KPIs, ROI, risques, conformité (RGPD, biais). Coordonner Data Scientists, Devs, Data Engineers, DSI. Gérer la mise en production et la MCO.
Freelance

Mission freelance
AI Product Manager

Publiée le
AI
Large Language Model (LLM)

6 mois
500-750 €
Paris, France
Télétravail partiel
Orcan intelligence recherche pour l’un de ses clients dans la finance, un AI Product manager pour une mission avec un fort enjeu stratégique. Vos missions : Priorisation & Roadmap : Analyser les POCs existants, définir les indicateurs de succès et sélectionner les Use Cases à industrialiser en priorité. Stratégie de Données : Piloter la conception et la mise en place de la base de données dédiée à l'IA (structuration, choix des sources, vision Vector DB / RAG). Conception de Solutions : Designer des workflows d'automatisation avancés intégrant des technologies LLM et ALLM (Agentic LLM) pour automatiser des tâches complexes. Aide à la Décision : Préparer les dossiers d'arbitrage pour la Direction (coûts, gains de productivité, faisabilité) afin de lever les derniers verrous de validation. Pilotage du Delivery : Faire le pont avec les équipes techniques (Data Engineers / AI Devs) pour s'assurer que le produit livré répond parfaitement aux besoins des Opérations.
Freelance

Mission freelance
Product Owner Data (Finance)

Publiée le
Backlog management
Data management
Finance

1 an
Montréal, Québec, Canada
Télétravail partiel
Product Owner Data – Secteur Bancaire (Montréal) Dans le cadre d’un programme de données stratégique, nous recherchons un(e) Product Owner Data pour intervenir chez un client majeur du secteur bancaire, basé à Montréal. 🎯 Contexte du mandat Programme de transformation et gouvernance des données Gestion de données transverses à l’échelle de l’organisation Collaboration étroite avec les équipes Data, IT et métiers 🧩 Responsabilités Porter la vision produit Data et gérer le backlog Recueillir, analyser et prioriser les besoins métiers liés aux données Travailler avec les équipes techniques (Data Engineers, Architectes, BI, etc.) Assurer la valeur business des produits Data livrés Participer aux cérémonies agiles (planification, refinement, reviews) Contribuer à la gestion de produit dans un contexte bancaire réglementé.
Freelance
CDI
CDD

Offre d'emploi
Machine Learning Ops Engineer H/F

Publiée le
CI/CD
Github
Gitlab

12 ans
Monaco
Télétravail partiel
ASTERIA recherche, pour l’un de ses Clients basé sur Monaco, Machine Learning Ops Engineer H/F. VOTRE MISSION : Notre Client recherche un ML Ops Engineer H/F afin d’assurer l’industrialisation, la mise en production et la garantie de la fiabilité à grande échelle des cas d’usage de Data Science/Machine Learning. Le ML Ops Engineer H/F sera principalement le point entre l’équipe DATA au sens large (Data Engineer, DataScientist, Ingénieur IA) et l’équipe Opérations/DevOps. L’objectif principal sera d’industrialiser les projets de Machine Learning, de l’expérimentation jusqu’au déploiement en production, en garantissant robustesse, scalabilité et reproductibilité. Ce rôle technique est intégralement orienté Delivery/Développement Logiciel. Missions principales : Industrialisation & Pipelines (CI/CD/CT) : Concevoir et industrialiser les cas d'usage : structurer techniquement le projet, implémenter les tests, ... Concevoir et maintenir les pipelines d'intégration continue (CI), de déploiement continu (CD) et d'entraînement continu (CT) pour les modèles de ML. Automatiser les flux de travail de la donnée (Data Pipelines Airflow) en collaboration avec le Data Engineer. Garantir la reproductibilité des entraînements (versioning des données, du code et des modèles). Infrastructure & Déploiement : Conteneuriser les cas d'usage et modèles (Docker), orchestrer leur déploiement (Kubernetes). Mettre en place des stratégies de "Model Serving" (API REST, gRPC, Batch processing). Monitoring & Maintenance : Mettre en place des outils de surveillance pour suivre la santé des modèles en production. Détecter et alerter sur le Data Drift (dérive des données) et le Model Drift (baisse de performance). Gérer le cycle de vie complet des modèles (re-training, mise hors service). Mise à disposition des résultats : Être capable de développer des interfaces pour mettre à disposition et valoriser les résultats VOS CONDITIONS DE TRAVAIL : Date de démarrage mission envisagée : 02/02/2026 CDI (seuls les ressortissants européens ou détenteurs d'un titre de séjour émis par la Préfecture des Alpes-Maritimes (06) sont éligibles à un emploi en Principauté) : Autres conditions contractuelles envisageables, nous contacter Télétravail : jusqu’à 2 jours / semaine
Freelance

Mission freelance
Tech Lead Data Engineering / Databricks – Mission longue

Publiée le
Management

12 mois
400-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons pour l’un de nos clients grands comptes un Tech Lead spécialisé Data Engineering afin de rejoindre une squad produit au sein d’un environnement moderne et exigeant. 🎯 Objectif de la mission Contribuer au delivery des produits data, piloter les choix techniques, encadrer les bonnes pratiques, et garantir la qualité logicielle au sein d’une équipe pluridisciplinaire (Data Engineers, Data Scientists, Software Engineers…). 🎤 Soft skills Leadership technique + accompagnement d’équipe Communication structurée et vulgarisation technique Rigueur, autonomie et sens du delivery Capacité à interagir avec de multiples parties prenantes
Freelance
CDI

Offre d'emploi
Architecte Data (28)

Publiée le
CI/CD
Terraform

1 an
40k-45k €
400-750 €
Île-de-France, France
Télétravail partiel
Définition du besoin La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Dans ce contexte, la Direction Technique a besoin d'être accompagnée sur une prestation d'Architecture Data pour l'ensemble de la Data Platform et des dispositifs associés. Prestations attendues dans le cadre de la prestation Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l'accompagnement des équipes dans les domaines suivants :
Freelance

Mission freelance
Architecte Data GCP

Publiée le
Architecture
Google Cloud Platform (GCP)
Python

3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Freelance

Mission freelance
Architecte Data

Publiée le
Amazon S3
AWS Glue
DBT

6 ans
680-700 €
Paris, France
Télétravail partiel
Dans le cadre de l’accélération de sa stratégie data & omnicanale , un acteur majeur du retail / e-commerce renforce sa Data Platform afin de mieux exploiter ses données clients, ventes, logistique et marketing. Nous recherchons un Architecte Data pour accompagner les équipes et garantir une architecture performante, scalable et sécurisée, capable de soutenir de forts volumes et des usages analytiques avancés. Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists, équipes Marketing & Supply), vous interviendrez de manière transverse sur la conception et l’évolution de l’architecture Data de la plateforme. Vos principales responsabilités Définir et garantir la cohérence de la stack Data (ingestion, traitement, exposition) Assurer le respect des normes et standards d’architecture Data & Cloud Mettre en place et sécuriser les contrats d’interface entre les différentes équipes (data, applicatif, BI) Auditer l’architecture existante et proposer des axes d’optimisation (performance, coûts, scalabilité) Accompagner les équipes sur les bonnes pratiques data (qualité, gouvernance, sécurité) Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions data Participer aux phases de tests et d’intégration de nouvelles briques techniques 🛠️ Developer Experience & FinOps Contribution à l’écriture et à l’industrialisation de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et les pipelines CI/CD Définition des standards de développement, de déploiement et d’exploitation Mise en place du suivi budgétaire par équipe et par usage (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification, priorisation et pilotage des optimisations de coûts Cloud
Freelance

Mission freelance
Consultant Kafka H/F

Publiée le
Apache Kafka
API
DevOps

3 ans
550-650 €
Paris, France
Télétravail partiel
Contexte Au sein de l’équipe Data Analytics, nous concevons, déployons et maintenons des architectures Big Data destinées à répondre aux besoins internes de l’entreprise. Dans le cadre du renforcement de notre équipe support, nous recherchons un Data Engineer spécialisé Kafka pour intervenir sur des plateformes critiques à fort volume de données. Missions principales Mettre en œuvre son expertise sur Kafka (conception, configuration, optimisation et troubleshooting) Assurer le support, l’automatisation et le maintien en conditions opérationnelles (MCO) des plateformes Kafka Participer aux développements de l’équipe Data Analytics, notamment sur le projet “Topic as a Service” Contribuer à l’amélioration continue des architectures Big Data et des processus d’exploitation Assurer le support de la plateforme Worlwide Participer à la documentation technique et au partage des bonnes pratiques Interagir avec des équipes internationales dans un environnement anglophone Environnement technique Apache Kafka OpenSearch Elastic Stack : Elasticsearch, Logstash, Kibana, Beats Ansible Git / Bitbucket Développement Python REST APIs
Freelance

Mission freelance
PRODUCT OWNER SECTEUR SANTE

Publiée le
Agile Scrum
Méthode Agile
Safe

1 an
460-550 €
Paris, France
Télétravail partiel
Dans le cadre du développement de modules innovants intégrés à une plateforme logicielle utilisée par des milliers de professionnels de santé, nous recherchons un Product Owner confirmé . Vous serez garant(e) de la vision fonctionnelle, de la priorisation des besoins et de la valeur délivrée par les équipes de développement. Vous évoluerez dans un environnement agile, collaboratif et orienté utilisateur. Missions principales Vision produit & stratégie Porter la vision fonctionnelle du produit et la partager avec la squad. Définir et prioriser les évolutions en cohérence avec les enjeux métiers et techniques (scalabilité, robustesse, interopérabilité). Gestion du backlog Recueillir et formaliser les besoins des parties prenantes (métiers, IT, data, utilisateurs). Rédiger des user stories et critères d’acceptation clairs et précis. Arbitrer les priorités entre correctifs, évolutions et améliorations continues. Pilotage & coordination Collaborer étroitement avec les équipes de développement, data engineers et business analysts. Animer les cérémonies agiles (planning, refinement, review) en binôme avec le Scrum Master. Garantir la qualité fonctionnelle des livrables (tests, validation, déploiement). Suivi & amélioration continue Suivre la performance et l’utilisation du produit via des KPI . Identifier les axes d’amélioration et nouvelles opportunités fonctionnelles. Assurer une veille sur les pratiques de monitoring et de data aggregation.
233 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous