Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 261 résultats.
Freelance

Mission freelance
Administrer moteurs bases de données et plateformes data

Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 an
370-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Missions principales L’ingénieur de Production data assure : L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. La gestion des incidents et participe à la résolution des problèmes Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) Maintien en conditions opérationnelles des plateformes Suivi et amélioration des performances (mémoire, disques, index, requêtes), Stratégies de sauvegarde, restauration et supervision La gestion des accès et création des comptes autorisés à se connecter aux plateformes De la veille technologique La gestion documentaire du périmètre Astreinte
Freelance

Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES

Publiée le
Collibra
Google Cloud Platform (GCP)
Gouvernance

1 an
400-550 €
Nord, France
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

Publiée le
Azure
BI

24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Freelance
CDI

Offre d'emploi
Expert Infrastructure & Automatisation IA/Data

Publiée le
Linux

1 an
Paris, France
Télétravail partiel
Contexte de la mission Vous accompagnerez la modernisation des infrastructures logicielles et serveurs, tout en soutenant les projets IA/Data en production. Vous garantirez leur scalabilité, sécurité et traçabilité dans des environnements critiques du secteur financier. Vos missions • Moderniser et sécuriser les environnements applicatifs et serveurs • Automatiser les déploiements et configurations via Infrastructure as Code (IaC) • Assurer la scalabilité et la sécurité des projets IA/Data en production • Collaborer avec les équipes Data Scientists, DevOps et Sécurité • Participer aux audits et garantir la conformité réglementaire (RGPD, ISO 27001) • Mettre en place des solutions de monitoring et traçabilité des modèles IA
Freelance

Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline

Publiée le
Azure DevOps
Git
Helm

1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Freelance

Mission freelance
Data Analyste Communication Digitale

Publiée le
Réseaux sociaux
Site web
Web

18 mois
100-400 €
Paris, France
Télétravail partiel
MISSIONS : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée - Effectuer des études réputationnelles et des recommandations de profils d’influenceurs et influenceuses -Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées : - Plus de 5 ans d’expérience similaire - La maîtrise préalable de Talkwalker et de X Pro est nécessaire pour la réalisation de la prestation, de même qu'une expertise avancée des méthodologies d'écoute. - Une excellente aisance rédactionnelle est nécessaire, avec une rigueur syntaxique et orthographique marquée. -Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Freelance
CDI

Offre d'emploi
Chef de Projet Transverse – Hébergement / Datacenter - Paris(F/H)

Publiée le
Pilotage
Reporting

1 an
40k-45k €
400-500 €
Paris, France
🎯 Nous recherchons un Chef de Projet Transverse – Hébergement / Datacenter (F/H) pour accompagner la gouvernance internationale de l’activité hébergement dans un contexte stratégique. Le rôle consiste à soutenir plusieurs entités à l’international dans la mise en conformité avec la politique d’hébergement du groupe, piloter la gouvernance, accompagner des appels d’offres locaux, et contribuer à divers projets transverses liés aux Datacenters. 🚀 Objectif & Contexte Concevoir et structurer la gouvernance de l’activité d’hébergement à l’international Contexte fortement international : coordination d’entités réparties dans différents pays Participer à la mise en place des nouvelles responsabilités de la direction Datacenters à partir de 2026 📝 Livrables attendus Comités de pilotage Cahier des charges pour les appels d’offres d’hébergement Indicateurs et reportings de suivi d’activité 🎯 Missions principales Piloter la gouvernance de l’hébergement auprès des entités internationales Évaluer la conformité aux politiques d’hébergement Accompagner les appels d’offres pour sélectionner des hébergeurs locaux Soutenir les équipes IT dans l’exploitation des salles Participer au déploiement de solutions techniques et de nouveaux processus Accompagner différents services de la direction sur des projets ponctuels Définir les besoins métiers et contribuer à la rédaction des cahiers des charges Participer au choix des solutions et superviser les tests fonctionnels Organiser, coordonner et animer les équipes projet Garantir la qualité, les coûts, les délais et la sécurité Définir les modalités de formation utilisateurs et accompagner leur montée en compétences Piloter la recette, le planning, les livrables, les risques et les indicateurs de performance 📍 Conditions de la mission Localisation possible : Paris 13, Bailly-Romainvilliers (77) ou Lieusaint (77) Présence : 5 jours/semaine – déplacements possibles (France & international)
Freelance
CDI

Offre d'emploi
Data Analyst

Publiée le
MySQL
SAS

6 mois
29k-34k €
250-280 €
Le Mans, Pays de la Loire
Objectifs de la mission Dans le cadre d’activités de pilotage et d’analyse, nous recherchons un Chargé d’Études Statistiques maîtrisant SAS afin de réaliser des travaux d’extraction, de contrôle qualité, d’analyse et de restitution auprès des équipes métier. Livrables attendus Jeux de données fiables issus des extractions SAS Rapports d’analyses Contrôles de cohérence et de qualité des données Tableaux de bord de pilotage Notes de synthèse et documents de restitution Recommandations sur l’amélioration des processus Missions Réaliser des extractions de données via SAS Manipuler, structurer et nettoyer les données Effectuer les contrôles qualité sur les données produites Analyser les résultats et produire les indicateurs de pilotage Rédiger et présenter les analyses aux équipes métier Contribuer à la fiabilisation des référentiels data Échanger avec les équipes métier pour comprendre les besoins et restituer les résultats Profil recherché Bac +3 à Bac +5 en statistiques, mathématiques appliquées, data analysis ou domaine équivalent Expérience confirmée en tant que Chargé d’Études Statistiques, Data Analyst ou équivalent Maîtrise de SAS (SAS Base, Macro) Aisance dans la manipulation de données volumineuses Capacité d’analyse et de synthèse Bon relationnel et capacité à interagir avec les équipes métier Rigueur, autonomie, sens du contrôle et de la qualité des données Compétences techniques SAS Base / SAS Enterprise Guide SQL apprécié Connaissances en qualité de données et data management appréciées Connaissance du secteur assurance est un plus Soft skills Rigueur Autonomie Communication claire Travail en équipe Capacité d’adaptation
Freelance

Mission freelance
Process & Data Analyst

Publiée le
Data analysis
Gouvernance
Master Data Management (MDM)

1 an
500-570 €
Île-de-France, France
Télétravail partiel
Nous recherchons actuellement un(e) Process & Data Analyst pour accompagner les projets et assurer le lien entre les processus métier et les données nécessaires de notre client grand compte dans la logistique. Vous devrez : - Animer les groupes de travail pour créer les Service Blueprints, identifier les Data Use Cases et comprendre les dépendances fonctionnelles, - Réaliser les gap analyses afin d'identifier les systèmes IT impactés et préparer la création des fonctionnalités nécessaires, - Garantir la production des Data Use Cases basés sur les processus métier et les intégrer dans l'outil de Data Gouvernance du groupe, - Définir, avec les Data Stewards, les Business Rules et le cycle de vie des données transactionnelles et référentielles, - Accompagner les Data Stewards dans l'implémentation des données référentielles dans le Master Data Management, - Soutenir les Business Units dans l'implémentation des flux de données transactionnelles et l'utilisation des données référentielles, - Participer à l'enrichissement du Data Catalog via des définitions claires, - Contribuer aux tests d'intégration, systèmes et UAT, ainsi qu'à la gestion des migrations, stratégies de cut-over et chargements de données, - Analyser les données existantes dans les applications pour garantir la cohérence avec les solutions proposées et identifier des améliorations proactives de qualité de données, Vous travaillerez au sein d'une équipe d'experts Data Gouvernance et MDM, et serez accompagné(e) par nos Data Stewards pour mettre en place les processus conformément aux exigences des data owners des équipes métier.
Freelance

Mission freelance
DATA ANALYST

Publiée le
Azure
Cloud
ETL (Extract-transform-load)

1 an
Strasbourg, Grand Est
Télétravail partiel
Nous recherchons un Data Analyst expérimenté pour rejoindre un projet stratégique au sein d’un grand groupe industriel international. Cette mission, de longue durée, vise à renforcer la qualité des données à l’échelle du groupe et à accompagner les équipes métiers dans la mise en place de processus robustes. Votre rôle : Dans le cadre de cette prestation, vous serez responsable de la création et du maintien des reportings de qualité des données au niveau global. Vous interviendrez en étroite collaboration avec les différentes fonctions métiers afin de collecter les problématiques liées à la qualité des données , puis de traduire leurs besoins en spécifications techniques claires et exploitables . Vous jouerez également un rôle clé dans l’accompagnement des équipes à travers les différentes étapes de la méthodologie qualité des données, incluant la découverte des données , la définition des règles , leur exécution et le monitoring continu .
Freelance

Mission freelance
Marketing consultant (H/F) - 75

Publiée le
Automatisation
CRM
IA

6 mois
75017, Paris, Île-de-France
Télétravail partiel
Un de nos clients dans le cloud recherche un Consultant Marketing en freelance : Poste basé à Paris – Votre mission : En tant que relais des équipes Sales & Marketing (globales et locales), vous serez chargé d’évaluer, déployer et favoriser l’adoption des technologies marketing, des processus et des workflows qui soutiennent la stratégie go-to-market en pleine évolution. Votre objectif : Maximiser l’impact business grâce à : une organisation plus performante, des processus et workflows de lancement produit renforcés, une expérience digitale client optimisée. Nos indicateurs clés : génération de leads, efficacité des équipes, optimisation du stack technologique & des workflows, et développement de solutions internes innovantes. Votre équipe : Vous rejoignez l’équipe Global Marketing Operations, rattachée au département du Chief Revenue Officer. Un poste transversal au croisement du marketing, des ventes, de l’IT et des équipes techniques.
CDI

Offre d'emploi
Business Analyste Data

Publiée le
Méthode Agile

40k-56k €
Bordeaux, Nouvelle-Aquitaine
Le Business Analyst Data intervient au sein d’une squad Agile, assurant le suivi quotidien du run et la résolution des incidents. Il accompagne les utilisateurs, analyse leurs besoins et anime des workshops pour définir et clarifier les exigences métier. En collaboration avec les équipes techniques, il coordonne les actions connexes (ouvertures de flux, scheduling…), participe à la conception et à la spécification fonctionnelle des solutions data, ainsi qu’au paramétrage de la plateforme. Il contribue au packaging et à la livraison des évolutions, réalise les tests unitaires et d’intégration, et assure le support lors des mises en production ainsi que durant la période de garantie.
Freelance

Mission freelance
Lead Data Engineer Azure Databricks

Publiée le
Apache NiFi
Databricks
PySpark

3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Freelance

Mission freelance
Data Engineer DBT / Snowflake

Publiée le
DBT

3 mois
400-500 €
Paris, France
Télétravail partiel
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
3261 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous