Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 669 résultats.
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Mission freelance
PMO Data
Codezys
Publiée le
Animation
Data management
Gouvernance
12 mois
330-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre de ses programmes de transformation stratégique, notre organisation souhaite renforcer la mise en œuvre de ses initiatives « data ». À cet effet, nous recherchons un PMO expérimenté afin d’assurer l’animation opérationnelle des équipes plateformes. La mission consiste à coordonner et suivre l’ensemble des travaux liés à la mise en œuvre des attendus « data », en veillant à la conformité avec les enjeux de gouvernance et d’architecture data. Le candidat idéal devra posséder une solide expertise en architecture data et gouvernance , afin d’accompagner efficacement les équipes dans la réalisation des objectifs stratégiques. Type de mission : Temps plein Démarrage : Dès que possible Objectifs et livrables Management de la backlog d'évolution : Assurer la priorisation, la gestion et la coordination des évolutions nécessaires pour la plateforme data en alignement avec les objectifs du programme. Animation des rituels de suivi par plateforme : Organiser et animer les réunions régulières afin de faire le point sur l’avancement, identifier les risques et coordonner les actions correctives. Reporting au directeur de programme : Élaborer des rapports synthétiques et précis pour suivre l’état d’avancement, les enjeux et les résultats des travaux en cours auprès de la direction.
Mission freelance
FREELANCE – Data Manager (H/F)
Jane Hope
Publiée le
Data Strategy
3 mois
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Notre client, basé à Cagnes sur Mer (06) est à la recherche d’un Data Manager (H/F) freelance dans le cadre de l’accompagnement des utilisateurs métier à la prise en main de nouveaux systèmes et modèles de données. MISSIONS · Traduire les besoins métiers mis en lumière par le business analyst en besoins techniques notamment en termes de requêtes SQL et de tableaux de bord à mettre en place · Être l’interface technique auprès du client : accompagner les clients ayant des lacunes en requêtes SQL et leur proposer des solutions · Occuper un rôle de data manager mentor pour transmettre l’information et accompagner les équipes · Echanger avec différents interlocuteurs, aussi bien techniques que métiers · Animer des ateliers pour présenter les modèles et faire monter en compétences l’ensemble des clients
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Mission freelance
Business Analyst – ALM Treasury Transformation - Paris
Net technologie
Publiée le
ALM
Data quality
Recette
9 mois
Paris, France
Dans le cadre d’un programme stratégique de modernisation du SI ALM Treasury , nous recherchons un(e) consultant(e) pour accompagner la refonte des moteurs de calcul des indicateurs de risque de taux et de liquidité du Banking Book . 🎯 Missions Organisation et coordination des tests UAT des nouveaux moteurs de calcul Validation des modélisations (échéanciers, positions optionnelles, P&L, taux de cession interne) Contribution aux contrôles de Data Quality Coordination du déploiement des solutions en France et à l’international Animation d’ateliers métiers & coordination avec les équipes IT Suivi des roadmaps et dépendances projets 📌 Contribution possible à la rédaction de Business Requirements (≈20%).
Mission freelance
Préparation des données industrielles (BOM, gammes, postes, articles) en vue de la bascule vers SAP
Mon Consultant Indépendant
Publiée le
Data management
Gestion de projet
6 mois
500-540 €
Paris, France
Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Offre d'emploi
Business Analyst Data
Peppermint Company
Publiée le
Business Analyst
Data management
Développement
Sophia Antipolis, Provence-Alpes-Côte d'Azur
vous interviendrez dans une Business Unit transverse couvrant plusieurs domaines : ✈️ Airline – 🏨 Hospitality – 🚆 Rail La mission s’inscrit dans un programme stratégique autour de la Data Platform (création et structuration d’outils data à grande échelle). 🧩 Missions Recueil et analyse des besoins métiers Rédaction des spécifications fonctionnelles Interface entre équipes techniques et métiers Contribution à la construction de la plateforme data Participation aux ateliers et cadrage fonctionnel Accompagnement des équipes sur les sujets data
Mission freelance
Developpeur Data Engineer
Freelance.com
Publiée le
Big Data
Snowflake
3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Mission freelance
Architecte Data – Azure/Databrics
Hexagone Digitale
Publiée le
Azure
Azure Data Factory
BI
6 mois
450-550 €
Paris, France
Dans le cadre du renforcement de sa Data Factory, un grand groupe international accélère la structuration de sa plateforme data sur Microsoft Azure avec un usage central de Databricks pour le traitement, la transformation et la valorisation des données. L’environnement s’inscrit dans une logique Data Lake , organisation Bronze / Silver / Gold et montée en maturité data à l’échelle groupe. Mission L’Architecte Data interviendra sur la conception et l’industrialisation de la plateforme data Azure. Ses responsabilités principales : Concevoir et faire évoluer l’architecture data sur Azure Structurer et optimiser les pipelines data via Databricks (Spark) Mettre en place les traitements de transformation et d’agrégation Modéliser les données pour les usages analytiques Garantir performance, scalabilité et qualité des flux Participer aux ateliers de cadrage technique avec les équipes métiers et IT Contribuer aux standards d’architecture et aux bonnes pratiques data Compétences clés (Must Have) Databricks (obligatoire) Azure (Data Lake, Synapse, Data Factory) Spark / PySpark SQL avancé Architectures Data Lake – Bronze / Silver / Gold Conception de pipelines data industrialisés Modélisation Data Warehouse Compétences appréciées (Nice to Have) Power BI DAX MDM (Master Data Management) Data Quality / Gouvernance Data Mesh Azure DevOps / Git ERP (SAP) Profil recherché 5 à 10 ans d’expérience en Data Engineering / Architecture Data Expérience confirmée sur des environnements Azure + Databricks Capacité à intervenir sur des environnements data complexes Autonomie technique et posture structurante Bon relationnel et capacité à challenger les choix d’architecture Environnement de travail Cloud : Microsoft Azure Traitement data : Databricks, Spark Stockage : Azure Data Lake Gen2 Orchestration : Azure Data Factory BI (selon besoins) : Power BI Gouvernance (selon périmètre) : MDM / Data Quality Conditions de la mission Lieu de la mision : Paris Mission longue : 6 à 12 mois renouvelables Temps plein Télétravail partiel possible Démarrage rapide TJM : 450-550€
Mission freelance
Chef de projet Vision client 360 - IA & Data
Clémence Consulting
Publiée le
Data management
IA
SQL
9 mois
Paris, France
Le scope fonctionnel du projet "360 Client" est bien cadré et consiste à mettre en place une "plateforme" qui consommera des données issues de systèmes métiers, et utilisera des services IA tels que la qualification des demandes et l'aide à la réponse. Le Chef de projet que nous recherchons aura plusieurs rôles : piloter le projet et coordonner les directions / services impliqués réaliser les ateliers et produire les livrables tels que spécifications et US, cahiers de tests et recette, accompagner les métiers dans l'appropriation accompagner le passage du projet vers les équipes RUN Les dimensions que le Chef de projet aura en charge sont : le projet d'intégration de la plateforme, qui est cadré et où il faut aller dans les détails le chantier data qui doit mettre à disposition les données qui seront consommées par la pf. Un CRM, un MDM Client et des API existent, mais il faudra cadrer, spécifier, piloter etc le reste à faire sur le chantier DATA et pour les futurs services IA
Mission freelance
Data Engineer Principal
Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake
6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Offre d'emploi
Product Owner / Data Steward
OCTOGONE
Publiée le
Data governance
Data modelling
IA
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Product Owner / Data Steward capable de jouer un rôle central dans la transformation Data & IA de l’entreprise. Profil recherché : Expérience solide en change management , transformation et accompagnement d’équipes Aisance dans l’ animation , la facilitation et la fédération de publics variés (contexte international) Capacité à structurer une vision , construire une roadmap et piloter le changement Sensibilité aux enjeux Data / IA (pas besoin d’expertise technique) Curiosité pour comprendre les modèles de données, référentiels et la sémantique Mission : Donner du sens à la démarche “Data & IA driven” Animer ateliers, communautés et groupes de travail Contribuer à l’acculturation Data/IA (sensibilisation, formations) Suivre l’adoption, valoriser les succès et ajuster les pratiques Faire le lien entre les équipes data, IA, IT et gouvernance Compétences Connaissance des data platforms (stockage, transformation, visualisation) Compétences en Data Governance et Data Modeling Excellentes compétences relationnelles, organisationnelles et d’animation
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Mission freelance
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD
12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Offre d'emploi
Data scientist (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
Deep Learning
Ocaml
41k-47k €
Roubaix, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Scientist
Avanda
Publiée le
Villeneuve-d'Ascq, Hauts-de-France
Nous recherchons un(e) Data Scientist confirmé(e) pour rejoindre notre équipe de consultants Data & IA, en mission chez l'un de nos clients, acteur majeur dans sa region, au cœur de leurs initiatives d'intelligence artificielle appliquées aux stratégies de push marketing et de fishing marketing. Vos missions : Veille technologique et innovation autour des solutions IA/ML (Deep Learning, LLM, IA générative) Conception et développement de PoC et MVP pour valider des approches innovantes Analyse de données complexes, modélisation et entraînement de modèles IA Collaboration étroite avec les équipes métiers, Product Owners et équipes transverses Intégration des solutions sur les plateformes IA existantes (ML & GenAI) Requirements Expertise Python et Machine Learning Maîtrise de PyTorch, avec une expérience en NLP et Deep Learning Expérience sur Google Cloud Platform (GCP) Expérience sur des projets de LTR, ranking, génération d'embeddings ou fine-tuning de LLMs Une expérience dans le secteur marketing, agence, e-commerce est un vrai atout
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1669 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois