Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 861 résultats.
Freelance

Mission freelance
Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) -- 92

Montreal Associates
Publiée le
Apache Kafka
API
Confluence

7 mois
550-700 €
Puteaux, Île-de-France
🚀 Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) Dans un contexte grand groupe international et multiculturel, vous pilotez les services d’intégration data autour des plateformes Talend (Cloud & hybride) et Kafka Confluent , avec des enjeux forts de scalabilité, performance et gouvernance data . • Pilotage du RUN et des projets (CRM, PIM, annuaire…) • Cadrage des besoins, architecture et conception des flux data • Management d’une équipe offshore (Inde) • Suivi opérationnel des plateformes Talend & Kafka (monitoring, upgrade, incidents) • Gestion du capacity planning & facturation • Définition et diffusion des bonnes pratiques data & intégration 🔎 Ce que l’on recherche Un Chef de Projet Data très opérationnel , capable de piloter à la fois le RUN et les projets, avec une vraie expertise technique ETL/streaming et une capacité à gérer des environnements complexes à grande échelle. #Data #ETL #Talend #Kafka #Streaming #DataEngineering #ProjectManager #Freelance
CDI

Offre d'emploi
Data Scientist / Actuariat - CDI F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
SQL

Niort, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur Data

STHREE SAS pour COMPUTER FUTURES
Publiée le
Dataiku
SQL

3 mois
280-400 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche Ingénieur Data : Missions principales : Ø Concevoir, développer et optimiser des flux de données performants et robustes. Ø Alimenter les entrepôts de données et DataMart du périmètre Assurance Vie. Ø Participer à la conception de modèles de données :,MCD, Modélisation dimensionnelle, Schémas adaptés aux besoins métier Assurance Vie. Ø Industrialiser les processus de préparation, transformation et contrôle de la donnée. Ø Forte utilisation de Dataiku pour automatiser et standardiser les workflows. Ø Assurer l’intégration des données dans les outils de Business Intelligence (notamment Tableau). Ø Optimiser la préparation et la performance des jeux de données pour les équipes métiers. Ø Garantir la qualité, la performance et le maintien en condition opérationnelle (MCO) des pipelines et environnements DATA. Ø Contribuer à l’amélioration continue, à la résilience et à l’optimisation des processus existants.
CDI

Offre d'emploi
Consultant Senior ETL/ Data Engineering H/F - CDI

GROUPE ARTEMYS
Publiée le
Conception

40k-45k €
76600, Le Havre, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons dès à présent un Consultant Senior ETL/ Data Engineering H/F en CDI. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions pour l'un de nos clients au Havre (76) auprès duquel vous aurez la possibilité d'effectuer les tâches suivantes : Réaliser un audit complet (état des lieux, identification des points de blocage) Formuler des recommandations concrètes sur l’architecture, les workflows et les usages Accompagner les équipes dans la mise en œuvre des préconisations Vos missions Phase 1 – Audit : Analyse des deux environnements ETL existants Évaluation des workflows, de l’architecture et des usages Identification des axes d’amélioration Rédaction d’un audit structuré avec recommandations actionnables Phase 2 – Accompagnement : Participation à la refonte des workflows et de l’architecture Aide à la mise en œuvre des solutions recommandées Accompagnement des équipes internes (montée en compétences) Contribution à la clarification des usages ETL vs API Le profil que nous recherchons : Minimum 8 ans d’expérience en ETL / Data Engineering Forte capacité d’analyse et de prise de recul (vision architecture et workflows) Expérience sur plusieurs solutions ETL (capacité de comparaison et projection) Solide culture data engineering (architecture, conception, refonte) Bonne maîtrise des bases de données (relationnelles type MySQL et NoSQL type Cassandra) Bonne compréhension des API et capacité à distinguer les usages ETL vs outils API La connaissance de NiFi est un plus Vous êtes reconnu.e pour votre posture de conseil, votre force de proposition, votre vision stratégique, votre pédagogie et votre orientation solutions Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 40 000 - 45 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Freelance

Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)

Octopus Group
Publiée le
BI
Dataiku
Finance

6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Freelance

Mission freelance
Data Analytics Manager

Axysse
Publiée le
Analyse financière
Microsoft Power BI

4 mois
400-550 €
Île-de-France, France
📍 Secteur Luxe 🌍 Environnement international | Forte exposition stratégique Un acteur majeur du secteur du luxe , en pleine phase d’expansion internationale dans l’univers du travel premium (hospitality, expériences exclusives, mobilité haut de gamme), recherche son/sa futur(e) Data Analytics Manager . Dans un contexte de lancement d’offres et de structuration d’activités à forte valeur ajoutée, vous interviendrez au cœur des enjeux de performance économique et d’optimisation stratégique. 🎯 Votre mission Rattaché(e) à une direction stratégique, vous serez responsable de la maximisation des revenus via une approche data-driven combinant pricing dynamique, gestion d’inventaire et pilotage distribution. 🔹 Revenue & Distribution Pilotage des données distribution dans les systèmes centraux (CRS / PMS / RMS) Lancement des nouvelles saisons commerciales Mise en place et optimisation de stratégies de pricing dynamique Allocation stratégique de l’inventaire selon les prévisions de demande Analyse benchmarking & performance marché Collaboration étroite avec Sales & Reservations 🔹 Data Analytics & Performance Construction et optimisation de dashboards interactifs (Power BI / Tableau) Production de reportings exécutifs à forte valeur stratégique Automatisation des analyses de performance Analyse approfondie des indicateurs clés (revenu, taux d’occupation, yield…) 🔹 Intelligence Marché Analyse concurrentielle avancée Intégration de nouvelles sources de données Identification d’opportunités et d’axes d’amélioration business 💎 Pourquoi rejoindre ce projet ? Environnement luxe en forte expansion Projet structurant avec impact direct sur la rentabilité Forte exposition stratégique Culture d’excellence et d’innovation Dimension internationale
CDI

Offre d'emploi
Actuaire - Data Scientist Mrh H/F

█ █ █ █ █ █ █
Publiée le
Git
Numpy
Ocaml

Suresnes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer AI / LLM Snowflake (H/F) – Expérimenté H/F

Comet
Publiée le
Agent IA
Python
RAG

12 mois
400-550 €
Île-de-France, France
Contexte Au sein de la division Global Beauty Tech, l’équipe Data & Analytics Corporate IT Global de L'Oréal pilote des plateformes data stratégiques à l’échelle mondiale (RH, Finance, Campus). L’environnement technologique repose sur : Snowflake (plateforme analytique centrale) Google Cloud Platform (GCP) (BigQuery, Cloud Composer, GCS) Dans le cadre de son ambition 2026, l’équipe accélère fortement sur l’ IA générative et agentique , notamment via Snowflake Cortex et l’écosystème Snowflake Intelligence. 👉 Objectif : passer de PoC prometteurs à des solutions industrialisées, robustes et scalables . Votre mission Vous interviendrez sur un projet stratégique : “Talk to My HR Data” – une plateforme permettant aux métiers RH d’interroger leurs données en langage naturel via des agents IA. Vos responsabilités : 🏗️ Conception du framework IA Définir une architecture agentique sur Snowflake (LLM, orchestration, mémoire) Concevoir des patterns réutilisables (agents, tools, prompts) Formaliser les bonnes pratiques et standards 🤖 Développement d’agents IA Développer des agents Cortex pour des cas RH complexes Implémenter des solutions RAG et outils métiers (SQL sémantique, agrégations) Optimiser la fiabilité (ReAct, Chain-of-Thought) 🔌 Mise en place de serveurs MCP Concevoir des serveurs Model Context Protocol Exposer les données Snowflake aux LLMs Garantir sécurité & conformité (RGPD, données RH) 💬 Développement d’interfaces Créer des apps conversationnelles avec Streamlit in Snowflake Intégrer les agents dans des dashboards analytiques Améliorer l’expérience utilisateur (historique, feedback, erreurs) 📊 Gouvernance & performance IA Monitorer les usages LLM (coûts, latence, qualité) Optimiser les performances et coûts GenAI Mesurer le ROI des cas d’usage
Freelance
CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL

3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL

12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Freelance
CDD

Offre d'emploi
Expert Microsoft 365 et support technique

YGL consulting
Publiée le
microsoft
Microsoft Power BI
SharePoint

3 mois
Paris, France
Nous recrutons un(e) consultant(e) Expert(e) sur Microsoft 365 pour notre client parisien. MISSIONS: Pilotage de projets transverses liés aux outils Microsoft 365 et à l’environnement de travail des utilisateurs (salles de réunion, postes de travail…) : Définition de plans d'action, suivi d'activité, coordination avec les équipes techniques, planification, mise en place d'indicateurs et de reporting. Accompagnement des utilisateurs dans le cadre d’évolutions technologiques (ex : systèmes de visioconférences, outils Microsoft 365, authentification forte, Windows 10 vers Windows 11…) : Animation de webinaires, coaching individuel et ateliers collectifs, création de contenus pédagogiques (présentations PPT, articles, vidéos, infographies…). Organisation et accompagnement des directions métiers pour les événements hybrides (Top managers, plénières, conférences de presse, salons internes…) : Gestion du planning et des statistiques de participation, mise en place et vérification du matériel, création de la réunion sur Teams et vérification des paramètres, coordination logistique et technique, conseil aux utilisateurs sur les bonnes pratiques des réunions. Gestion de portails SharePoint : Analyse de l’existant, conseil sur la conception et la création de sites de communication ou d’équipes, proposition d’arborescences, rédaction et mise à jour des contenus (pages, actualités, vidéos…).
CDD
CDI
Freelance

Offre d'emploi
Ingénieur d’étude Décisionnel - Profil Expérimenté

KEONI CONSULTING
Publiée le
PostgreSQL
Scrum
Teradata

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte du besoin Le client, dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement. La mission a pour objet le renforcement de l'équipe de développement avec l'intégration d'une ressource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le profil devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS : -Définition de la prestation attendue : Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programe dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL TACHES : Taches de développement en coordination avec équipe BE , qualification et scrum master POWER BI , Datastage Teradata, et PostgreSQL Intégration de l'équipe RUN (Prise en compte d'anomalies et d'évolutions)
CDI

Offre d'emploi
Développeur C# / SQL Server (F/H)

CELAD
Publiée le

35k-40k €
Nancy, Grand Est
CDI (35-40K€) - Nancy - Télétravail 1 jour / semaine - Expérience de 2 ans minimum (hors stages / alternance) Vous souhaitez contribuer à des projets stratégiques ? Nous avons une opportunité qui pourrait vous correspondre ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur C# / SQL Server pour intervenir chez un de nos clients. Vous serez amené.e à travailler sur des projets variés, couvrant des domaines fonctionnels et techniques tels que : - la gestion des crédits (consommation, immobilier, entreprises) - la gestion des risques et la lutte contre la fraude - la gestion des garanties et du provisionnement - les activités immobilières (vente, location, promotion, financement) Votre rôle au quotidien : - Développer et déployer une nouvelle application de gestion des crédits - Fournir des outils performants aux filiales immobilières - Renforcer les capacités analytiques des applications dédiées à la gestion des risques et à la lutte contre la fraude - Mettre en conformité les systèmes avec les nouvelles réglementations européennes - Développer des outils de contrôle renforcés et une plateforme de crédit-bail innovante Stack technique : - C#, ASP.Net, SQL Server. - Grand Système IBM : Cobol, DB2, TFS. ⚙️ Vos responsabilités : - Analyse des besoins : Dialoguer avec les équipes métier pour proposer des solutions pertinentes et adaptées - Conception technique : Contribuer à l’architecture fonctionnelle et technique des solutions - Cycle de vie des projets : Être impliqué(e) dans toutes les phases, de l’analyse au déploiement et au support technique - Qualité et engagements : Respecter les plannings, les objectifs, et garantir un code propre et conforme aux standards qualité Quelques infos importantes à retenir : - Expérience de 2 ans minimum (hors stages / alternance) - Type de contrat : CDI - Télétravail : 1 jour / semaine
Freelance

Mission freelance
Ingénieur Data Ops / Systèmes – Support & Exploitation Plateforme Data (Production / Run) (H/F)

TechOps SAS
Publiée le
Apache Airflow
Dremio
Grafana

12 mois
400-510 €
Île-de-France, France
Dans le cadre du renforcement d’une plateforme Data en production, nous recherchons un Ingénieur Système / Data Ops pour intégrer une équipe en charge du support et de l’exploitation d’un Data Hub et d’une plateforme de Data Virtualisation. Le poste consiste à assurer le bon fonctionnement des environnements de production, à superviser les traitements de données, à coordonner les incidents et à garantir la continuité de service. Vous interviendrez sur le monitoring quotidien des flux, la gestion des incidents et des problèmes, ainsi que sur la coordination des mises en production et des changements techniques. Vous serez également amené à analyser les incidents, proposer des actions correctives et préventives et participer à l’amélioration continue des processus et des outils de supervision.
Freelance
CDI
CDD

Offre d'emploi
Master Data Manager SAP

SARIEL
Publiée le
ERP
Master Data Management (MDM)
SAP

12 mois
Villepinte, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un SAP MDM Intitulé du poste Responsable Master Data (Master Data Manager) Localisation : Siège – Villepinte Rattachement hiérarchique : Architecte Informatique Environnement : Systèmes d’information – Data, Intégration & Middleware Encadrement Management direct d’une équipe de Data Stewards __________ Contexte et enjeux du poste Dans un environnement multi-ERP et multi-applicatif, le Responsable Master Data est garant de la qualité, de la cohérence et de la gouvernance des données de référence. Il définit, maintient et fait évoluer le dictionnaire de données, pilote les logiques de migration et sécurise les flux d’échanges de données entre les différents ERP (dont SAP) et briques applicatives. Ce rôle est clé dans les projets de transformation digitale, de migration ERP et d’urbanisation du SI. __________ Missions principales Gouvernance et qualité des Master Data • Définir, maintenir et faire évoluer le dictionnaire de données (modèles, attributs, règles de gestion) • Garantir l’application des standards et règles de gouvernance des données • Assurer la qualité, la cohérence et l’unicité des données de référence • Mettre en place des indicateurs de qualité de données (DQ) Flux de données & interopérabilité • Définir et piloter les logiques d’interaction et de synchronisation des données o Entre ERP (SAP, autres ERP) o Entre ERP et briques applicatives (CRM, WMS, BI, outils métiers…) • Travailler avec les équipes techniques sur les flux ETL / ELT • Participer à l’urbanisation du SI Data Migration de données • Piloter et sécuriser les projets de migration de données • Définir les règles de mapping, de transformation et de reprise des données • Participer aux phases de tests, de validation et de mise en production • Capitaliser sur les retours d’expérience pour améliorer les processus Management de l’équipe Data Steward • Encadrer, animer et faire monter en compétence l’équipe de Data Stewards • Définir les rôles, responsabilités et priorités • Assurer l’alignement entre les métiers, l’IT et la gouvernance data • Être le point de référence sur les sujets Master Data Collaboration transverse • Travailler étroitement avec : o Les équipes métiers o Les équipes IT / ERP / BI o Les chefs de projet data et ERP • Participer aux comités de gouvernance Data __________ Objectifs clés du poste • Sécuriser la fiabilité et la cohérence des données de référence • Réussir les projets de migration et de transformation ERP Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
3861 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous