L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 301 résultats.
Mission freelance
MOA Expert Entrepôt de données
Publiée le
MOA
2 ans
Paris, France
Télétravail partiel
Vous aimez relever des défis data ambitieux et piloter des sujets stratégiques au sein d’environnements exigeants ? Vous souhaitez évoluer au cœur d’un grand groupe bancaire en pleine transformation ? Cette opportunité est faite pour vous ! Nous recherchons un·e MOA Expert Entrepôt de données (7 à 10 ans d’expérience) pour accompagner notre client du secteur bancaire dans la structuration, l’optimisation et la gouvernance de son Data Warehouse. En tant que référent·e MOA sur le périmètre Entrepôt de données, vous serez en charge de : Prendre le lead sur les sujets Data Warehouse et assurer la cohérence fonctionnelle du périmètre Recueillir, analyser et formaliser les besoins métiers Définir les règles de gestion, les mappings fonctionnels et les spécifications MOA Piloter les évolutions et garantir l’alignement des solutions avec les exigences métiers et réglementaires Coordonner les équipes IT, Data, Métier et les parties prenantes projet Contribuer aux phases de recette : stratégie, cas de tests, exécution et analyse des anomalies Accompagner la mise en production et assurer le suivi post-déploiement Être force de proposition sur l’amélioration continue, la qualité des données et les bonnes pratiques MOA
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Mission freelance
Business Analyst Data (Épargne Retraite / Actuariat / SQL / PBI) – RUN PDK
Publiée le
kelia
Microsoft Power BI
Microsoft SSIS
2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour intervenir sur un programme stratégique de modernisation du SI Épargne. Vous interviendrez au sein du chantier en charge du puits de données consolidant les flux du progiciel de gestion Kelia et alimentant les usages métiers (décisionnel, actuariat, comptabilité, pilotage épargne…). 🎯 Vos responsabilités Suivi de production & qualité de la donnée Mettre en place et suivre les indicateurs d’exhaustivité et de qualité du PDK Définir des contrôles automatiques sur la chaîne de données Construire le morning report et suivre les anomalies de production Prise en compte des besoins métier Analyser les expressions de besoin des équipes métiers Participer aux ateliers et reformuler les besoins Modéliser les objets métiers et définir les règles de transformation des données Kelia Spécifications & Recette Produire les spécifications fonctionnelles détaillées Concevoir les plans de tests et réaliser les recettes de bout en bout Qualifier, documenter et suivre les anomalies Produire les reportings, PV de recette et supports de réunion
Mission freelance
Consultant fonctionnel Supply Chain
Publiée le
Ariba
Ivalua
Échange de données informatisé (EDI)
12 mois
450-500 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Consultant fonctionnel Supply Chain Télétravail: 6 jours par mois Objectif global : Mettre en œuvre les projets d’évolution des systèmes d’information existant sur les processus clés de la Supply Chain, en lien avec les équipes internes métier, particulièrement sur les processus ‘Gestion de la demande’ et ‘Approvisionnements’ Contrainte du projet: Environnement Pharmaceutique Les livrables sont: Assurer le support fonctionnel quotidien auprès des utilisateurs métiers Mettre en œuvre les projets d’évolution des SI Supply Chain Participer ponctuellement au programme de transformation Compétences: EDI - Confirmé - Important IVALUA - Confirmé - Souhaitable ARIBA - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel Impératif Description détaillée: Le client mène un vaste programme de transformation de ses processus Achats et Supply Chain, incluant le déploiement de nouveaux outils SI (ERP, APS, TMS, SI Achats). L'intégrateur met en place un dispositif combinant un chef de projet SI Achats, un consultant fonctionnel Supply Chain. Les missions portent à la fois sur le cadrage fonctionnel, la coordination projet, la recette, le support aux utilisateurs et la conduite du changement. L’objectif global est d'assurer la continuité opérationnelle tout en accélérant la modernisation des processus et outils du département Opérations.
Mission freelance
Chef de projet SI Achat
Publiée le
Ariba
Ivalua
Échange de données informatisé (EDI)
12 mois
450-500 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Chef de projet SI Achat Télétravail: 6 jours par mois Objectif global : Mettre en œuvre les projets d’évolution des systèmes d’information existant sur les processus clés de la Supply Chain, en lien avec les équipes internes métier, particulièrement sur les processus ‘Gestion de la demande’ et ‘Approvisionnements’ Contrainte du projet: Environnement Pharmaceutique Les livrables sont: Assurer le support fonctionnel quotidien auprès des utilisateurs métiers Mettre en œuvre les projets d’évolution des SI Supply Chain Participer ponctuellement au programme de transformation Compétences: EDI - Confirmé - Important IVALUA - Confirmé - Souhaitable ARIBA - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel Impératif Description détaillée: Le client mène un vaste programme de transformation de ses processus Achats et Supply Chain, incluant le déploiement de nouveaux outils SI (ERP, APS, TMS, SI Achats). L'intégrateur met en place un dispositif combinant un chef de projet SI Achats, un consultant fonctionnel Supply Chain. Les missions portent à la fois sur le cadrage fonctionnel, la coordination projet, la recette, le support aux utilisateurs et la conduite du changement. L’objectif global est d'assurer la continuité opérationnelle tout en accélérant la modernisation des processus et outils du département Opérations.
Offre d'emploi
Product Owner
Publiée le
BI
Data Warehouse
12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
3 mois
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)
Publiée le
MySQL
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Mission freelance
Data Engineer / Python / Azure MS Fabric (H/F)
Publiée le
Azure
Microsoft Fabric
PySpark
8 mois
550-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer / Python / Azure pour l'un de ses clients qui opère dans le secteur de l'énergie Description 🧩 Contexte de mission Dans le cadre du renforcement de l’équipe Data, nous recherchons Data Engineer spécialisé en Python, PySpark et Microsoft Fabric , évoluant dans un environnement Azure Cloud . Les consultants seront responsables de la conception, du développement et de la mise en production de pipelines et architectures data au sein d’un contexte orienté performance, scalabilité et industrialisation. 🎯 Missions principales & rôle Le Data Engineer interviendra sur : La collecte et l’analyse des besoins métiers et utilisateurs La conception d’architectures de données robustes et scalables Le développement de pipelines de données (ingestion, transformation, modélisation) La mise en production des pipelines et leur optimisation continue La maintenance et l’évolution des architectures existantes Le respect des bonnes pratiques et standards d’ingénierie data 📌 Objectifs Concevoir une architecture data fiable, évolutive et documentée Industrialiser les pipelines pour garantir performance et qualité Assurer un haut niveau de disponibilité et de maintenabilité des solutions Accompagner les équipes internes dans la compréhension et l’usage des pipelines Contribuer à la structuration et à la maturité data de l’organisation
Offre d'emploi
Chef de projet migration - gestion des appareils mobiles
Publiée le
Puteaux, Île-de-France
IT-NewVision est une ESN spécialisée dans l'intégration de systèmes d’information pour les secteurs de l’eau et de l’énergie. Notre expertise couvre tout le cycle métier : la relation client, le recouvrement, la tarification, la facturation et l’exploitation des données. “ En rejoignant ITNV, vous intégrez une entreprise convaincue que son épanouissement dépend de celui de ses collaborateurs. Nous réservons à nos nouveaux collaborateurs un accueil aux petits oignons et multiplions les occasions de nous retrouver (soirées d’entreprise, Afterworks, séminaires…) ! ” Un Management à l’écoute Notre structure, à taille humaine, permet à chaque consultant d’avoir un interlocuteur impliqué dans la stratégie de l’entreprise : tous nos managers sont membres du Comité Exécutif. Nous favorisons le management participatif et encourageons les échanges. Nous encourageons les prises d'initiative : chaque consultant compte et peut apporter sa vision dans les projets internes du cabinet mais également dans sa stratégie. Une société engagée L’ITeam, c’est avant tout une équipe de femmes et d'hommes , de tout horizons (10 nationalités représentées), passionnés par leur travail, investis et solidaires. Modestement, à notre échelle, nous tentons d’adopter les bons gestes (diminution de notre empreinte numérique, suppression du plastique, nettoyage des plages…) et de prendre la parole quand cela nous tient à cœur (journée des droits des femmes, de l’environnement, Octobre Rose, Atelier de prévention sur des sujets de santé). Les métiers de l'énergie Le secteur de l'Energie et des Utilities, les métiers de la relation client et de la facturation sont notre ADN. A l'heure où les priorités environnementales et les comportements changent en profondeur, nous accompagnons nos clients dans leur transformation digitale. La déréglementation, les changement climatiques et les avancées technologiques impactent les enjeux du secteur des Utilities sur l’ensemble de la chaîne de valeur : nouveaux modèles de distribution et modes de consommation. Avantages : Tickets restaurants Mutuelle 50% Transports RTT Votre Mission : Piloter le Changement IT au cœur d'une Transformation Nationale Nous recherchons, pour un de nos clients grands comptes, leader dans son secteur , un Chef de Projet confirmé pour prendre en charge la migration d'un outil stratégique de gestion des assets mobiles (smartphones, tablettes, abonnements standards et M2M). Vos Responsabilités Clés : Pilotage du Projet : Gérer le cycle de vie du projet jusquà la validation finale (dossier GO/NO GO à la direction). Piloter les différentes phases de migration de bout ...
Offre d'emploi
Concepteur base de données Oracle (H/F)
Publiée le
Oracle Database
Oracle SQL Developer
PL/SQL
6 mois
Écully, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un(e) Concepteur(trice) base de données Oracle capable de transformer les besoins métiers en modèles de données clairs, cohérents et évolutifs. Vous travaillerez en collaboration avec les équipes métiers et techniques pour structurer et ordonner les objets de la base, garantissant un modèle adapté aux évolutions futures. Vos missions : Analyser les besoins métiers et formaliser le modèle de données. Concevoir et modéliser les objets de la base (tables, vues, relations, contraintes). Organiser le schéma de manière cohérente et évolutive. Produire la documentation fonctionnelle (dictionnaire de données, schémas conceptuels et logiques). Collaborer avec les équipes techniques pour assurer la bonne implémentation du modèle.
Offre d'emploi
Program Manager - Procurement transformation
Publiée le
Pilotage
18 mois
40k-45k €
100-600 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 10 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Program Manager Spécialités technologiques : Qualité des données : Program Management Dans le cadre d’un programme global de transformation du procurement lancé, l’entreprise recherche un Project / Program Manager senior pour piloter et coordonner l’ensemble des chantiers fonctionnels liés à la modernisation des processus, outils et données achats. MISSSIONS Assurer le pilotage fonctionnel transverse du programme, depuis l’analyse métier jusqu’au déploiement et au décommissionnement des solutions, en animant les parties prenantes Procurement, Finance, Data, IT et projets locaux — sans rôle hiérarchique, mais avec un leadership d’influence fort. Responsabilités Pilotage du programme de transformation Procurement - Structurer et suivre les différents chantiers fonctionnels. - Animer les responsables de projets métiers. - Préparer et consolider la feuille de route, les synthèses, les arbitrages. - Garantir l’alignement entre entités, Finance Groupe, Procurement Groupe et Data. Cadrage fonctionnel & gouvernance produit - Définir et faire évoluer le modèle cible des processus achats. - Participer aux décisions de priorisation, tout en intégrant la gouvernance existante. - Superviser l’ensemble du cycle de vie des solutions : cadrage → déploiement → adoption → évolution → décommissionnement. Coordination des roll-outs - Piloter le déploiement dans les entités. - Assurer la cohérence des pratiques et accompagner les équipes locales. Data & interfaçage – Coordination fonctionnelle - S’assurer de la qualité des données et de leur bonne circulation entre systèmes. -Comprendre les logiques d’interfaces, les points d’attention fonctionnels, les dépendances. - Coordonner les acteurs data/IT, clarifier les besoins, valider la cohérence fonctionnelle. - Challenger les propositions techniques sans produire de spécifications techniques. Analyse et structuration - Réaliser des analyses métier bottom-up : process, outils, irritants, données. - Produire des synthèses claires, structurées et adaptées aux comités exécutifs. - Capable de porter un elevator pitch auprès d’un CFO, CPO ou DG. Interaction avec les instances clés - Interlocuteurs principaux : CPO des entités, N-1, Group Finance, Data, IT, PMO. - Préparation des demandes d’investissements auprès du CFO. - Participation aux comités stratégiques et décisionnels. Expertise souhaitée - 10–15 ans d’expérience en transformation, program management ou projets transverses. - Forte compréhension des processus achats et des enjeux procurement. - Connaissance des problématiques data (qualité, modèles, circulation des données). - Expérience significative de coordination multi-entités.
Mission freelance
Chef(fe) de Projet Anaplan - Supply Planning & Transport
Publiée le
Anaplan
Gestion de projet
SAP
12 mois
510-700 €
Paris, France
Télétravail partiel
Au sein d’un groupe international du secteur Retail , en pleine transformation de sa supply chain, vous interviendrez sur un projet stratégique de déploiement d’un nouvel environnement Anaplan couvrant le Supply Planning et le Transport . Le projet s’intègre dans un programme global de migration vers SAP et d’harmonisation des processus supply chain sur l’ensemble des sites. Responsabilités : Piloter l’ensemble du projet Anaplan (Supply & Transport). Coordonner les équipes métiers , IT , data et l’ intégrateur . Gérer le planning , le budget et la gouvernance du projet. Garantir la cohérence des processus et des données entre Anaplan , SAP et les opérations supply chain. Superviser les flux d’intégration dans le cadre de la migration. Accompagner les équipes dans la conduite du changement .
Mission freelance
Data Engineer GCP (Rouen)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
301 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois