Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
Responsable Produit IT Middleware (Middleware IT Product Lead)
Contexte du poste Nous recherchons un Responsable Produit IT Middleware pour piloter l’ensemble des activités d’intégration B2B avec les partenaires externes au sein du Centre d’Excellence IT (CoE) . Le poste consiste à définir les standards d’architecture middleware , gérer les plateformes d’intégration existantes, et encadrer les équipes de développement locales et offshore afin d’assurer la bonne mise en œuvre des solutions B2B. Le/la candidat(e) sélectionné(e) aura également la responsabilité de superviser les plateformes middleware existantes telles qu’ ECS OpenText , tout en conduisant les nouveaux projets d’intégration basés sur la plateforme Axway PaaS (Axway B2Bi et Axway Sentinel). Ce rôle requiert un équilibre entre expertise technique pointue dans les solutions d’intégration middleware et compétences managériales et collaboratives pour piloter des équipes internationales et transverses. Responsabilités principales 1. Leadership et Architecture Middleware Définir et appliquer les standards d’architecture middleware pour les projets d’intégration B2B. Piloter la mise en œuvre des solutions Axway PaaS (Axway B2Bi, Sentinel) pour garantir des architectures robustes et évolutives. Évaluer et optimiser les protocoles d’intégration ( AS2, EDI, XML , etc.) afin de répondre aux besoins métiers. 2. Gestion des Plateformes Middleware Superviser les plateformes middleware existantes, notamment ECS OpenText , en veillant à leur performance, leur fiabilité et leur scalabilité. Réaliser des audits systèmes et des revues de performance pour identifier les axes d’amélioration. Gérer les mises à jour, correctifs et évolutions d’infrastructure pour accompagner la croissance de l’entreprise. 3. Management d’Équipe et Collaboration Encadrer l’équipe middleware locale basée à Marseille ainsi que l’équipe offshore basée en Inde. Garantir une communication fluide et une coordination efficace entre les équipes globales. Apporter un soutien technique , du mentorat et des formations pour développer les compétences internes. 4. Gestion de Projets Piloter les projets d’intégration B2B de bout en bout : recueil du besoin, conception, développement, tests, déploiement et support post-production. Coordonner les activités entre équipes techniques, analystes B2B et métiers pour assurer l’adéquation entre la solution technique et les objectifs business. S’assurer du respect des exigences de sécurité , de performance et des SLA . 5. Innovation et Veille Technologique Assurer une veille active sur les nouvelles technologies et tendances du marché dans le domaine du middleware et des intégrations B2B. Proposer et mettre en œuvre des solutions innovantes pour renforcer la performance et la fiabilité des échanges intersystèmes.
Offre d'emploi
Data Analyst confirmé
Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst – confirmé (4 - 10 ans d’expérience) Objectif : Accompagner l’entité Juridique du Groupe sur les sujets énergies Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques PYTHON - Confirmé - Impératif POWERBI - Confirmé - Important DATABRICKS - Confirmé - Important SQL - Confirmé – Important Connaissances linguistiques Français Courant (Impératif) Anglais Notions (Secondaire) Définition du profil CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes Données complémentaires Date de démarrage 08/12/2025 Lieu de réalisation Bondoufle Déplacement à prévoir non Le projet nécessite des astreintes non Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Tech Lead Data
Nous sommes un leader mondial dans la fabrication de matériaux composites et de solutions innovantes . Depuis plus d’un siècle, nous repoussons les limites de la science des matériaux pour contribuer au progrès humain et à un monde plus durable . Grâce à notre expertise technologique dans les composites polymères , nous innovons continuellement pour produire des solutions de haute qualité destinées à des applications critiques dans des secteurs exigeants tels que la mobilité, la construction, l’aéronautique, les énergies bas carbone ou la santé . L’attention que nous portons à nos produits et notre connaissance fine des usages de nos clients nous permet d’offrir des expériences exceptionnelles , qu’il s’agisse de solutions connectées et intelligentes pour des flottes professionnelles , ou de services uniques pour nos consommateurs finaux .
Mission freelance
Data Analyst Tableau
Je recherche un Data Analyst Tableau ayant des connaissances UX et plus de 10 ans d' experience Vous serez au cœur de la démarche de pilotage par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité de plusieurs métiers. Mettre en place une solution d’automatisation de la production d’un reporting Automatiser la production du lineage d’un applicatif Organiser des comités de pilotage Construire un dashboard de pilotage afin de mesurer la distance entre un point de vente et nos conducteurs Améliorer un reporting existant en y ajoutant un indicateur calculé à partir de plusieurs sources de données Rédiger des spécifications Reporting et extractions Extractions de données, y compris pour la construction des budgets Construire des indicateurs Créer et maintenir des dashboards TABLEAU Suivre les KPI
Mission freelance
Lead Data Engineer Streaming
Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack
Offre d'emploi
Ingénieur(e) Production Data
Contexte : Dans le cadre du projet Data de l'un de nos clients, nous recherchons un Ingénieur Production Data chargé d’assurer le lien entre les environnements Infra/DevOps sur AWS et les plateformes Big Data, en coordination avec l’architecte cloud, le tech lead et les data engineers. Missions principales : Administration et exploitation de la plateforme Data : Assurer l’administration des composants clés de la plateforme Data (Dataiku & CloudBeaver) Garantir la disponibilité, la performance et l’évolution des environnements d’analytique et de data science. Accompagner les utilisateurs dans la mise en œuvre des bonnes pratiques et l’industrialisation des projets métiers. Evolution et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagnement utilisateurs sur les best practices et l’industrialisation des projets métiers. Support et expertise technique : Prise en charge de la résolution des incidents affectant les environnements Data. Apporter un appui technique aux équipes internes sur les choix d’architecture et d’implémentation. Réalisation des audits techniques, analyses de performance ou preuves de concept afin d’optimiser les solutions existantes. Évolution et modernisation de l’infrastructure : Évaluation de l’existant et proposition d'une trajectoire de modernisation vers des architectures cloud natives. Intégrer les pratiques DevOps (Infrastructure as Code, CI/CD, automatisation) et FinOps dans les nouveaux déploiements. Conception et implémentation de nouveaux schémas d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel).
Offre d'emploi
Data Analyst (H/F)
Rattaché à la Direction Générale, vous jouerez un rôle clé dans le suivi, l'analyse et la fiabilisation des indicateurs de performance. A ce titre, vous assurez la réception et le traitement des données de vente transmises par les clients et les différents services internes, et vous contrôlez, mettez à jour et suivez les tableaux de bord Excel (vérification des écarts, identification et analyse des différences entre les relevés de chaque service) En outre, vous analysez les données selon les besoins de la direction : suivi des indicateurs clés, création de reportings pertinents et clairs. Vous aurez à traiter un gros volume d'Excel (manipulations avancées, formules, croisements de fichiers, mise en forme professionnelle). Enfin, vous serez amené à devenir référent BI pour accompagner et assister les différents utilisateurs internes et vous participerez à la mise en place de process de fiabilisation des données et d'amélioration continue du reporting.
Offre d'emploi
Data Engineer H/F
HN Services recrute un.e Data Engineer pour intervenir sur un projet de performance et de transformation Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Performance et Run, vous interviendrez pour garantir la réalisation des objectifs métiers et assurer la gestion des opérations quotidiennes (incidents, évolutions), tout en accompagnant la transformation du produit Data. Intégré.e à une squad dédiée à la performance et au fonctionnement continu, vous serez en lien étroit avec les équipes métiers. Vous serez encadré.e par un référent de la squad pour assurer une coordination optimale des missions. Vos missions principales incluront : La gestion des incidents et des évolutions sur les systèmes existants. Le développement de composants spécifiques dans le cadre de projets de construction. La contribution à la stabilité et à l’efficacité des solutions Data mises en œuvre. Environnement technique : Cloud : Google Cloud Platform (GCP) Data : BigQuery, Composer, SSIS Développement : Python, Linux Visualisation : Power BI
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Offre d'emploi
DATA SCIENTIST F/H | NANTES (44)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client au sein d'une équipe de spécialistes et interviendrez sur des sujets variés (risques, fraudes, commerce, etc.). Dans le cadre de votre mission, vous serez en charge de : Analyser les données Créer et utiliser des modèles mathématiques et de Machine Learning Environnement Technique : Python, R, ML Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Offre d'emploi
Architecte Solutions Data
1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue
Offre d'emploi
Data Product Owner
📢 [CDI] Product Owner Data – RPA / MLOps / Data Science 🎯 Votre mission sera de faire le lien critique entre les besoins des experts fonctionnels (gestionnaires de contrats, actuaires, équipes commerciales....) et la réalité technique des squads de développement. Vous contribuerez au déploiement des offres de services de cette équipe nouvellement créée, ainsi qu'à la contribution du modèle opérationnel. Vous serez responsable de la définition, de la priorisation et de la livraison d'un portefeuille de produits data qui auront un impact direct et mesurable sur la performance de l'entreprise et la satisfaction de nos assurés. 📍 Niort – 3j sur site / 2j TT 🧠 +7 ans d'expérience 🔧 Stack : RPA, MLOps, Data Science, Dataku 💼 Contexte agile / data / automatisation
Offre d'emploi
🎯 Product Owner Data expérimenté – Secteur Assurance & Finance – Niort (présentiel 3j/semaine)
Dans le cadre d’une stratégie ambitieuse de transformation axée sur la valorisation de la donnée à horizon 2025-2026, une équipe DATA nouvellement constituée recherche un second Product Owner pour renforcer ses capacités de pilotage et de livraison. 🔍 Vos missions clés : Être le lien stratégique entre les métiers (actuaires, gestionnaires, commerciaux…) et les équipes techniques Définir, prioriser et piloter un portefeuille de produits data à forte valeur ajoutée Contribuer à la mise en place du modèle opérationnel et au déploiement des offres de services Garantir la valeur métier des solutions développées 📌 Objectifs & livrables : Animation de comités et challenge des directions métiers Identification et portage de cas d’usage innovants : RPA, IA, DataScience, MlOps Détermination des éléments de valeur : quantitatif, qualitatif, expérience collaborateur Rédaction d’études de solutions et modélisation opérationnelle
Mission freelance
PMO i4.0
Dans le cadre de ses initiatives Industrie 4.0 , le centre de compétences industriel d’un grand groupe du secteur de la défense et de l’aéronautique cherche à renforcer son équipe maîtrise d’ouvrage avec un PMO expérimenté . Ce renfort vise à accompagner la transformation digitale de l’environnement industriel à travers plusieurs chantiers stratégiques autour de l’ IoT, du MES, de l’intelligence artificielle, de la RPA et des réseaux industriels (RIN) . Le consultant interviendra en appui direct du pilotage des projets, contribuant à la planification, au reporting, au suivi de l’avancement et à la coordination des équipes techniques et métiers. Il jouera également un rôle clé dans la mise en place des bonnes pratiques de gouvernance projet et l’amélioration continue des processus de gestion de la performance industrielle
Offre d'emploi
Expert Data Factory
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Mission freelance
Consultant Data / Prism Q1-2026
Contexte et Objectif Le projet Prism consiste à développer et maintenir une application de gestion proactive des risques fournisseurs pour la supply chain. L’objectif est de naviguer dans les données produits et fournisseurs pour identifier les risques, être alerté en cas d’événements critiques et simuler des scénarios (rupture fournisseur, hausse de volume) afin de proposer des actions correctives. Sources de données ERP (SAP ECC, Oracle E-Business Suite), plateformes e-Procurement, fichiers externes. Certaines données sont sensibles et soumises à des règles de contrôle à l’export. Missions principales Étudier et intégrer de nouvelles données dans l’application Prism. Définir, extraire, préparer et intégrer les données. Automatiser les traitements et assurer la mise à jour récurrente des données. Contrôler la qualité des livraisons éditeur et participer aux tests applicatifs. Maintenir le référentiel fournisseurs et préparer son intégration dans les plateformes de gestion achats. Piloter les prestataires et l’éditeur sur les déploiements, upgrades, incidents et suivi du run. Optimiser l’allocation des ressources (CPU/h) et suivre le runtime via dashboards. Découpage des tâches T1 : Ajout et intégration de nouvelles données. T2 : Mise à jour récurrente, extraction, chargement, analyse qualité. T3 : Documentation des traitements de données. T4 : Contrôle qualité, tests, gestion des erreurs et KPIs. T5 : Support à l’éditeur et à l’équipe technique. T6 : Maintenance du référentiel fournisseurs. T7 : Pilotage des déploiements et incidents. T8 : Suivi et optimisation du runtime via dashboards. Compétences requises Techniques : Modélisation de données achats/industrie, maîtrise de SAP ECC (MM, PP, CO), SAP BW, Oracle EBS, Ivalua, Power BI, Excel Power Query, Python, Javascript, Shell Unix, PowerShell, C3AI. Analyse : Amélioration de la qualité des données, architecture fonctionnelle et technique. Autres : Connaissance de l’environnement industriel et anglais professionnel. Livrables attendus Documentation sur les traitements de données. Fichiers de suivi du runtime et dashboards. Contraintes et exigences Employé d’une société de droit français. Signature d’un engagement de confidentialité. Respect des contraintes réglementaires liées aux données sensibles. Planning Début de la mission : 05/01/2026
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.