Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 453 résultats.
Freelance

Mission freelance
Directeur de Programme Data

CONCRETIO SERVICES
Publiée le
Data management
Jira Align

12 mois
400-600 €
Pays de la Loire, France
Dans le cadre d'une stratégie de digitalisation ambitieuse, notre client — un grand groupe financier — lance la Saison 2 d'un portefeuille de 15 solutions nativement digitales à déployer en 18 mois. L'objectif : mettre à disposition des clients des parcours de souscription et de gestion de produits 100% digitaux, à grande échelle. Un programme transverse qui mobilise 24 tribus, 10 Pôles Utilisateurs et plus de 12 entités du groupe. Une machine en mouvement, forte des succès de la Saison 1, qui cherche maintenant à accélérer. Votre mission Au cœur du dispositif de pilotage, vous êtes le garant de la delivery : Sécuriser le lancement de la Saison 2 : cadrage des Business Epics, structuration dans les outils (JIRA Align), embarquement des parties prenantes Piloter la fabrication en lien direct avec les Leaders de Tribu : planification, suivi des engagements délais/budget/qualité, arbitrages Animer la gouvernance : comités de pilotage, reporting Direction Générale, coordination faîtière Groupe Gérer les risques : identification, qualification, plans de mitigation, escalade si nécessaire Contribuer à la capitalisation : post-mortem, bonnes pratiques, recommandations pour les programmes futurs
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance
CDI

Offre d'emploi
Senior IT Production Data Analyst / Incident Manager

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
CDI
Freelance

Offre d'emploi
Chef.fe de projet Data senior

Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile

6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Freelance
CDI

Offre d'emploi
Data Analyst Senior ( F/H) Nantes

Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL

1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
Freelance

Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data

STHREE SAS pour HUXLEY
Publiée le

6 mois
75001, France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
CDI
Freelance

Offre d'emploi
Product Owner (H/F) – Data / API / Kafka

Proxiad
Publiée le
Apache Kafka
Backlog management
Rédaction des spécifications fonctionnelles

12 mois
40k-45k €
400-500 €
Lille, Hauts-de-France
🌟 Contexte Dans le cadre d’un programme stratégique au sein du groupe ADEO, nous recherchons un Product Owner pour intervenir sur le produit Purchase Price & Profitability , et plus précisément sur le composant “Eco-contributions” . 👉 Objectif : piloter et structurer une solution permettant de gérer les éco-contributions (ex : DEEE) à l’échelle du groupe. 📅 Roadmap : Fin du cadrage business : T1 2026 Lancement des développements : T2 2026 Mise en production : déploiement sur 2 Business Units d’ici fin 2026 🎯 Enjeu majeur : remplacer une partie du legacy et construire un produit à forte valeur métier. 🎯 Votre mission En tant que Product Owner , vous êtes responsable de la vision produit et de la maximisation de la valeur métier. 🧩 Pilotage produit Concevoir et faire évoluer le produit en lien avec les métiers et utilisateurs Définir la vision produit et contribuer à la stratégie (quarter plan / PI planning) Rédiger les documents de cadrage 📊 Gestion du backlog & delivery Construire, alimenter et prioriser le Product Backlog Rédiger les User Stories / Epics (Jira) Définir les priorités en fonction des enjeux métier et techniques Suivre les KPI métier pour mesurer la valeur créée 🤝 Animation & coordination Animer les rituels agiles (sprints, reviews, etc.) Assurer la communication produit (slides d’avancement, reporting) Collaborer étroitement avec les équipes techniques et métiers ✅ Recette & qualité Valider les développements réalisés Organiser les phases de recette métier Garantir la qualité et la non-régression des livrables
Freelance
CDI

Offre d'emploi
Architecte DATA CMDB SERVICE NOW

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.
CDI

Offre d'emploi
Data Analyst

CAT-AMANIA
Publiée le
Business Object
Qlik Sense

40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Freelance

Mission freelance
Data engineer (aws / talend / power bi)

Signe +
Publiée le
Microsoft Power BI

12 mois
400-440 €
Grenoble, Auvergne-Rhône-Alpes
contexte de la mission intervention chez un client grenoblois sur des sujets data environnement orienté cloud aws avec exploitation d’un datalake besoin d’un profil capable de couvrir à la fois la data ingénierie et une partie data visualisation missions principales conception, développement et maintenance de pipelines data exploitation et optimisation d’un datalake sur aws traitement, transformation et intégration des données via talend mise à disposition des données pour les équipes métiers création de dashboards et reporting sous power bi participation aux choix techniques et à l’amélioration continue des architectures data environnement technique cloud / data : aws (lambda, athena, glue, step functions, rds, s3) etl : talend data visualisation : microsoft power bi profil recherché expérience significative en data engineering bonne maîtrise de l’écosystème aws data (datalake) solide expérience sur talend (obligatoire) capacité à produire des dashboards power bi autonomie et capacité à intervenir en environnement projet
CDI

Offre d'emploi
Data Scientist F/H - Finance, trésorerie (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
Python
SQL

Le Relecq-Kerhuon, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation

Freelance.com
Publiée le
Data management
ERP
P2P

1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Freelance
CDI

Offre d'emploi
IT Data & Integration Manager

Taimpel
Publiée le
API
Architecture
Pilotage

1 an
59k-70k €
570-660 €
Paris, France
Contexte de la mission MH IS&T a lancé la mise en œuvre d’un outil d’ Integrated Business Planning (IBP) : Kinaxis Maestro . Il s’agit d’un programme de transformation , et non d’un simple projet d’implémentation IT. Une équipe Core Solution et une équipe Data & Integration travaillent en parallèle, en collaboration avec les équipes métiers et l’intégrateur, afin de construire la solution. Dans ce contexte, recherche un IT Data & Integration Manager pour renforcer l’équipe en place. Cette personne sera responsable de : piloter et gérer la mise en œuvre de l’ensemble des flux de données, assurer la coordination avec les équipes internes (IT et métiers), travailler avec l’intégrateur, superviser les différentes tâches et équipes pour garantir le respect : du périmètre, de la qualité, des délais, intervenir également en exécution opérationnelle (pas uniquement en pilotage). Rôle côté intégration Pour l’équipe d’intégration, cette personne devra : fournir les spécifications nécessaires : APIs transferts de fichiers L’équipe Data & Integration est responsable de la mise en place des flux entre : les systèmes et la solution Kinaxis Maestro Ces flux doivent être construits : selon l’architecture définie selon les spécifications produites par cette personne Rôle côté Data (mode Agile) Cette personne agira également comme Product Owner des produits data , avec les responsabilités suivantes : Faire le lien entre besoins métiers et données Prioriser les sujets Définir les règles de transformation des données Activités principales : Recueillir les besoins et spécifications (outil : Jira) Prioriser et suivre les sprints Participer aux cérémonies Agile Contexte SI Plusieurs systèmes doivent être connectés à Kinaxis Maestro : SAP ECC SAP Business One Anaplan Outil de budget etc. La connexion se fait via la Kinaxis Integration Layer , où l’intégrateur implémente les règles de transformation. Objectifs et livrables Responsabilités clés Piloter les spécifications fonctionnelles du stream Data & Integration Garantir le respect de l’architecture cible Garantir le respect des bonnes pratiques et standards S’assurer que la solution d’intégration : est optimisée est stable couvre les besoins Produire et maintenir la documentation fonctionnelle et technique Adopter une approche design-to-run pour faciliter le passage en RUN Missions principales Pilotage du stream Data & Integration Définition de la stratégie de sourcing des données Choix de la stratégie d’ingestion : utilisation ou non de la plateforme data arbitrage entre attentes métiers et contraintes techniques Alignement fonctionnel / technique sur les référentiels transverses : Produits Clients Pilotage de la delivery du stream Participation aux réunions projet Reporting d’avancement et gestion des risques Point de contact principal pour l’intégrateur sur les sujets data Coordination & cadrage Identifier les besoins data avec les équipes métiers Traduire ces besoins en spécifications Collaborer avec les équipes IT internes et l’intégrateur Stratégie technique Définition des environnements : dev staging production Définition de la stratégie de test : données nécessaires planning organisation des tests Mise en œuvre des flux Organisation des extractions et intégrations depuis les systèmes Travail avec l’intégrateur sur les règles de transformation Construction de la couche d’intégration Pilotage des phases projet Mise en place des flux Conversion des données Tests unitaires Tests de masse UAT Mise en production Passage en RUN Automatisation des interfaces Qualité & amélioration Capitalisation documentaire : scripts de test schémas d’architecture règles data Challenge des choix techniques Recommandations d’amélioration Collaboration avec l’Enterprise Architect Mise en place du monitoring des interfaces Définition de KPI Compétences demandées Compétences techniques Connaissance Supply Chain → Avancé GCP BigQuery → Expert Anglais courant (oral et écrit) → Expert Expérience Product Owner data → Expert Gestion de systèmes complexes → Expert Capacité à vulgariser des sujets complexes → Expert Expérience API / fichiers / retry / delta → Expert Connaissance ERP (SAP ECC, SAP B1, S/4 Hana) → Expert Architectures distribuées / ELT / ETL → Expert Expérience secteurs FMCG / Retail / Luxe → Expert MS Office 365 → Expert Expérience architecte data fonctionnel / lead stream data → Expert Communication & organisation → Expert Axway, GCP, design patterns → Avancé Design d’API & protocoles d’intégration → Expert Français → Expert Méthodologie Agile → Expert 🎯Ce besoin est : senior hybride : Architecte + PO + Delivery Lead orienté : intégration SI complexe data flows coordination multi-équipes 👉 Ce n'est pas juste un besoin de Data Engineer. 👉 Il faut quelqu’un qui a déjà : piloté un stream data Travaillé avec intégrateur Déjà fait du SAP + data + API
Freelance

Mission freelance
Consultant SAP FI/CO + Data Migration

ALLEGIS GROUP
Publiée le
SAP FICO

1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance

Mission freelance
Ingénieur Data à Niort (3 jours sur site)

NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)

24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
453 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous