L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 073 résultats.
Mission freelance
DevOps AI Construire des application
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)
Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Mission freelance
Lead Data migration SIRH
MSI Experts
Publiée le
Workday
1 an
550-600 €
La Défense, Île-de-France
Cadrage du chantier data migration Responsable de l’équipe et de son animation Responsable du planning Responsable du pilotage et statut d’avancement Consolidation des référentiels Consolidation et contrôle sur les données employés pour tous les pays Responsable des règles de transformation Responsable de la mise à disposition des données aux intégrateurs Point de contact avec les pays Défini la stratégie de reprise de donnée et de data catch up Pilote l’exécution de la reprise de donnée et du data catch up Contribue aux décommissionnements du legacy
Mission freelance
Développeur Big Data
Codezys
Publiée le
JIRA
Linux
Python
24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
Mission freelance
Ingénieur système & réseau (H/F) - 95
MP Advertising
Publiée le
Cisco
Grafana
Linux
8 mois
Val-d'Oise, France
Dans une équipe de 5 Personnes, dédiée à l'infrastructure IT (Architecture et mise en place), L'objectif est de mettre en place dans les locaux de la société l'infrastructure cible de leurs clients ; réseaux, serveurs, stockages, AD en cohérence avec l'architecture IT définie. Puis de se déplacer sur les sites clients en France et à l'International Il s'agira de missions de 2 -3 semaines afin de de finaliser les interconnexions, tester les procédures de sauvegarde/ restaure et supporter les équipes d'intégration. La mise en place de la sécurité (filtrage au niveau des firewalls, mise en place de règles au niveau du WAF, et configuration des VPNs). Il est demandé également de maintenir une infrastructure interne dédiée à l’intégration de leurs projets : Suivi des inventaires, supervision, support pour la fourniture de ressource (VM, configuration de VPN et routage Opensence) ou de nouveaux serveurs Host (mise en rack et câblage + configuration réseau et stockage) Installer et configurer les composants réseaux (CISCO / Palo Alto) sur une infra client Déployer l'infrastructure (reseau / stockage / serveurs linux / AD) et l'intégrer au site client Fournir un support actif à la gestion des environnements d'intégration (gestion du parc / Location / inventaire/ fourniture de ressources)
Mission freelance
Proxy Product Owner Data ( Finance)
adbi
Publiée le
Product management
6 mois
530-630 €
Île-de-France, France
Langue requise : Anglais courant obligatoire Environnement : Transformation Finance et Data – contexte international1. Contexte de la mission Dans le cadre d’un programme de transformation de la fonction Finance, le Proxy Product Owner Data intervient au sein de la fonction Data afin d’accompagner les équipes Finance dans leurs initiatives de transformation. Le programme couvre notamment l’automatisation des processus ainsi que les processus clés tels que Procure-to-Pay (P2P) et Order-to-Cash (O2C). Le rôle consiste à garantir que toutes les initiatives de transformation comportant une dimension Data sont correctement identifiées, structurées et alignées avec les standards, les architectures et les frameworks de delivery Data de l’entreprise. Ce poste est transverse et nécessite une collaboration étroite avec les équipes Finance, IT et Data afin d’assurer la livraison efficace de solutions orientées Data. 2. Mission principale Le Proxy Product Owner Data agit comme référent Data pour les projets de transformation Finance en assurant que : Les projets ayant un impact Data sont correctement identifiés Les initiatives sont cadrées, structurées et priorisées Les solutions respectent les standards d’architecture et de gouvernance Data Les projets sont livrés efficacement avec le bon niveau de coordination et de gouvernance 3. Responsabilités principales3.1 Identification et priorisation des initiatives Responsabilités : Identifier les initiatives Finance ayant un impact sur la Data Évaluer la valeur métier et la faisabilité Assurer l’alignement avec les priorités Data Contribuer à la gestion et à la priorisation du backlog Livrables : Portefeuille des initiatives Data Finance Framework de priorisation Documentation des impacts Data Alimentation du backlog 3.2 Recueil des besoins et validation des solutions Responsabilités : Traduire les besoins métiers Finance en exigences fonctionnelles et techniques Assurer l’alignement avec les standards d’architecture Data Valider les solutions et les modèles de données Livrables : Documentation des besoins métier et Data Spécifications fonctionnelles Documentation des flux de données Rapports de validation des solutions 3.3 Expertise Finance et support à la transformation Responsabilités : Apporter une expertise sur les processus Finance Accompagner les initiatives de transformation sur : Procure-to-Pay (P2P) Order-to-Cash (O2C) Automatisation des processus Finance Garantir l’adéquation des solutions Data avec les besoins métier Livrables : Cartographie des processus Définition des cas d’usage Recommandations d’amélioration 3.4 Support à l’automatisation des processus Responsabilités : Participer à la mise en œuvre des solutions d’automatisation Contribuer aux cas d’usage d’automatisation (ex : Dataiku ou équivalent) Garantir la qualité et l’intégration des données Livrables : Backlog des cas d’automatisation Spécifications des solutions Documentation des pipelines et intégrations 3.5 Coordination et suivi des projets Responsabilités : Coordonner les équipes Finance, IT et Data Suivre l’avancement des projets Identifier et résoudre les blocages Assurer le reporting auprès des parties prenantes Livrables : Tableaux de bord projets Rapports d’avancement Suivi des risques et dépendances Reporting aux stakeholders 3.6 Gouvernance et qualité des données Responsabilités : Assurer le respect des standards et de la gouvernance Data Appliquer les bonnes pratiques en matière d’architecture Data Garantir la qualité, la sécurité et l’intégrité des données Livrables : Rapports de conformité Documentation de gouvernance Définition des contrôles de qualité des données 3.7 Communication et gestion des parties prenantes Responsabilités : Être le point de contact principal sur les sujets Data pour la transformation Finance Fournir des reportings réguliers Faciliter la prise de décision et l’alignement des équipes Livrables : Rapports d’avancement Supports de communication Présentations pour les comités de pilotage
Mission freelance
245891/Data engineer Spark Nantes
WorldWide People
Publiée le
Apache Spark
12 mois
Nantes, Pays de la Loire
Data engineer Spark Nantes La Squad Socles-Data a pour missions : • Le MCO de la plateforme Data Hub actuelle (DH V1). • La co-construction des nouvelles offres Data managées du nouveau Data Hub (DH V2) avec l’IT Groupe : o Prototypes, o Bêta-tests, o Pilotes, o Instanciation, o Homologation…etc. • La définition des normes, bonnes pratiques, guidelines pour simplifier/accélérer les futurs portages applicatifs sur Data-Hub V2. • Gouvernance opérationnelle. • La migration des Uses-Cases existants vers le Data-Hub V2 dans le Cloud privé BNPParibas. • Facilitage de l’usage des services Data. • Assurance du support et l’accompagnement des usagers des socles-Data. • Fournissement de l’expertise. Objectifs et livrables Les tâches sont: Data ingénieur : • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Technologie Langage Niveau Starburst (Trino) SQL Moyen Astronomer Airflow Python Moyen Spark 3 Java (Scala selon vos applications) Avancé Cloud (Kubernetes, COS(S3), Vault) Bas DevOps (Gitlab, Jenkins, ArgoCD, Ansible) Go, Yaml Bas Log As a Service (elk) Moyen Java Moyen SQL Moyen Python Moyen Scala (selon vos applications) Moyen Compétences demandées Compétences Niveau de compétence SCALA Confirmé Apache Airflow Confirmé APACHE Confirmé
Mission freelance
Data Engineer - IA Gen
VISIAN
Publiée le
FastAPI
IA Générative
Large Language Model (LLM)
1 an
400-550 €
Paris, France
Afin de mener à bien notre mission l’équipe est composée de Data Engineer, de Data Scientist, de développeurs Python et d’un data analyst. L’équipe se veut jeune dynamique, motivée et très pro-active, l’entraide et la bonne ambiance sont présentes. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les softs skills sont donc autant essentielles que la technique : bon communiquant, motivé, force de proposition et sociable. La mission : Un programme visant à traiter l’ensemble des uses cases nécessitant l’utilisation d’IA à destination de la Finance a été lancé. Dans le cadre de notre activité nous avons pour mission d’accompagner la phase de cadrage faite par les Product Owner et d’implémenter des solutions adaptées aux besoins exprimés. Pour se faire nous cherchons à renforcer l’équipe actuelle constituée de développeur Full stack (Python\Angular) de data engineer et de data scientist avec un Data Engineer possédant de bonnes compétences en IA générative. La mission principale du profil retenu sera : Concevoir et développer des solutions de traitement de données complexes Implémenter solutions exploitant des modèles d'IA générative Participer à la mise en place de prompts et de RAG Collaborer étroitement avec les Product owner, les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. Si vous êtes passionné par les défis liés à la manipulation de données non structurées, que vous maîtrisez le Python et que vous avez une solide expérience en Data Engineering et en Ia générative, nous serions ravis de recevoir votre candidature. L’environnement de travail se veut stimulant, il offre des opportunités d'apprentissage continu et des projets innovants au sein d'une équipe dynamique et passionnée par les technologies émergentes. Durant votre intervention vous serez rattaché au responsable de l’équipe de développements tactiques et vous serez supervisé par un membre de l’équipe maitrisant les outils de data science. Vous serez fréquemment au contact du métier, des équipes innovation et d’autres développeurs.
Offre d'emploi
Ingénieur OPS Linux / Virtualisation / Stockage (H/F)
OCSI
Publiée le
Linux
NAS
Red Hat
3 ans
40k-60k €
400-600 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes infrastructures, notre client recherche un Ingénieur OPS spécialisé en Linux, stockage et virtualisation pour intervenir sur des environnements On-Premise à forte volumétrie. Vous intégrerez une équipe en charge des services d’infrastructure autour des environnements Managed Compute, Development & Services et Cloud . Au sein de cette équipe, vous participerez au maintien en condition opérationnelle des plateformes et à la gestion des infrastructures critiques de l’entreprise. Missions Au sein de l’équipe Infrastructure, vos principales missions seront : Assurer le maintien en condition opérationnelle (MCO) des infrastructures Linux, stockage et virtualisation Être le référent opérationnel sur votre périmètre (gestion des priorités, suivi du RUN, compréhension des besoins utilisateurs) Administrer et maintenir les solutions de stockage entreprise (SAN et NAS) Assurer l’exploitation et l’administration des environnements VMware vSphere Réaliser le déploiement et la configuration de serveurs Linux et de machines virtuelles Participer à l’ automatisation et au scripting des tâches d’exploitation Contribuer à l’amélioration continue des plateformes et des processus d’exploitation Travailler en collaboration avec les différentes équipes techniques et accompagner les utilisateurs
Offre d'emploi
Administrateur Base de Données (F/H)
Experis France
Publiée le
30k-36k €
Niort, Nouvelle-Aquitaine
Administrateur Base de Données (F/H) - Niort 📍 Niort 📝 CDI - Temps plein 💼 Salaire : 30 000 à 36 000 € brut/an selon expérience 🎯 Contexte Dans le cadre de projets stratégiques visant à renforcer l'efficacité, la performance et la sécurité des environnements data, nous recherchons un(e) Administrateur(trice) Base de Données. Vous interviendrez au cœur des systèmes d'information pour optimiser les bases existantes, sécuriser les données sensibles et contribuer à l'évolution globale de l'infrastructure de notre client. 🛠️ Vos missions principales En tant qu'Administrateur(trice) Base de Données, vous aurez pour responsabilités : 🔧 Administration & Maintenance Assurer l'administration quotidienne des bases de données (installation, configuration, mises à jour, maintenance). Surveiller la disponibilité, l'intégrité et les performances des environnements BD. Garantir la cohérence et la qualité des données. 🚀 Optimisation & Performance Optimiser les performances des bases existantes (requêtes, indexation, tuning). Identifier et résoudre les goulots d'étranglement. Proposer des améliorations continues pour renforcer l'efficacité du SI. 🔐 Sécurité & Conformité Participer au renforcement de la sécurité des données sensibles. Appliquer les bonnes pratiques en matière de sauvegardes, restaurations et gestion des accès. Contribuer aux audits et actions de conformité. 🤝 Support & Collaboration Collaborer étroitement avec les équipes techniques (développement, production, infrastructure). Apporter un support avancé pour résoudre des problématiques complexes liées aux bases de données. Participer activement aux projets d'évolution du SI. 🔄 Adaptation & Contribution aux projets Intervenir dans un environnement technique dynamique et en constante évolution. S'adapter aux nouveaux besoins métiers. Contribuer à la qualité, à la fiabilité et à la continuité de service des systèmes de gestion de données
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Mission freelance
ACHETEUR Domaine Market Data/s
WorldWide People
Publiée le
Pilotage
12 mois
Paris, France
ACHETEUR Domaine Market Data . Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Offre d'emploi
Data Analyst Power BI
UCASE CONSULTING
Publiée le
Data visualisation
DAX
Microsoft Power BI
1 an
55k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des environnements cloud et accompagner les métiers dans la valorisation de leurs données. Missions En collaboration avec les équipes Data et les équipes métiers, vous serez amené(e) à : Recueillir et analyser les besoins métiers Concevoir et maintenir des tableaux de bord et reportings sous Power BI Accompagner les utilisateurs dans la prise en main des outils décisionnels
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
Deodis
Publiée le
Salesforce
1 an
550-580 €
Île-de-France, France
Le Product Owner CRM – Data Client BtoB & Prospection chez TF1 Publicité est responsable de la gestion et de l’évolution du référentiel client et des processus de prospection au sein du CRM Salesforce. Intégré à la Direction des Technologies, il définit la vision produit, pilote la roadmap et coordonne les développements afin d’améliorer les outils utilisés par les équipes commerciales. En collaboration avec les métiers et les équipes techniques, il recueille les besoins, priorise le backlog, garantit la cohérence avec les autres systèmes du SI et accompagne le déploiement des nouvelles fonctionnalités pour optimiser la gestion de la data client B2B et soutenir la performance commerciale.
Mission freelance
[SCH] Expert dbt - Data Engineer ELT - 1353
ISUPPLIER
Publiée le
10 mois
400-450 €
Vélizy-Villacoublay, Île-de-France
Dans le cadre d’une initiative groupe de modernisation et standardisation des transformations de données, le client cherche un Data Engineer expérimenté dbt pour soutenir la mise en place d’une plateforme dbt (industrialisation, bonnes pratiques, pipelines robustes et scalables) dans un contexte international (anglais fluent). Mission : -Définir et déployer les best practices dbt (standards de dev → déploiement) avec le responsable technique ELT. -Contribuer à l’architecture ELT (stratégie, modèle, gouvernance d’intégration des données). -Capturer le besoin : faisabilité technique, estimation de charge, rédaction spécifications techniques. -Concevoir et développer les jobs dbt (connecteurs/implémentation), assurer déploiement, UAT, documentation. -Assurer le support technique : optimisation, configuration, MCO, audits de jobs, amélioration continue. -Piloter l’analyse de gaps et accompagner la migration des solutions existantes vers dbt. -Animer formation / transfert de connaissances et contribuer à la communication (communauté ELT, présentations). -Co-définir stratégie de logging et gestion d’événements. Profil attendu : -Expert dbt capable de définir des standards et d’industrialiser une plateforme (dev, tests, déploiement). -À l’aise pour co-construire une architecture ELT et des modèles de données (gouvernance, conventions). -Capable de faire du support/MCO dbt (optimisation perf, configuration, audit, fiabilisation). -Expérience migration/standardisation à l’échelle groupe (gap analysis, inner source, diffusion bonnes pratiques). -Capable d’estimer, rédiger des spécifications, documenter et former. -Anglais fluent (workshops, formation, communautés internationales).
Mission freelance
Consultant(e) SAP FICO - Data Migration S/4 - IDF
Signe +
Publiée le
SAP FICO
3 mois
550-700 €
Le Plessis-Robinson, Île-de-France
Dans le cadre d’un programme de transformation SAP, notre client recherche un Consultant SAP FI/CO pour intervenir sur un projet de migration de données ECC vers S/4HANA. Le consultant intégrera l’équipe technico-fonctionnelle Data Migration et interviendra principalement sur la définition et la formalisation des règles de transformation et de mapping des données Finance et Controlling. Missions Analyser les modèles de données FI/CO entre ECC et S/4HANA . Définir et documenter les règles de transformation, de mapping et de nettoyage des données . Participer aux ateliers avec les équipes métiers Finance, Controlling et gestion de projet . Contribuer à la conception des objets de migration et des templates de reprise de données . Accompagner les équipes Data Migration lors des phases de migration et de tests (Unit Tests, SIT, UAT) . Identifier les écarts, risques et impacts liés à la migration et garantir la cohérence des données dans S/4HANA. 📍 Localisation : 92 🏢 Présence : 3 jours sur site / 2 jours télétravail 📅 Démarrage : ASAP ⏳ Durée : Mission longue (programme stratégique S/4HANA) 💰 TJM : 600-700 € selon expérience 🌍 Langue : Anglais intermédiaire requis
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6073 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois