L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 255 résultats.
Mission freelance
Cloud Ops Engineer GCP
CAT-AMANIA
Publiée le
AWS Cloud
Cloud Provider
Google Cloud Platform (GCP)
1 an
100-450 €
Lille, Hauts-de-France
Gérer l’organisation des 2 principaux Cloud providers : GCP et AWS Proposer, de part votre expérience sur le Cloud, de nouvelles approches de déploiement, gestion et exploitation de systèmes sur le Cloud. Scripting/automatisation/Infrastructure As Code : industrialisation des solutions avec des outils/langages tels que Terraform, Python, CloudFormation… Développer et mettre à disposition des reporting et tour de contrôle (inventaire et qualité) permettant d’informer nos utilisateurs et notre équipe de la qualité et évolution de nos environnements. Coder des applications (API, orchestration) en Python en utilisant les bonnes pratiques de code. Écrire et sensibiliser aux bonnes pratiques d’utilisation du Cloud avec également la formation de nos équipes techniques. Collaborer étroitement avec nos équipes de sécurité pour la gestion des alertes et du renforcement de nos process techniques et fonctionnels.
Offre d'emploi
Architectes / Ingénieurs
Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
Cloud
12 mois
10k €
100 €
Île-de-France, France
Dans le cadre de plusieurs projets stratégiques chez nos clients grands comptes, nous recherchons des experts Cloud pour intervenir sur des environnements à forte criticité. 🔎 Profils recherchés : Architectes / Ingénieurs AWS Architectes / Ingénieurs Azure Experts Cloud & plateformes hybrides Spécialistes GCP / GSP 💡 Environnement technique : Cloud public et hybride, architectures distribuées, automatisation (IaC), sécurité, haute disponibilité, migration vers le cloud et optimisation des infrastructures. 🎯 Vos missions possibles : Conception et évolution d’architectures Cloud scalables et sécurisées Migration et modernisation d’infrastructures vers AWS, Azure ou GCP Mise en place de bonnes pratiques DevOps / FinOps / Cloud Security Optimisation des performances et des coûts Accompagnement des équipes techniques sur les standards Cloud 👤 Profil : Expérience solide sur AWS, Azure ou GCP Bonne maîtrise des architectures Cloud et de l’automatisation Capacité à intervenir sur des environnements complexes et critiques
Mission freelance
Data Engineer / Analyste Azure (MSBI) :
Cherry Pick
Publiée le
Azure
MSBI
SQL
12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Mission freelance
[FBO] Data Engineer Expert Elastic Search (5 années d'expérience) - Guyancourt - 1178
ISUPPLIER
Publiée le
5 mois
450-525 €
Guyancourt, Île-de-France
Confirmé (Au moins 5 ans d’expérience) Secteur : Bancaire La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l’organisation du client et de ses Clients (équipes applicatives et socles multiples et dispersées). Prenant en compte ce cadre, vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source) Attendus. Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux : collecte, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Mettre en œuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l’entreprise pour prise en compte des flux de données - Développer les cas d’usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Compétences requises - Connaissances en infrastructure : réseau / système - Connaissance indispensable en SGBD et langage de requêtage - Connaissance forte en streaming - Architecture d’Entreprise, plus particulièrement en base de données, flux de données - Conception et mise en place de solution de stockage et ingestion de données - Méthodologie Agile / DevOps, maitrise des outils associés - Gouvernance de la donnée - Maitrise de divers langages de programmation (Java/Python) - Anglais
Mission freelance
Chef(fe) de projet ERP Cloud - Technip
Ipanema Technology
Publiée le
Cloud
ERP
JIRA
3 ans
400-600 €
Île-de-France, France
Pour renforcer l’équipe de gouvernance du programme, nous recherchons un(e) Chef(fe) de projet ERP Cloud généraliste, en charge du pilotage d’un domaine fonctionnel (stream) sur l’ensemble des phases projet. Finalité du poste Assurer la bonne exécution du stream fonctionnel confié, en garantissant : le respect des délais, la maîtrise du périmètre, la conformité des livrables aux standards attendus, et l’alignement avec les objectifs du programme global. Positionnement dans l’organisation Le poste intervient au sein de la gouvernance programme, avec des interactions étroites avec : le PMO ERP, la coordination projet, les responsables des autres streams, les leads fonctionnels, les équipes métier, les partenaires externes (intégrateur / fournisseurs). Vos missions Pilotage du stream fonctionnel Prendre en charge la conduite de bout en bout d’un stream fonctionnel dans un programme multi-streams. Construire et suivre le plan d’exécution du stream : jalons, livrables, planning, ressources, priorités. Garantir la tenue des engagements du stream vis-à-vis du programme. Coordination transverse & gestion des dépendances Travailler en coordination continue avec le PMO, la coordination projet et les autres responsables de streams pour assurer la cohérence globale. Identifier les interdépendances (processus / systèmes / organisation) et sécuriser leur traitement. Veiller à la couverture des sujets end-to-end et des impacts inter-domaines. Gouvernance, risques et reporting Suivre et piloter les risques, points bloquants, changements et sujets d’escalade liés au stream. Produire un reporting fiable et régulier (avancement, alertes, prévisions, besoins d’arbitrage). Contribuer aux instances de gouvernance programme avec des éléments de pilotage clairs et exploitables. Collaboration métier & parties prenantes Opérer en binôme avec les leads fonctionnels sur les sujets de delivery. Agir comme point de contact clé pour les interlocuteurs métier du périmètre concerné. S’assurer de la mobilisation des référents métier (disponibilité, participation, engagement) pendant les phases projet. Ressources, qualité et phases de déploiement Organiser et suivre l’intervention des ressources internes et externes du stream, y compris l’intégrateur et les partenaires impliqués sur les interfaces. Contrôler la qualité des livrables et leur conformité aux critères d’acceptation. Participer activement aux phases de tests d’intégration, cutover, mise en production (go-live), transition et clôture du stream.
Offre d'emploi
Tech Lead IAM - Data - Chiffrement (H/F)
5COM Consulting
Publiée le
Grafana
Keycloak
Red Hat
3 ans
Paris, France
Nous recherchons un(e) Tech Lead expérimenté(e) pour piloter la conception et l'évolution des solutions IAM, Data et Chiffrement au sein d'une équipe Engineering Platform. Vous serez le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, tout en accompagnant la transformation technique et organisationnelle. Vos missions principales Management & Organisation Encadrer et faire monter en compétences les équipes (collaborateurs internes et prestataires) Définir la roadmap technique et prioriser les initiatives stratégiques Animer les rituels Agile (Scrum/Kanban) et participer aux comités de pilotage Assurer la coordination transverse avec les équipes projets, production et sécurité Promouvoir les bonnes pratiques DevSecOps et la culture d'amélioration continue Expertise Technique Maîtriser les protocoles d'authentification : SAML v2, OpenID Connect, OAuth2, WebAuthn, FIDO2 Concevoir et superviser l'intégration de solutions IAM dans des environnements Cloud (AWS, Azure, GCP) Définir les standards de chiffrement et de gestion des clés/certificats Orienter les développements en Java/Spring Boot/JEE selon les principes Clean Code Superviser l'optimisation des bases PostgreSQL et garantir la haute disponibilité (PCA/PRA) Contrôler la conformité des pipelines CI/CD (GitHub Actions, Jenkins) Mettre en place l'observabilité (Grafana, Prometheus, Loki)
Offre d'emploi
Alternant Infrastructure System & Cloud H/F
█ █ █ █ █ █ █
Publiée le
DevOps
Gonesse, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
FINOPS
OBJECTWARE
Publiée le
Cloud
3 ans
Île-de-France, France
Suivre et analyser la consommation Cloud à l’échelle du Groupe. Produire les reportings mensuels et les tableaux de bord à destination du Management et des équipes Finance. Réaliser des analyses détaillées des tendances de consommation Cloud et échanger avec les responsables de workloads sur les écarts constatés. Identifier des opportunités d’optimisation financière (PPAs, Savings Plans, Reserved Instances) et en mesurer l’efficacité. Identifier les leviers d’optimisation technologiques (right-sizing, nettoyage des ressources, mises à niveau) et piloter les plans d’actions associés. Contribuer aux exercices de prévision, de budgétisation et à la mise en place des modèles de gouvernance des coûts. Assurer une veille continue sur l’évolution des prix et des services Cloud. Promouvoir les bonnes pratiques FinOps auprès des équipes.
Mission freelance
Ingénieur Cloud Storage Netapp H/F
TIBCO
Publiée le
Cloud
NAS
12 mois
Paris, France
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission : Gestion de l'infrastructure de stockage * Conception et déploiement de solutions de stockage en réseau (NAS) et de stockage cloud. * Configuration des volumes et des niveaux de stockage en fonction des besoins de performance. * Optimisation des performances de stockage par le réglage et l'équilibrage de charge. * Service disponible 24h/24 et 7j/7 et organisation matinale. * Fourniture et partage de la documentation (LLD, procédures, processus…) Protection et sauvegarde des données * Mise en œuvre de stratégies de sauvegarde et de reprise après sinistre pour prévenir les pertes de données. * Utilisation des solutions de sauvegarde nécessaires. * Développement de stratégies de réplication entre les centres de données pour assurer la continuité des activités. Sécurité et conformité du stockage * Mise en œuvre du chiffrement, des contrôles d'accès et des permissions basées sur les rôles pour sécuriser les données stockées. * Garantie de la conformité au RGPD, à la loi HIPAA, à la norme ISO 27001 et aux autres normes réglementaires. * Surveillance et prévention des ransomwares et des accès non autorisés aux systèmes de stockage. * Participation à la résolution des problèmes d'audit. Planification et optimisation de la capacité * Analyse de l'utilisation du stockage et prévision des besoins futurs. * Optimisation de l'efficacité du stockage grâce à des fonctionnalités telles que la déduplication, la compression et le provisionnement fin. * Automatisation de la gestion du stockage à l'aide de scripts (Python, Bash ou PowerShell). Dépannage et optimisation des performances * Identification et résolution des problèmes de latence, des goulots d'étranglement d'IOPS et des pannes de disque. * Mise à jour du micrologiciel, application des correctifs de stockage et contrôles de l'état du système. * Collaboration étroite avec les équipes réseau et bases de données pour optimiser le flux de données de bout en bout. * Gestion des incidents (résolution et interface).
Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)
STORM GROUP
Publiée le
AI
Machine Learning
Python
3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
Mission freelance
Ingénieur Cloud Devops H/F
TIBCO
Publiée le
Azure
Cloud
12 mois
600-650 €
Paris, France
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission : 1\. Gestion des pipelines CI/CD : \- Conception et implémentation : Création et maintenance de pipelines CI/CD pour automatiser les processus de compilation, de test et de déploiement des partages de fichiers de stockage. \- Optimisation : Amélioration continue de l'efficacité et de la fiabilité des pipelines. 2\. Infrastructure as Code (IaC) : \- Automatisation : Utilisation d'outils tels que Terraform ou CloudFormation pour gérer l'infrastructure par le code. \- Scalabilité : Garantir une infrastructure capable de s'adapter efficacement à la demande. 3\. Surveillance et journalisation : \- Configuration : Mise en œuvre d'outils de surveillance pour suivre les performances du système. \- Analyse : Analyse des journaux pour identifier et résoudre les problèmes de manière proactive. 4\. Sécurité : \- Bonnes pratiques : Mise en œuvre de mesures de sécurité et de contrôles de conformité au sein des pipelines CI/CD. \- Gestion des incidents : Élaboration et maintenance des plans de gestion des incidents. 5\. Collaboration : \- Équipes transversales : Collaboration étroite avec les équipes de développement, d'assurance qualité et d'exploitation pour garantir des flux de travail fluides. \- Communication : Facilitation des échanges entre les équipes pour une résolution rapide des problèmes. \- Documentation : Création de plans de test ou de documentation de transfert pour permettre aux experts ou aux équipes QA d'utiliser l'automatisation.
Offre d'emploi
SCRUM MASTER Transformation Cloud H/F
SMARTPOINT
Publiée le
JIRA
Safe
9 mois
50k-58k €
400-480 €
Île-de-France, France
Vous interviendrez en tant que Scrum Master de plusieurs équipes infrastructure, composées d’acteurs en charge de la mise en place du cloud et de l’exploitation et du maintien en condition opérationnelle des infrastructures historiques. Vous êtes tourné(e) vers l’opérationnel de l’équipe, et êtes familier avec le métier de la production et des infrastructures (cloud, windows, Linux/Unix, Middelware, base de données etc.) PILOTAGE: Vous êtes responsable de la mise en place et de la pérennité du cadre de développement agile Vous organisez, planifiez et animez toutes les cérémonies agiles (Sprint Planning, Daily Scrum, Spring Review, Rétrospective?) Vous vous coordonnez avec le PPO pour vous assurer de la disponibilité des prérequis (techniques, fonctionnels et humains) nécessaires à la réalisation des User Stories Vous élaborez, suivez et mettez à jour avec l'équipe de réalisation les indicateurs de suivi nécessaires au pilotage du produit ACCOMPAGNEMENT: Vous apportez un support à l'équipe dans la résolution des problèmes soulevés et gère la relation avec les parties prenantes Vous facilitez le travail de chaque membre de l'équipe en veillant au respect du cadre agile Vous aidez chacun à remplir son rôle Vous favorisez la collaboration Vous accompagnez et suivez l'amélioration continue Vous créez la dynamique et la cohésion d'équipe Vous accompagnez le PPO dans le support à l'équipe pour le développement du produit
Mission freelance
Business Analyst Sénior - Risk Data
VISIAN
Publiée le
Business Analyst
3 ans
400-500 €
Marseille, Provence-Alpes-Côte d'Azur
Groupe international spécialisé dans le financement B2B (équipements et immobilier) recherche un(e) Business Analyst pour rejoindre une organisation IT en mode Agile (Squad/Tribe) , dans un contexte octroi / étude de risque . Dans le cadre d’une roadmap 2026 , la mission porte sur des évolutions liées à la collecte et la structuration des données de connaissance client (KYC) et de données fournisseurs , autour de deux applications internes de type référentiel et plateforme d’acquisition . Mission Intégration d’une squad en charge des sujets Risk Data / référentiels Participation aux cérémonies Agile (Sprint Planning, Daily, Review, Rétro…) Identification et coordination des parties prenantes métier / IT / tests Analyse et formalisation des besoins avec le Product Owner Rédaction de l’expression de besoin et validation métier Rédaction des user stories et des critères d’acceptation Réalisation de mapping de données et contribution à la mise en place d’ APIs Participation aux tests et accompagnement du métier sur la recette / UAT Vérification de la conformité de la solution livrée vs besoin métier Contribution à la documentation, formation utilisateurs et conduite du changement Profil recherché Expérience en tant que Business Analyst / Analyste fonctionnel / AMOA Bonne maîtrise des environnements Agile / Scrum À l’aise sur les sujets data / mapping / référentiels / APIs Expérience en recette / tests utilisateurs (UAT) Bon relationnel et capacité à faire le lien entre métier et équipes techniques
Mission freelance
[LFR] Expert IBM MQ à Guyancourt - 1238
ISUPPLIER
Publiée le
10 mois
300-500 €
Guyancourt, Île-de-France
Maitrise Java Applications consommée par MQ. · Scripting, automatisation Ansible, Json, Shell pour installation et configuration solutions MQ. · Avoir des connaissances réseaux (LAN, WAN, Débit ...), savoir utiliser des outils de type Wire-Shark · Travail en équipe implantées en multisites sur différentes régions de France. · Anglais courant nécessaire car le support IBM est en anglais. · Être capable d’appréhender des problèmes complexes et proposer des solutions capables de supporter de fortes volumétries. · Être autonome sur la contribution à un projet ou à la résolution d'un incident · Expertise sur le produit IBM MQ en environnement Open · Maîtrise des versions 8, versions 9 et suivantes. · Maîtrise des solutions MQ en cluster. · Mise en place alerting sous Zabbix et création dashboard de monitoring via Grafana · Implémentation en mode DEVOPS des solutions MQ Open. · Avoir intégré des solutions MQ en grande volumétrie transactionnelle. · Maitrise Java Applications consommée par MQ. · Scripting, automatisation Ansible, Json, Shell pour installation et configuration solutions MQ. · Avoir des connaissances réseaux (LAN, WAN, Débit ...), savoir utiliser des outils de type Wire-Shark · Travail en équipe implantées en multisites sur différentes régions de France. · Anglais courant nécessaire car le support IBM est en anglais. · Être capable d’appréhender des problèmes complexes et proposer des solutions capables de supporter de fortes volumétries. · Être autonome sur la contribution à un projet ou à la résolution d'un incident"
Mission freelance
POT8948 - Un Cloud Engineer & DevSecOps Sénior Sur IDF
Almatek
Publiée le
Kubernetes
6 mois
350-490 €
Île-de-France, France
Almatek recherche pour l'un de ses client, Un Cloud Engineer & DevSecOps Sénior Sur IDF. DESCRIPTION DE LA MISSION. Au sein des équipes Cloud, Ops & Digital Workplace, nous recherchons un(e) Cloud Engineer &DevSecOps. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ? Maîtrise de Terraform pour concevoir, versionner et déployer une infrastructure cloud de manière automatisée. ? Utilisation avancée d’Ansible pour l’automatisation de configuration et l’orchestration d’environnements. ? Compétence en Helm et Helmfile pour structurer, templater et déployer des applications sur Kubernetes. ? Excellente compréhension de Kubernetes pour opérer, sécuriser et optimiser des workloads conteneurisés. ? Développement en Python pour créer des scripts, outils internes et automatisations robustes. ? Connaissance des méthodes de gestion de projet en Agilité (Scrum, Sprint Planning, Backlog...) MÉTHODES, ORGANISATIONS ET INTERACTIONS. ? Excellente communication écrite et orale : Bonne communication écrite et orale en français pour des interactions fluides avec le métier. ? Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. ? Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration. ? Capacité à respecter les délais tout en maintenant des standards élevés. ? Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs. NIVEAU ET TYPE D’EXPERTISE REQUIS. ? Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifiant d'une expérience significative équivalente ? Expérience de plus de 7 ans en Terraform/ helm/helmfil/ansible/kubernetes/python ? Une expérience dans le secteur du commerce de détail ou de la grande distribution serait un plus. MATÉRIEL. Le/la consultant(e) doit disposer de son propre matériel, adapté aux besoins de la mission : ? OS & CPU : Windows (Intel Core i7 ou i9, AMD Ryzen 7 ou 9), MacOS (M2 ou supérieur), Linux (AMD Ryzen 7 ou 9) ? RAM : minimum 16 Go, idéalement 32 Go ou plus ? Stockage SSD) : minimum de 512 Go, idéalement 1 To ou plus ? S’assurer que le/la consultant(e) puisse installer les outils et applications et effectuer les paramétrages nécessaires au bon déroulement de sa mission.
Mission freelance
SAP Data Migration Cockpit - Consultant technico fonctionnel
EBMC
Publiée le
SAP
6 mois
400-740 €
Île-de-France, France
Dans le cadre d’un projet de transformation SAP S/4HANA de type Greenfield, nous recherchons un consultant technico-fonctionnel freelance pour intervenir sur les activités de migration de données via SAP Data Migration Cockpit. La mission porte sur un périmètre fonctionnel large incluant les modules FI, CO, MM, SD et PS, avec un rôle central dans la préparation, le pilotage et la sécurisation des flux de données vers le nouvel environnement S/4. Le consultant interviendra en lien étroit avec les équipes projet afin de garantir la qualité, la cohérence et la fiabilité des données migrées, depuis les phases de cadrage jusqu’aux chargements finaux. Il participera activement aux ateliers de définition, aux tests de migration et à la résolution des anomalies, dans un contexte exigeant propre aux projets Greenfield.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4255 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois