L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 745 résultats.
Mission freelance
Data Ingénieur H/F
Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA
2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
Mission freelance
Data Steward H/F
Insitoo Freelances
Publiée le
JIRA
Microsoft Excel
2 ans
200-402 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward H/F à Hauts-de-France, France. Contexte : Garantir la structuration, la fiabilité et la performance des données produits intégrées au configurateur, afin d’assurer une expérience digitale cohérente, performante et adaptée aux besoins des marchés, des clients et des collaborateurs en magasins. Les missions attendues par le Data Steward H/F : 1. Structuration et gouvernance des données produits ● Collecter, analyser et structurer les données des produits configurables en lien avec les fournisseurs et le marché. ● Assurer l’intégration et la mise à jour des données produits et tarifaires (prix, options, évolutions de gamme), en garantissant leur fiabilité, leur cohérence et leur conformité aux règles métier. ● Être garant(e) de la qualité, de la cohérence et de la pérennité des référentiels data du configurateur. ● Définir et maintenir les règles de compatibilité et de cohérence entre produits. ● Modéliser et unifier les données multi-fournisseurs afin d’assurer leur intégration dans le configurateur. ● Identifier les attributs produits nécessaires à l’animation des parcours digitaux et coordonner leur complétude avec les parties prenantes (PILCO, marchés, fournisseurs…). ● Documenter les règles métier et référentiels afin d’assurer leur lisibilité, compréhension et transmission. 2. Pilotage du peuplement et performance produit ● Être responsable du peuplement des produits au sein du configurateur. ● Définir et suivre les indicateurs clés de performance (KPI) liés aux produits et aux parcours. ● Réaliser les analyses de performance et identifier les axes d’optimisation. ● Proposer et formaliser des plans d’action en lien avec les marchés. ● Contribuer à l’amélioration continue de l’offre et de l’expérience sur le configurateur.
Mission freelance
Data Engineer GCP - Anglais niveau C1
ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform
18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Offre premium
Offre d'emploi
QA / Responsable Recette et Test - ITSQB - Projets ERP et outils métiers
INSTILIA
Publiée le
ALM
AMOA
ERP
8 mois
Bouches-du-Rhône, France
Mission Transformation Digitale – INSTILIA Localisation : Aix-Marseille et interventions ponctuelles PACA Secteur : ERP / Transformation Digitale / Systèmes d’Information Contexte Dans le cadre de ses missions de transformation digitale auprès de PME et ETI, INSTILIA recherche un(e) QA / Responsable Recette afin de structurer, organiser et piloter l’ensemble des activités de qualification fonctionnelle sur des projets ERP et SI. Le rôle couvre aussi bien la définition de la stratégie qualité que l’organisation opérationnelle des campagnes de tests fonctionnels, unitaires, d’intégration et End-to-End, avec un fort enjeu de coordination entre les équipes métiers, techniques et partenaires intégrateurs. Le/la consultant(e) contribuera également à la mise en place des processus QA et des plateformes d’outillage associées. Missions principales 1. Stratégie QA & Gouvernance Recette Définir la stratégie globale de test et de recette : périmètre de qualification, niveaux de tests, critères d’entrée et de sortie, stratégie de non-régression, gestion des environnements. Structurer l’organisation des recettes : recettes unitaires, recettes fonctionnelles, tests d’intégration, processus End-to-End, User Acceptance Tests (UAT). Mettre en place les processus qualité et les standards de recette en collaboration avec : les équipes métiers, l’équipe projet et les intégrateurs Définir la gouvernance QA : instances de pilotage, gestion des anomalies, priorisation, workflows de validation, indicateurs qualité. 2. Analyse Fonctionnelle & Qualité des Spécifications Participer aux ateliers de cadrage et d’analyse fonctionnelle, et améliorer les spécifications fonctionnelles avec les analystes métiers. Identifier les critères d’acceptation et les cas nominaux / non nominaux, et garantir la testabilité des exigences métiers et fonctionnelles. 3. Organisation & Exécution des Recettes Rédiger les plans de tests et scénarios de recette. Préparer les jeux de données (JDD) nécessaires aux campagnes. Réaliser les tests : fonctionnels, unitaires, d’intégration, End-to-End, de non-régression (TNR). Organiser et coordonner les campagnes de recette avec les key users. Participer activement aux phases de validation avant mise en production. Sécuriser les mises en production et les bascules opérationnelles. 4. Gestion des Anomalies & Amélioration Continue Détecter, qualifier et remonter les anomalies. Piloter le cycle de vie des anomalies jusqu’à leur résolution. Prioriser les corrections avec les équipes projet et techniques. Suivre les plans de correction et les re-tests associés. 5. Pilotage, Reporting & KPI Qualité Planifier et chiffrer les activités de recette. Suivre l’avancement des campagnes : taux d’exécution, taux de succès, couverture fonctionnelle, criticité et sévérité des anomalies. Produire les reportings réguliers à destination des équipes projet et du management. Participer aux arbitrages projet liés à la qualité produit. Fournir une vision consolidée des risques qualité avant Go-Live. 6. Mise en Place de l’Outillage QA & Recette Réaliser la mise en place et à la structuration de la plateforme d’outillage QA. Administrer et organiser les référentiels de tests. Définir les workflows de gestion des anomalies et des campagnes. Contribuer à l’industrialisation des processus de recette. Outils potentiels : Jira, Xray, testomat, TestRail, HP ALM / Quality Center, Postman, Outils ERP et middleware
Offre d'emploi
Expert NiFi (H/F)
OMICRONE
Publiée le
Apache NiFi
Big Data
DevOps
2 ans
40k-45k €
400-500 €
Île-de-France, France
Expert NiFi (H/F) Dans le cadre d’un projet data, nous recherchons un Expert Apache NiFi pour intervenir chez l’un de nos clients. 🔍 Profil recherché : Expérience confirmée sur Apache NiFi Mise en place et optimisation de flux de données Bonne maîtrise des concepts ETL / ingestion / transformation Expérience sur des environnements data (Big Data / Data Platform) Connaissances en SQL et scripting (Python, Shell…) 🤝 Qualités attendues : Autonomie et proactivité Capacité à travailler en équipe Esprit d’analyse 📍 Mission longue – démarrage ASAP
Mission freelance
Tech Lead Data GCP
UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)
1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Offre d'emploi
🚀 Opportunité – Chef de projet Cybersécurité / Data Protection (Toulouse)
OMICRONE
Publiée le
Cybersécurité
Prévention des pertes de données (DLP)
Scrum
2 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’un programme stratégique de cybersécurité à l’échelle groupe , nous recherchons un Chef de projet sécurité pour piloter des chantiers autour de la Data Protection (DLP) . 📍 Localisation : Toulouse (3 jours sur site / semaine) ✈️ Déplacements ponctuels à prévoir (Paris / Lyon) 📅 Démarrage : début mai 🎯 Vos missions : • Piloter le déploiement des chantiers cybersécurité au sein des différents établissements • Gérer les plannings et mettre à jour la roadmap projet • Organiser et animer les comités de pilotage et ateliers sécurité • Produire les indicateurs et tableaux de bord de suivi • Accompagner les équipes (PO, équipes Agile) et animer les rituels Scrum • Assurer le delivery global du chantier Data Protection / DLP 🛠 Environnement : • Programme cybersécurité groupe • Sujets Data Protection / DLP • Méthodologies Agile (Scrum) ✅ Profil recherché : • Expérience confirmée en gestion de projet cybersécurité (impératif) • Bonne connaissance des enjeux Data / Data Protection • Expérience en environnement complexe et multi-équipes • Capacité à travailler en autonomie et à piloter plusieurs sujets en parallèle • Anglais professionnel requis • Formation ingénieur ou équivalent
Offre d'emploi
Data Engineer Senior
LEVUP
Publiée le
AWS Cloud
Snowflake
12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Mission freelance
Chef de Projet IT / Azure – Transformation SI - Fullremote (H/F)
EASY PARTNER
Publiée le
Azure
Gestion de projet
Transformation digitale
1 an
600-660 €
France
Contexte Dans le cadre d’un programme de transformation du système d’information, un grand groupe recherche un Senior Chef de Projet IT / Azure pour piloter des projets de migration et de déploiement de solutions cloud. MissionsPilotage projet Piloter des projets de migration vers Azure (on-premise → cloud) Coordonner les équipes internes (infra, sécurité, architecture) et les partenaires externes Suivre planning, budget et risques Animer les comités de pilotage et assurer le reporting Déploiement & migration Superviser le déploiement de nouvelles solutions cloud Accompagner la migration d’applications métiers vers Azure Garantir la bonne intégration dans l’écosystème SI Coordination technique Travailler en étroite collaboration avec : équipes cloud / infra architectes équipes sécurité Contribuer à l’amélioration continue des environnements cloud
Mission freelance
Data Architect
Codezys
Publiée le
API
Collibra
12 mois
400-500 €
Lille, Hauts-de-France
Appel d'offres : Recrutement d'un Data Architect pour l'équipe Ressources Humaines Nous recherchons un Data Architect expérimenté pour renforcer notre équipe Ressources Humaines. Le candidat retenu aura pour mission principale d'assurer la cohérence, la conformité et la qualité de nos données RH en intégrant les meilleures pratiques de data architecture au sein de notre organisation. Compétences requises : Conception de modèles conceptuels de données par contexte métier Identification des événements métier en fonction du contexte Définition et formalisation des Business Terms , Business Attributes et Business Events dans Collibra Définition des Indicateurs Clés de Performance (KPI) par contexte métier Définition des règles de qualité pour les Business Terms Analyse de la conformité des APIs avec la data architecture Analyse de la conformité des Data Sets avec la data architecture Réalisation du data lineage pour assurer la traçabilité des données Rédaction de dossiers d'architecture data en réponse aux demandes métier exprimées dans le cadre de plans trimestriels Participation active à la démarche de data governance Objectifs de la mission : Le candidat devra élaborer et maintenir une architecture data cohérente, facilitant l’exploitation et la conformité des données RH, tout en assurant leur qualité et leur conformité aux exigences métiers. Il sera également responsable de formaliser et documenter les modèles conceptuels de données, tout en participant à la gouvernance des données pour garantir leur intégrité et leur conformité aux réglementations en vigueur. Profil recherché : Vous êtes doté d’une solide expérience en architecture data, notamment dans un contexte RH ou administratif. Vous maîtrisez les outils de gestion des métadonnées tels que Collibra, et avez une bonne compréhension des enjeux liés à la conformité des API et des Data Sets. Vos qualités analytiques, votre capacité à documenter précisément et votre esprit de collaboration seront essentiels pour mener à bien cette mission. Modalités : Les candidats intéressés sont invités à soumettre leur proposition détaillée, comprenant leur méthodologie, leur expérience pertinente et leur tarification, dans le respect des délais fixés par cet appel d’offres. Nous restons à votre disposition pour toute information complémentaire et vous remercions de l’intérêt porté à cette opportunité stratégique au sein de notre organisation.
Mission freelance
Développeur Senior Microsoft Power Platform (H/F)
CELAD
Publiée le
Microsoft Copilot Studio
Microsoft Dynamics
Power Apps
1 an
300-500 €
75008, Paris, Île-de-France
Contexte : Dans le cadre du renforcement de ses équipes, un grand compte français accompagné par CELAD recherche un expert Microsoft Power Platform afin d’accélérer le développement et la structuration de ses services collaboratifs au sein de l’écosystème Microsoft 365 . La mission consiste à concevoir , développer et maintenir des solutions basées sur Power Apps et Power Automate , tout en contribuant à la mise en place de cas d’usage innovants autour de l’IA via Copilot Studio et AI Builder . Vous interviendrez également sur la configuration des environnements, la gestion des politiques de sécurité (DLP), des habilitations et du stockage Dataverse. Vous participerez activement à la gouvernance de la plateforme, à l’automatisation des tâches d’administration via PowerShell , ainsi qu’à la gestion des incidents de niveau 3. Un rôle de référent technique est attendu, incluant l’animation d’ateliers, la documentation et les échanges avec l’éditeur.
Offre d'emploi
DATA ENGINEER GCP
Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience
Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue
La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Mission freelance
Administrateur de Bases de Données (DBA)
Ness Technologies
Publiée le
AWS Cloud
Azure
Bash
6 mois
Île-de-France, France
Responsabilités principales Déployer et gérer des systèmes de bases de données en cloud, en garantissant un contrôle d'accès sécurisé et efficace. Élaborer, gérer et optimiser les politiques et procédures relatives aux bases de données afin d'assurer la conformité aux normes ANSSI et aux autres bonnes pratiques de sécurité. Préparer et maintenir la documentation nécessaire aux audits, notamment pour répondre aux exigences de l'ANSSI. Agir en tant qu'interlocuteur unique (SPOC) pour tous les sujets liés aux bases de données, en coordonnant avec les différentes équipes pour traiter les problématiques de sécurité. Réaliser des audits de sécurité réguliers et des évaluations de vulnérabilités afin d'identifier et de corriger les failles potentielles des systèmes de bases de données. Développer et maintenir des plans de réponse aux incidents pour traiter rapidement les violations de sécurité liées aux bases de données. Collaborer étroitement avec les équipes informatiques et sécurité pour aligner les opérations sur les objectifs de l'organisation. Assurer la conformité aux réglementations et bonnes pratiques en matière de cybersécurité. Accompagner et former les membres de l'équipe sur les bonnes pratiques et les mesures de sécurité liées aux bases de données. Maintenir les services de bases de données en production en mesurant et surveillant la disponibilité, la latence et la santé globale des systèmes. Piloter la réponse aux incidents liés aux bases de données de manière efficace et durable. Faire évoluer les systèmes de bases de données de façon pérenne via l'automatisation, en promouvant les changements améliorant la fiabilité et la sécurité. Rédiger un code hautement optimisé et fiable pour les solutions de bases de données. Développer et appliquer de manière proactive les connaissances métier liées aux workflows, politiques, configurations et contraintes des bases de données. Soutenir les processus essentiels liés aux bases de données tout en garantissant le respect des standards de qualité. Vos missions au quotidien Évaluer, planifier, concevoir et déployer une infrastructure de bases de données sous forme de solutions hautement disponibles et scalables pour soutenir les applications et services critiques. Rédiger et maintenir des scripts d'Infrastructure as Code (IaC) à l'aide d'outils tels que Terraform et Ansible pour automatiser le déploiement et la gestion des ressources de bases de données. Appliquer les normes ANSSI pour sécuriser les ressources de bases de données et effectuer des audits réguliers afin d'en assurer la conformité. Réaliser la planification de capacité et le dépannage des applications, produits, infrastructures et services de bases de données. Surveiller et observer les applications et l'infrastructure de bases de données. Exploiter des environnements de test selon les bonnes pratiques du secteur pour les pré-tests et les preuves de concept. Diagnostiquer et résoudre les incidents liés aux bases de données dans des environnements cloud. Participer aux tâches d'ingénierie cloud pour gérer et optimiser l'infrastructure, incluant les ressources réseau, les mesures de sécurité et l'automatisation. Participer aux rotations d'astreinte.
Mission freelance
Data Integration specialist
Axande
Publiée le
GSAP
TIBCO
12 mois
520-650 €
Paris, France
RÔLE PRINCIPAL Le spécialiste en intégration de données interviendra spécifiquement sur un projet d’implémentation d’un système de gestion d’entrepôt (WMS – Manhattan en mode SaaS) au sein de l’écosystème client. Il rejoindra une équipe de 4 personnes et devra développer une expertise sur les interfaces existantes entre SAP ECC et les systèmes Manhattan, ainsi qu’entre SAP S/4 et Manhattan. Ces interfaces assurent des échanges bidirectionnels de données Supply (données de référence / commandes / livraisons, etc.) et utilisent différents formats (IDOC sur ECC – API OData / événements sur S/4 – fichiers JSON côté Manhattan). Le candidat devra donc être capable d’évoluer dans un environnement complexe, de comprendre la logique d’interfaces élaborées jusqu’au niveau du mapping de données, et d’assurer leur maintenance. Il pourra également être amené à configurer de manière autonome des flux de données au sein de l’ESB, ainsi qu’à former et accompagner les équipes de production. Le candidat devra aussi être en mesure de contribuer aux projets de migration dans le cadre du passage de SAP ECC vers SAP S/4, qui impacte directement le projet. Il devra faire preuve de rigueur et de précision dans la gestion documentaire, notamment pour le suivi des versions des développements mis en production (gestion de 3 environnements/zones). Le candidat sera responsable du suivi des activités avec les partenaires AMER et APAC (réunions hebdomadaires), de la remontée des points critiques, ainsi que de la mise en place et du suivi des plans d’action. Un intérêt pour la coordination et la gestion de projet est donc requis. Un esprit d’équipe et une volonté de partager les connaissances sont essentiels. Le candidat doit être capable de respecter des délais serrés, et un bon niveau d’anglais est indispensable, le projet étant mondial. Principaux enjeux du poste Recueillir et analyser les besoins métiers et clients afin de proposer des solutions techniques d’intégration Apporter de la valeur au métier en concevant le modèle d’intégration le plus adapté aux besoins Identifier et prioriser les opportunités d’amélioration des processus et de l’efficacité opérationnelle
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4745 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois