L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 65 résultats.
Offre d'emploi
Data Engineer (H/F)
AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API
3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Offre d'emploi
Senior Data Engineer F/H
Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)
Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Mission freelance
AWS Platform Engineer remote (H/F)
STHREE SAS pour HUXLEY
Publiée le
36 mois
Suresnes, Île-de-France
Contexte Dans le cadre d'une stratégie de résilience de plateforme, nous recherchons un(e) Platform Engineer chargé(e) de concevoir et piloter la mise en place d'une capacité de Disaster Recovery en mode Warm Pilot . Ce rôle s'exerce au sein d'un environnement cloud critique, soumis à de fortes exigences en matière de disponibilité, de fiabilité, de sécurité, d'automatisation et d'excellence opérationnelle. Le poste combine implémentation technique et vision architecturale solide. Le rôle peut se faire en full remote. Mission Le/La Platform Engineer sera responsable de définir, concevoir et implémenter les composants techniques nécessaires à une stratégie de Disaster Recovery Warm Pilot sur AWS. La solution devra être automatisée, testable, sécurisée, exploitable et alignée avec les standards et pratiques d'ingénierie existants. Responsabilités principales Revoir et challenger l'architecture cible de Disaster Recovery Warm Pilot pour les charges de travail cloud critiques. Revoir et challenger les patterns techniques liés au failover, failback, réplication, synchronisation et orchestration de reprise. Traduire les exigences de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives. Implémenter l'infrastructure et les composants DR via l'Infrastructure as Code et les principes GitOps. Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir la cohérence de bout en bout. Définir et documenter les procédures de failover, failback, validation de reprise et tests de DR. Identifier les risques techniques, dépendances, points de défaillance uniques et lacunes opérationnelles. Technologies / Environnement AWS Cloud ArgoCD GitLab Terragrunt Profil recherché Platform Engineer disposant de compétences en architecture et design acquises par l'expérience. Solide expérience dans l'exploitation de plateformes de production basées sur AWS. Maîtrise de l'Infrastructure as Code, de l'automatisation et de la standardisation des déploiements. Très bonne compréhension de la résilience, haute disponibilité, disaster recovery et opérations de production. Capacité à concevoir des solutions robustes, simples, maintenables et testables. Aisance pour collaborer avec plusieurs équipes et domaines techniques. Sens du détail et qualité élevée des livrables, y compris de la documentation.
Mission freelance
Consultant(e) SAP FICO senior – expertise SAP Accrual Engine (H/F)
DUONEXT
Publiée le
SAP FICO
6 mois
Île-de-France, France
Dans le cadre d’une mission d’expertise ponctuelle auprès d’un client basé en région parisienne, nous recherchons un(e) Consultant(e) SAP FICO Senior disposant d’une forte expertise sur le module SAP Accrual Engine. L’intervention s’inscrit dans un contexte de gestion de commandes d’abonnement, avec un enjeu majeur de sécurisation et d’optimisation des traitements comptables et analytiques liés aux mécanismes d’accrual. Le/la consultant(e) interviendra en autonomie afin de structurer, fiabiliser et optimiser les processus existants, tout en accompagnant les équipes métiers dans l’appropriation de la solution. Missions principales Analyse de l’existant et des flux liés aux abonnements Paramétrage et ajustement de l’Accrual Engine Revue et sécurisation des schémas comptables Garantie de la cohérence des impacts en FI/CO Recommandations d’optimisation et mise en place de bonnes pratiques Support expert auprès des équipes Finance, Contrôle de gestion et Achats Transfert de compétences aux équipes métiers et IT
Offre d'emploi
DataOps Engineer - H/F
AMD Blue
Publiée le
Amazon S3
AWS Cloud
CI/CD
3 ans
48k-56k €
480-550 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Ops . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Ops . Contexte de la mission : Notre client recherche un(e) Senior Data Ops Engineer pour rejoindre son équipe en charge du Datalake. La donnée est au cœur de la stratégie de notre client, guidant chaque décision de la conception à l'expérience utilisateur. L'équipe est responsable de la mise à disposition du stockage, de la robustesse, de la scalabilité et de la gouvernance technique du patrimoine de données. Descriptif de la mission : Les missions sont : Garantir la robustesse de la plateforme : Gestion du DRP et du PCA. Monitoring et pilotage : Actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails). Support et accompagnement : Expertise sur S3, Glue et Unity Catalog. Infrastructure as Code : Déploiement de nouvelles ressources via Terraform et maintenance de l'existant. Collaboration : Travail en étroite collaboration avec les ingénieurs infra et les équipes ops. Accompagnement et formation : Définition et promotion des bonnes pratiques, conseil lors de la conception des pipelines de données. Développement du futur : Automatisation de la gouvernance (Data contract registry, access management) et déploiement de Unity Catalog (lineage, managed tables, etc.).
Offre d'emploi
Data Engineer F/H
VIVERIS
Publiée le
40k-45k €
Belgique
Contexte de la mission: Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle.Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring. Vos responsabilités: Vous serez en charge de: - Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming) - Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT) - Assurer la qualité, la fiabilité et la disponibilité des datasets critiques - Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse) - Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables - Contribuer aux choix techniques et à l'évolution de l'architecture data - Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Mission freelance
Data Engineer Semarchy (H/F)
CELAD
Publiée le
1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Offre d'emploi
Data Engineer Semarchy (H/F)
CELAD
Publiée le
36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Offre d'emploi
Senior Quality Engineer - H/F
AMD Blue
Publiée le
Cucumber
QA
Unity
3 ans
43k-48k €
430-470 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Digital . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Digital . Contexte de la mission : Notre client souhaite offrir le meilleur parcours au sein de ses points de vente physiques à travers le monde. Intégré(e) à une équipe pluridisciplinaire (Backend, Frontend) fonctionnant en mode Agile, votre mission consistera à concevoir et implémenter la stratégie de tests automatisés sur des solutions innovantes d'agencement et de modélisation 3D. Descriptif de la mission : En tant que QE Senior, vos principales responsabilités seront : Automatisation Unity & C# : Implémenter et maintenir une suite de tests d'intégration via Unity Test Framework (Edit Mode et Play Mode) pour valider les comportements de l'application 3D. Automatisation d'APIs : Implémenter les tests pour les APIs Java/Kotlin via un framework basé sur Cucumber. Rédiger des scénarios de tests en Gherkin pour aligner les besoins métiers et techniques. Intégration Continue (CI/CD) : Intégrer les suites de tests dans les pipelines de CI, analyser les rapports et collaborer avec les développeurs pour corriger les régressions. Stratégie & Qualité : Participer aux phases de conception pour anticiper la testabilité, fournir des KPI de qualité (DDE, DRE, Taux de couverture) et animer les processus qualité de l'équipe.
Offre d'emploi
Plateform Engineer Kubernetes F/H
Les Filles et les Garçons de la Tech
Publiée le
DevOps
DevSecOps
Helm
55k-68k €
Île-de-France, France
Envie de donner de l’impact à votre expertise technique au sein d’une entreprise engagée ? Les Filles & les Garçons de la Tech recrutent un(e) Plateform engineer Kubernetes pour rejoindre leur équipe. Au quotidien, vous accompagnerez nos clients sur les missions suivantes : Concevoir et mettre en œuvre des architectures Kubernetes adaptées aux enjeux des projets Accompagner la migration d’applications vers Kubernetes et l’adoption des pratiques cloud-native Assurer l’ exploitation et l’optimisation des clusters (scalabilité, scheduling, gestion des ressources, politiques réseau) Contribuer à la sécurité des environnements Kubernetes (RBAC, gestion des secrets, politiques de sécurité) Industrialiser les déploiements via Helm, Kustomize et des approches GitOps (ArgoCD, FluxCD) Participer aux choix d’outils et à la veille technologique autour de l’écosystème Kubernetes Jouer un rôle de référent technique , en accompagnant et en challengeant les équipes DevOps et SRE
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Data Engineer (F/H)
CELAD
Publiée le
1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Mission freelance
Senior Lead Performance & Resilience Engineer (H/F) – Tests de charge & résilience
HOXTON PARTNERS
Publiée le
API
Kubernetes
3 mois
75002, Paris, Île-de-France
Dans le cadre d’un programme stratégique de construction d’une plateforme de règlements d’opérations de marché en euro tokenisé, nous recherchons un Lead Performance & Resilience Engineer pour piloter l’ensemble des tests de charge et de robustesse. La plateforme doit entrer en production en septembre 2026. Le projet nécessite le démarrage immédiat de campagnes de tests de résilience et de performance afin de sécuriser la scalabilité, la stabilité et la capacité du système à absorber des volumes critiques. Le consultant interviendra en tant que référent sur la définition de la stratégie de tests, la coordination des campagnes, l’analyse des résultats et la proposition de plans de remédiation en collaboration étroite avec les équipes techniques et les architectes. Missions principales : Définition de la stratégie globale de tests de performance et de résilience Conception des scénarios de tests de charge, stress, endurance et montée en charge Pilotage et supervision des campagnes de tests Analyse approfondie des métriques techniques (CPU, mémoire, réseau, logs, traces, throughput, latence) Identification des goulots d’étranglement et des causes racines Proposition et suivi des plans de remédiation Collaboration avec les équipes développement, architecture, DevOps et exploitation Reporting et documentation des analyses et recommandations
Offre d'emploi
Développeur Mobile React Native / Data Engineer (H/F)
NSI France
Publiée le
Développement
1 an
40k-65k €
400-650 €
Île-de-France, France
Développeur Mobile React Native / Data Engineer (H/F) Localisation : Île-de-France Télétravail : 2 jours remote / 3 jours sur site Type de contrat : Mission longue durée Démarrage : ASAP Description du poste Dans le cadre d’un projet stratégique au sein d’un grand groupe, nous recherchons un profil hybride capable d’intervenir à la fois sur une application mobile existante et sur des traitements de données en environnement cloud. Missions principales • Assurer la maintenance et l’évolution d’une application mobile développée en React Native • Concevoir et développer de nouvelles fonctionnalités • Corriger les anomalies et optimiser les performances • Participer aux phases de tests et aux mises en production • Intervenir sur des pipelines de données • Développer et maintenir des notebooks Databricks • Manipuler et transformer des données via Spark • Rédiger et optimiser des requêtes SQL • Travailler dans un environnement Microsoft Azure Environnement technique React Native, Databricks, Spark, SQL, Azure
Mission freelance
Integration Engineer SAP / API (H/F) – Freelance
LeHibou
Publiée le
Apache Kafka
Apigee
SAP
9 mois
490-600 €
Paris, France
Integration Engineer SAP / API (H/F) – Freelance Localisation : Île-de-France Télétravail : 2 à 3 jours par semaine Durée : 6 mois renouvelables Démarrage : ASAP Contexte : Environnement international Contexte Dans le cadre du déploiement d’un Warehouse Management System (SaaS) au sein d’un grand groupe international, vous interviendrez sur un projet stratégique impliquant l’intégration de systèmes complexes dans un environnement SAP. Vous rejoindrez une équipe dédiée à la gestion et à l’évolution des interfaces entre différents systèmes (SAP ECC, SAP S/4HANA, applications SaaS), dans un contexte de transformation et de migration. Missions Vous interviendrez sur la conception, la mise en œuvre et la maintenance des flux d’intégration entre plusieurs systèmes critiques. À ce titre, vos principales responsabilités seront : Concevoir et implémenter des flux d’intégration (API, ESB, event-driven) Maintenir et faire évoluer des interfaces complexes entre systèmes SAP et applications tierces Comprendre et analyser les mappings de données et les logiques d’échange (IDOC, JSON, OData, XML) Participer aux projets de migration SAP ECC vers SAP S/4HANA Configurer et maintenir les flux au sein d’un ESB Réaliser les tests d’intégration, de performance et de charge Assurer le support de niveau 3 et participer aux phases de mise en production Rédiger et maintenir la documentation technique et fonctionnelle Collaborer avec des équipes internationales (EMEA, APAC, AMER) Participer au suivi des activités et à la coordination des actions avec les différentes parties prenantes Environnement technique ERP : SAP ECC, SAP S/4HANA Intégration : ESB, Tibco BusinessWorks, Workato API Management : Apigee Protocoles : REST, SOAP, OData, IDOC Formats : JSON, XML Event streaming : Kafka (ou équivalent) Outils : CI/CD, Confluence, outils de monitoring Base de données : SQL (MSSQL apprécié)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
65 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois