Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 832 résultats.
Freelance

Mission freelance
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT

Groupe Ayli
Publiée le
Apache Kafka
API
ArchiMate

12 mois
400-600 €
Malakoff, Île-de-France
🎯 Contexte Dans le cadre d’un vaste programme de transformation digitale, la DSI d’un grand groupe industriel international renforce sa gouvernance des flux applicatifs entre les systèmes Enterprise et les systèmes Industriels. Ces environnements – bien que segmentés pour des raisons de sécurité – sont fortement interconnectés. Le groupe souhaite donc disposer d’architectures d’intégration robustes, sécurisées et conformes aux standards d’urbanisation IT définis à l’échelle internationale. Le consultant rejoindra l’équipe Solution Design & Architecture as a Service , au sein du département Enterprise Architecture , afin d’intervenir sur la conception d’architectures d’intégration et l’accompagnement des projets. 🔧 Environnement technique AWS (services natifs, data transfer) MuleSoft Kafka MQTT Architecture d’intégration inter-systèmes Urbanisation du SI CI/CD Environnements industriels sécurisés 🎯 Objectif de la mission L’objectif est de prendre en charge la conception et la structuration des architectures d’intégration applicative sur les projets nécessitant l’échange de données entre SI Enterprise et SI Industriels. 💼 Missions principales Concevoir les architectures techniques de flux applicatifs Garantir la cohérence et l’ urbanisation des échanges inter-systèmes Produire les livrables d’architecture (HLD / LLD) Accompagner les équipes techniques lors de la mise en œuvre Assurer la conformité avec les standards IT & sécurité du groupe Participer aux comités et validations d’architecture Contribuer à l’évolution des standards techniques globaux 📌 Prestations attendues 🧩 Architecture & Design Analyse des besoins métiers Conception d’architectures d’intégration inter-applicatives Modélisation des composants et flux techniques Urbanisation des flux Définition de patterns d’intégration Participation aux comités d’architecture 🧠 Conseil & Expertise Support aux équipes projets et delivery Accompagnement au déploiement des solutions Contribution aux normes et standards IT Support aux équipes sécurité / architecture Contrôle de la conformité technique 📊 Gouvernance & Delivery Participation aux comités techniques Support aux phases de validation Accompagnement à la mise en production Suivi des activités et reporting 📄 Livrables attendus HLD (High Level Design) LLD (Low Level Design) / Design technique détaillé Patterns & modèles d’architecture Documentation technique d’intégration Recueil des besoins métiers Rapports hebdomadaires Contribution aux comités de validation
Freelance

Mission freelance
Data Manager (Power BI)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI

6 mois
Paris, France
L’entreprise recherche un expert pour piloter et renforcer la gouvernance BI & Analytics ainsi que la feuille de route du programme, qui vise à harmoniser et professionnaliser les pratiques data à l’échelle de l’organisation. La mission consiste à : Superviser le programme (rationalisation des périmètres, standardisation, amélioration du delivery, opérationnalisation du modèle de fonctionnement). Assurer la gouvernance BI & Analytics au quotidien. Faire du dashboarding (Power BI) Garantir la bonne application des standards Data : Data Governance, Data Quality, Data by Design, et la documentation associée. Contribuer au processus Data by Design avec le DPO, les Data Architects et les équipes projet. Accompagner les Business Data Owners et Data Stewards dans la gestion et la qualité des données, notamment sur certains domaines critiques comme le domaine RH. Livrables attendus : supports de pilotage (COPIL), roadmaps, suivi financier, gestion des risques, documents de gouvernance, inventaires, documentation standardisée, modèles de données et data dictionaries.
Freelance

Mission freelance
101687/Product Owner / Business Analyst Senior Google et Messagerie, Google Workspace - Niort

WorldWide People
Publiée le
Google Workspace

9 mois
330-380 €
Niort, Nouvelle-Aquitaine
Mission dans le secteur de l'Assurance de Product Owner / Business Analyst Senior pour le domaine Google et Messagerie, incluant Google Workspace, les solutions de messagerie et les services Cloud associés (type AWS) avec une forte composante d'accompagnement au changement et d'innovation technologique. Pilotage du Produit et de l'Équipe (Posture PO) : - Définir et maintenir la roadmap du domaine 'Google et Messagerie' en alignement avec la stratégie de l'entreprise. - Recueillir, structurer et prioriser les besoins (Backlog produit). Rédiger les User Stories et définir les critères d'acceptation. - Coordonner les activités de l'équipe technique (développeurs, administrateurs) et animer les rituels agiles au quotidien. Analyse Métier et Stratégie (Posture BA) : - Analyser les processus métiers complexes pour proposer des solutions adaptées (automatisation, nouveaux outils collaboratifs, exploitation de la donnée). - Intégrer les exigences de sécurité (Cyber) et de conformité dans la conception des solutions. - Identifier les opportunités d'amélioration continue, notamment autour de l'Intelligence Artificielle (ex: Gemini) et de la valorisation des données. Accompagnement et Conduite du Changement : - Définir la stratégie d'accompagnement pour la migration vers de nouveaux outils ou le déploiement de nouvelles fonctionnalités. - Créer des supports pédagogiques, animer des webinaires et piloter un réseau d'ambassadeurs (notamment sur les sujets IA et collaboratif). - Promouvoir les bonnes pratiques liées à la sobriété numérique, à la prévention de l'infobésité et au droit à la déconnexion. Livrables : - Cadrage : Roadmap produit, Backlog priorisé, User Stories et spécifications fonctionnelles. - Suivi : Tableaux de bord de suivi (vélocité de l'équipe, indicateurs d'adoption, KPIs de performance). - Accompagnement : Plans de conduite du changement, guides utilisateurs, supports de présentation et de communication. Compétences demandées : - Excellence relationnelle, sens de l'organisation et forte orientation 'Valeur Utilisateur'. - Maîtrise des méthodologies Agiles (Scrum, Kanban) et de la gestion de backlog. - Expérience réussie dans l'accompagnement des utilisateurs et l'animation de formations/ateliers. - Forte capacité à vulgariser des sujets techniques auprès des métiers et à fédérer une équipe. - Culture technique globale pour dialoguer efficacement avec l'équipe technique et challenger les solutions. - Bonne culture de l'écosystème Google Workspace et des infrastructures de messagerie. - Notions sur les environnements Cloud (AWS, GCP) et sur l'exploitation de la donnée (Business Intelligence, dashboards). - Curiosité ou première approche des outils d'IA Générative et d'automatisation (Low-code). Mission sur site à Niort. Possibilité de télétravail 2 à 3 jours par semaine. Pas de Remote
Freelance

Mission freelance
Architecte Solution - 2 jours TT

Intuition IT Solutions Ltd.
Publiée le
API
Architecture
AWS Cloud

1 an
550-620 €
Paris, France
- Définir la conception et la feuille de route pour refactorer les actifs technologiques existants en composants réutilisables (Source interne) - Concevoir des solutions d'IA et d'IA générative évolutives - Assurer l'intégration avec les paysages informatiques existants - S'aligner sur les normes et pratiques architecturales mondiales - Collaborer avec des équipes internationales pour co-concevoir des actifs d'IA partagés Bonne expertise en communication - Esprit collaboratif ; efficace pour travailler avec des équipes internationales et multiculturelles - Capacité à animer des ateliers et des sessions d'architecture - Solide expertise analytique et en résolution de problèmes - Grande adaptabilité dans des environnements très dynamiques - Expertise claire en documentation et présentation
Freelance

Mission freelance
Chef de Projet/ Data - Success factor (obligatoire) - Full Remote

WorldWide People
Publiée le
SAP SuccessFactors

9 mois
400 €
France
Chef de Projet/ Data - Success factor (obligatoire) EXP : +5 ans Compétences (1 à 3) : ☒ Gestion de projet 2 ☒ Conception de test 2 ☒ analyse de données 3 ☒ rédaction de contrat d’interface 2 ☒ définition de stratégie de recette 2 ☒ Coordination d’acteur 2 ☒ excel 3 ☒ Administration fonctionnelle de Success factor module EC 3 ☐ Outil de requêtage de base de données 3 ☐ Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => · Analyse et correction des erreurs. · Suivi quotidien des flux (API, IC, middleware). · Mise en qualité des échanges de données. Optimisation des flux SF ↔ middleware => · Audit des interfaces existantes. · Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => · Rédaction des specs techniques. · Coordination IT / middleware. · Tests et support post go-live.
Freelance

Mission freelance
Consultant Expert FinOps Snowflake (H/F)

CAT-AMANIA
Publiée le
Snowflake

3 mois
400-590 €
Hauts-de-France, France
Consultant Expert FinOps Snowflake (H/F) Secteur : Banque / Services Financiers Lieu : Hauts-de-France (Croix) + Télétravail à définir Durée : 3 mois (renouvelable) Début : 15/04/2026 Séniorité : +9 ans d'expérience 📌 Le Contexte Pour le compte d'un acteur majeur du secteur bancaire international, nous recherchons un Consultant Expert FinOps pour accompagner la structuration et le cadrage de la démarche d'optimisation des coûts liée à l'usage croissant de la solution Snowflake . L'objectif est de passer d'une consommation réactive à une gouvernance proactive, permettant de concilier innovation Data et maîtrise budgétaire à l'échelle internationale. 🎯 Vos Missions Rattaché(e) aux équipes Data et IT, vos responsabilités s'articulent autour de trois axes majeurs : Cadrage & Diagnostic : Évaluer la maturité FinOps actuelle. Réaliser un état des lieux des dispositifs déjà en place auprès des contributeurs Data et IT. Définition de la Stratégie FinOps : Élaborer une stratégie adaptée au contexte multi-pays. Mettre en place un modèle de gouvernance cible (rôles et responsabilités). Définir les KPIs clés et le dispositif de pilotage/suivi des consommations. Accompagnement & Change Management : Publier et diffuser les bonnes pratiques d'utilisation de Snowflake. Accompagner la montée en compétence des utilisateurs et responsabiliser les équipes (Data, Métier, IT). 🛠 Votre Profil Expertise technique : Vous avez une connaissance approfondie de l’architecture Snowflake et des leviers d'optimisation de coûts associés. Expérience FinOps : Vous justifiez d'une expérience significative dans la mise en place de démarches FinOps (Cloud ou Snowflake spécifique). Séniorité : Profil Architecte ou Consultant Senior (+9 ans d'expérience) capable de dialoguer avec des interlocuteurs de haut niveau. Soft Skills : Excellente capacité de structuration, esprit d'analyse et sens de la pédagogie. Langues : Anglais indispensable (contexte international). 💼 Pourquoi postuler ? Mission stratégique à forte visibilité. Environnement technologique de pointe. Grand groupe financier leader sur son marché.
Freelance

Mission freelance
Business Analyst – Global Markets - Paris

Net technologie
Publiée le
Business Analyst
Market data

1 an
Paris, France
Dans le cadre de la structuration Global Markets , nous recherchons un profil pour rejoindre l’équipe QIS (Quantitative Investment Strategies) , en Salle des Marchés; L’équipe QIS développe et promeut la gamme d’indices propriétaires. Le poste s’inscrit au sein de l’équipe QIS Transversal , intégrée à une Task Force stratégique visant à optimiser la chaîne de publication des indices (réduction de la maintenance quotidienne et du risque opérationnel). 🛠 Vos missions : Analyser l’existant et identifier les axes d’amélioration Proposer et structurer un plan d’action Coordonner les équipes impliquées (Structuring, Research, Dev, Trading, Legal – international) Concevoir un outil de suivi du processus opérationnel Assurer le reporting régulier auprès du management
Freelance

Mission freelance
Lead DevOps (H/F)

STHREE SAS pour HUXLEY
Publiée le

12 mois
75001, France
Localisation: Paris (2 à 3 jours de télétravail par semaine) Conditions : Freelance ou portage (pas de sous-traitance) et ouvert au CDI Contexte Notre client est un acteur important dans le secteur du paiement. Pour leur département IT, composé d'environ dix personnes (architecte SI, développeurs, experts infra…) je recherche un Lead DevOps expérimenté pour renforcer leur équipe technique passionnée et exigeante. L'environnement est très "geek-friendly" : forte culture technique, volonté de tester, prototyper, documenter et maintenir un code propre. Vous travaillerez au quotidien avec des profils très techniques, dont un management particulièrement sensible aux bonnes pratiques DevOps. Le rôle inclut une grande rigueur, un sens du détail irréprochable, et la capacité à délivrer en autonomie dans un cadre structuré. Objectifs du poste Concevoir, développer et maintenir les plateformes Cloud (principalement GCP) destinées à héberger les solutions internes. Implémenter les meilleures pratiques en matière d'infrastructure, CI/CD, observabilité et sécurité. Optimiser l'usage du Cloud et contribuer à la maîtrise des coûts. Expertise & Leadership technique Être la référence interne sur les sujets GCP, Kubernetes et DevOps pour plusieurs entités. Accompagner et mentorer les membres de l'équipe sur l'ingénierie et les bonnes pratiques. Participer à la définition des architectures, standards techniques et process d'automatisation. Collaboration & Delivery Travailler au quotidien avec les équipes DevOps, AppOps, Développement, Data, IT et Sécurité. Contribuer à la mise en place de solutions robustes, scalables et sécurisées. Produire un reporting clair et synthétique (tickets, documentation, suivi). Stack technique recherchée Must-have Kubernetes (idéalement très solide) CI/CD & IaC : GitHub Actions, GitLab CI, ArgoCD, Terraform, Terragrunt, Ansible Infrastructure as Code : Terraform / Terragrunt Containers : Docker Monitoring : Grafana, Prometheus Langages : Python (gros plus), Shell, Go, Java Dev mindset : un background de développeur (et non purement infra) Databases & Data: PostgreSQL, MySQL, BigQuery, ElasticSearch Cloud & Infra : Linux, GCP (networking, storage, databases, IAM, security), Kubernetes, Cloud Run Monitoring & Ops : Datadog, Grafana, Prometheus, Atlassian Suite (Jira, Confluence, OpsGenie, StatusPage…) IT & Security : JumpCloud, Bitdefender, Bitwarden, Nordpass Anglais courant obligatoire (échanges quotidiens, ticketing en anglais) Nice-to-have GCP (idéalement), mais AWS est totalement acceptable Expérience dans des environnements fintech ou monétique (pas obligatoire) Intérêt fort pour les POCs, les tests, la R&D technique Profil recherché Expérience 10 ans d'expérience minimum en DevOps / SRE. 20 ans serait idéal (ancien senior/lead avec recul et maturité technique). Soft skills Ultra‑rigoureux , attaché au clean code et à la documentation. Très structuré : bullet points Jira, suivi, reporting. Capable de travailler avec des personnes très techniques, "geeks", exigeantes. Capacité à exécuter clairement une demande et rendre compte en fin de journée. À l'aise dans des environnements où l'on attend précision, discipline et respect des conventions techniques.
CDI
Freelance

Offre d'emploi
Développeur React / React native (H/F)

Linkup Partner
Publiée le
React
React Native

1 an
53k-59k €
470-550 €
Paris, France
On recherche un(e) dev React / React Native pour participer au développement des applications web et mobiles. Tu seras à la fois sur le web et sur le mobile , avec un vrai impact sur le produit. Missions Développer et maintenir des applications React (web) et React Native (mobile) Participer aux choix techniques et à l’architecture frontend Écrire du code propre et testé (unitaires, intégration, e2e) Collaborer avec l’équipe produit et backend dans un environnement agile Proposer des améliorations et partager tes bonnes pratiques Stack Technique Frontend Web : React, Redux, TypeScript Mobile : React Native (Expo ou bare) Tests : Jest, React Testing Library, Detox CI/CD : Git, GitHub Actions, Firebase / AWS / GCP
Freelance

Mission freelance
Lead Data migration SIRH

MSI Experts
Publiée le
Workday

1 an
550-600 €
La Défense, Île-de-France
Cadrage du chantier data migration Responsable de l’équipe et de son animation Responsable du planning Responsable du pilotage et statut d’avancement Consolidation des référentiels Consolidation et contrôle sur les données employés pour tous les pays Responsable des règles de transformation Responsable de la mise à disposition des données aux intégrateurs Point de contact avec les pays Défini la stratégie de reprise de donnée et de data catch up Pilote l’exécution de la reprise de donnée et du data catch up Contribue aux décommissionnements du legacy
Freelance

Mission freelance
Data Analyst Lutte contre la fraude

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python

2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Freelance

Mission freelance
Architecte DATA

Codezys
Publiée le
Python
SQL
Teradata

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
SAP Senior Developer BTP / Integration & Data Conversion

Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA

2 ans
Versailles, Île-de-France
Nous recherchons un Développeur SAP BTP / CPI senior - Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de d'intervenir techniquement sur les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: • Développer et maintenir des flux d'intégration autour de SAP BTP et de l'Integration Suite, en lien avec SAP, les systèmes legacy et les systèmes satellites. • Mettre en œuvre des interfaces techniques basées sur API, événements, fichiers ou middleware, selon les schémas définis par le projet. • Effectuer des activités de conversion de données • Contribuer aux tests techniques, aux tests d'intégration et à la correction des bugs • Documenter les développements réalisés et participer au transfert de connaissances aux équipes internes Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec cartographie, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes
Freelance

Mission freelance
POT9076 - Un Chef de Projet/ Data - Success factor à IDF

Almatek
Publiée le
API

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Chef de Projet/ Data - Success factor à IDF Compétences (1 à 3) : • Gestion de projet 2 • Conception de test 2 • analyse de données 3 • rédaction de contrat d’interface 2 définition de stratégie de recette 2 • Coordination d’acteur 2 • excel 3 • Administration fonctionnelle de Success factor module EC 3 • Outil de requêtage de base de données 3 • Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => • Analyse et correction des erreurs. • Suivi quotidien des flux (API, IC, middleware). • Mise en qualité des échanges de données. Optimisation des flux SF ? middleware => • Audit des interfaces existantes. • Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => • Rédaction des specs techniques. • Coordination IT / middleware. • Tests et support post go-live.
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2832 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous