L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 451 résultats.
Offre d'emploi
Data Ops Engineer
VISIAN
Publiée le
Ansible
DevOps
1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Mission freelance
Chef de Projet Data (F/H)
CELAD
Publiée le
1 an
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . Voici un aperçu détaillé de vos missions : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle
Mon Consultant Indépendant
Publiée le
Gestion de projet
40k-50k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage, vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables et produisez les PV de recette. En transverse, vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques et facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : · Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. · Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. · Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : · Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. · Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. · Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : · Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. · Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. · Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : · Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. · Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. · Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : · Démarrage : mai 2026 · Durée : jusqu'à fin décembre 2026 · Charge : temps plein · Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
Mission freelance
Data Configurateur
Codezys
Publiée le
12 mois
320-350 €
Lille, Hauts-de-France
Objectif principal : Garantir la structuration, la fiabilité et la performance des données produits dans le configurateur afin d’offrir une expérience digitale cohérente, performante et adaptée aux marchés, clients et collaborateurs en magasins. 1. Structuration et gouvernance des données produits Collecter, analyser, structurer et actualiser les données en lien avec fournisseurs et marchés. Assurer la fiabilité, cohérence et conformité des données produits et tarifaires (prix, options, évolutions). Maintenir la qualité et la pérennité des référentiels data. Définir les règles de compatibilité entre produits. Modéliser et unifier les données multi-fournisseurs pour leur intégration. Identifier les attributs produits pour l’animation des parcours digitaux et assurer leur complétude. Documenter les règles métier et référentiels pour une bonne transmission. 2. Pilotage du peuplement et performance produit Assurer le peuplement des produits dans le configurateur. Suivre et analyser les KPI liés aux produits et parcours. Identifier des axes d’optimisation par des analyses de performance. Proposer des plans d’action en lien avec les marchés. Contribuer à l’amélioration continue de l’offre et de l’expérience utilisateur. 3. Référent fonctionnel et animation de l'écosystème Être le référent fonctionnel de la data des configurateurs. Accompagner et sensibiliser le réseau aux évolutions. Communiquer sur les mises à jour, nouvelles fonctionnalités et impacts opérationnels. Structurer et animer les canaux d’échange pour remonter les retours terrain. Qualifier, prioriser et intervenir sur les anomalies. Intégrer les retours pour améliorer parcours et règles métier. Gérer les interdépendances avec marchés, fournisseurs, développeurs. Fournir une expertise stratégique sur les sujets transverses. 4. Contribution à l’organisation produit Participer au fonctionnement en mode produit. Contribuer aux phases de recette et validation des évolutions. Assurer le pilotage en l’absence du Product Owner. Suggérer des évolutions fonctionnelles et des optimisations. 5. Cadrage et activation de parcours digitaux Participer à la conception et au cadrage des parcours digitaux. Accompagner la digitalisation des parcours pour les marchés. Challenger les prérequis fonctionnels et data nécessaires. Paramétrer les outils de configuration des parcours clients et collaborateurs. Suivre la performance des parcours et proposer des ajustements.
Mission freelance
Data Analyst expert Dataiku
Nicholson SAS
Publiée le
Dataiku
MySQL
Salesforce
6 mois
600 €
Paris, France
Entité : Banque Site : Paris ; 50% TT Prix d’achat max : 600 euros Date de démarrage : ASAP Date de fin : 31/12/2026 Mission : Au sein de la direction Data Office & RPA / Reporting&Analytics nouvellement créée chez mon client, nous recrutons pour un poste d’analyste Data et Reporting dédié à la direction marketing. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein de la banque. Vos activités principales consisteront à accompagner les métiers marketing - dans 30 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité du groupe (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU.
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Développeur Backend Data – Elasticsearch
Codezys
Publiée le
Elasticsearch
ELK
Grafana
6 mois
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, dont certaines en phase de BUILD et d'autres en phase de RUN . Dans ce cadre, nous recherchons un profil expérimenté pour assurer la responsabilité technique d’un projet existant. Ce projet, récemment mis en production, vise à fournir des indicateurs via une interface Grafana, permettant un suivi précis des modules de télérelève et de radio-relève. Il comprend notamment une couche d'ingestion qui permet d'enregistrer les données dans une base ElasticSearch, avec un format adapté. L'ingestion est pilotée par du code Java. Les indicateurs ainsi produits permettent au métier de suivre environ 1 million de modules clients, avec des index quotidiens sur une période de 3 ans. La mission principale consiste à : Maintenir l’existant en assurant la stabilité et la performance du système Analyser et résoudre les incidents ainsi que répondre aux questions remontées par le métier, en expliquant et en corrigeant les résultats affichés Ajouter de nouveaux objets en fonction des besoins métiers Le projet "Supervision Télérelève" s’appuie sur un socle technique composé de Java, ELK (ElasticSearch, Logstash, Kibana) et Grafana, visant à fournir une solution de reporting performante pour les experts et les collectivités. Bien que le socle technique soit en place, il nécessite un maintien ainsi que le développement de nouveaux objets. Une collaboration avec d’autres équipes sera nécessaire pour travailler sur des questions d’authentification, en intégrant la solution dans d’autres projets. Par ailleurs, une migration vers Databricks peut être envisagée à moyen terme, ce qui impliquera une adaptation technique future. Le candidat retenu occupera un rôle de TechLead / Développeur : il devra analyser l’existant, assurer le débogage, suivre le backlog, et échanger avec le métier, le Product Owner (PO) et, éventuellement, avec les architectes. En tant que seul acteur technique sur ce projet, il doit faire preuve d'une grande autonomie et d’une capacité à gérer l’ensemble des sujets techniques. Profil recherché : Expérience confirmée en gestion de projets techniques similaires Maîtrise de Java, ELK Stack et Grafana Capacité à analyser, diagnostiquer et corriger les incidents Autonomie et initiative dans la gestion de projet Bonnes qualités de communication pour échanger avec différentes équipes techniques et métiers
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Mission freelance
DevSecOps Cloud AWS (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
DevOps
2 ans
450-530 €
Lyon, Auvergne-Rhône-Alpes
Fonctionnement : 2 jour sur site à Lyon Les missions attendues par le DevSecOps Cloud AWS (H/F) : Dans le cadre de l’industrialisation des technologies cloud à l’échelle, nous recherchons un(e) Ingénieur DevSecOps / Cloud pour accompagner la structuration, la sécurisation et l’automatisation du cycle de vie des produits numériques. L’objectif : garantir performance, sécurité, résilience et fluidité des livraisons dans une logique DevSecOps et Cloud native . 🎯 Vos missions1️⃣ Industrialisation des livraisons (CI/CD) Mettre en place et maintenir les pipelines CI/CD Automatiser les tests (unitaires, intégration, non-régression) Gérer les pipelines de build et de déploiement Faciliter le delivery produit de bout en bout 2️⃣ Sécurité – Security by Design Intégrer des scans de sécurité automatisés dans les pipelines Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Contribuer à l’architecture sécurisée du produit avec les équipes cybersécurité Promouvoir les bonnes pratiques de développement sécurisé 3️⃣ Infrastructure as Code & automatisation Automatiser la gestion des infrastructures (IaC) Gérer la configuration cohérente des environnements (test, recette, production) Optimiser les ressources cloud 4️⃣ Monitoring, observabilité & performance Mettre en place des outils de supervision et de logs Mettre en place des alertes proactives et des dashboards Collaborer avec les équipes exploitation et performance pour le suivi en production 5️⃣ Amélioration continue & résilience Participer aux diagnostics type Accelerate Identifier des leviers d’amélioration (qualité, rapidité, stabilité) Contribuer aux Gamedays RUN pour tester la résilience Capitaliser sur les retours d’expérience (Post-Mortem, Incident Review) 6️⃣ Culture & collaboration DevSecOps Travailler en étroite collaboration avec développeurs, PO, sécurité et exploitation Acculturer les équipes aux pratiques DevSecOps Documenter outils, processus et incidents Contribuer à la communauté DevSecOps interne (guildes, rituels, veille)
Mission freelance
Architecte technique SI H/F
Cheops Technology
Publiée le
AWS Cloud
12 mois
400-520 €
Nantes, Pays de la Loire
Mission principale L’architecte technique assure la cohérence et l’évolution de l’architecture technique en conformité avec le Schéma Directeur des Produits technologiques (SDP) et l’architecture globale Architecture Technique Prod Il intervient principalement sur les projets liés aux domaines Production et Référentiels de la Fabrique SI. Activités et responsabilités 1. Études d’architecture amont Analyse de l’existant et cadrage technique Étude de faisabilité et scénarios d’architecture Comparaison et synthèse des solutions possibles Estimation macro des coûts techniques Identification et modélisation des flux inter-applicatifs Définition des standards d’échanges Livrables possibles : DAL (Dossier d’Architecture Logique) note d’architecture étude de cadrage technique. Architecture Technique Prod Tra… 2. Conception de l’architecture technique Définition de l’architecture technique cible Validation des choix technologiques Cohérence avec les standards du SI SNCF Participation aux comités d’architecture Contribution aux documents d’architecture (DAT, DAL). 3. Accompagnement des projets Support technique aux équipes projet Collaboration avec : architectes SI lead tech équipes infrastructures autres DSI du groupe Suivi de la mise en œuvre de l’architecture. 4. Gouvernance technique Veille technologique Conseil aux équipes de conception Contribution à la définition des infrastructures Amélioration des processus d’architecture. Livrables attendus Études d’architecture technique DAL / DAT notes de cadrage recommandations techniques modélisation des flux et des infrastructures.
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Mission freelance
Data Scientist / GenAI /LLM
Pickmeup
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Offre d'emploi
Développeur Backend - Kotlin
VISIAN
Publiée le
AWS Cloud
Java
Kotlin
1 an
Paris, France
Contexte Les plateformes de référence pour la centralisation, la distribution et l'exposition via API de l'ensemble des offres fournissent aux applications clientes un accès unifié à un catalogue multifournisseurs, un moteur de recherche d'itinéraires multimodal, la distribution des offres. Ces plateformes reposent sur un ensemble d'APIs simples à intégrer, permettant la construction d'interfaces de mobilité en marque blanche couvrant l'ensemble du parcours utilisateur. Le domaine Moteur Distribution s'organise en 4 équipes de delivery travaillant sur la refonte du moteur d'offres et du moteur de booking. Besoin – Mission Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte, afin de travailler sur les problématiques dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
Mission freelance
Architecte Talend / Senior Data Management - PLUS DE 10 ANS D'EXPERIENCE
NEXTWYN
Publiée le
Data management
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)
12 mois
Paris, France
Description du poste Dans le cadre de notre accord-cadre, nous recherchons un Architecte / Consultant Senior spécialisé en Data Management , avec une expertise confirmée sur l’écosystème Talend. La mission s’inscrit dans un environnement technique existant et nécessite une capacité d’intervention en totale autonomie , sans phase de montée en compétence préalable. Le consultant interviendra sur : la conception et l’architecture des flux de données , l’optimisation des traitements et de la qualité des données, la mise en place et l’évolution des solutions d’intégration, la restitution et la valorisation des données. Il participera également activement aux échanges techniques , à l’ animation des réunions projets et à la production de livrables d’architecture .
Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02
Almatek
Publiée le
API
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
SMILE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2451 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois