Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 273 résultats.
Freelance

Mission freelance
Senior Software Engineer – Cloud Native / Fullstack (Node.js / React) H/F

Inventiv IT
Publiée le
API
AWS Cloud
CI/CD

6 mois
480-600 €
Île-de-France, France
🔹 Conception & Delivery Concevoir, développer et exploiter des solutions logicielles performantes Garantir la scalabilité, la maintenabilité et la fiabilité des systèmes Contribuer aux choix d’architecture et à la vision technique globale 🔹 Exécution & Ownership Traduire les besoins métiers en solutions techniques concrètes Collaborer étroitement avec Product Managers et Data Engineers Porter les décisions techniques et assurer leur mise en œuvre Contribuer aux sujets transverses améliorant la performance collective 🔹 Excellence Technique Développer et maintenir des applications modernes cloud-native Appliquer des standards élevés en engineering, tests et documentation Promouvoir les bonnes pratiques (clean code, CI/CD, code review) 🔹 Collaboration Participer activement aux revues de code Contribuer au mentorat et au partage de connaissances Communiquer efficacement avec des interlocuteurs techniques et non techniques Stack Technique Backend : JavaScript / TypeScript (Node.js) Frontend : React (ou framework équivalent) Architecture : Microservices, design d’API Cloud : AWS, GCP ou Azure DevOps : CI/CD, principes DevOps modernes Infrastructure as Code : Terraform, AWS CDK ou équivalent Sécurité : bonnes pratiques sécurité cloud
Freelance

Mission freelance
Proxy Product Manager

QUALIS ESN
Publiée le
ServiceNow

6 mois
400-410 €
Aubervilliers, Île-de-France
Dans le cadre du développement et du déploiement mondial d'une solution digitale portée par une Business Unit nous recherchons un(e) Proxy Product Manager. Notre solution, FACTOR, est un produit opérationnel majeur composé d'une application mobile (Factor Mobile) et d'une interface web (Factor Web). La solution est déployée à grande échelle : plus de 3000 utilisateurs répartis sur 550 sites Veolia à travers le monde. Vous serez le point de contact privilégié entre les besoins métiers internationaux (Key Users, Business Units) et leur implémentation. Vous travaillerez en contact fréquent avec le Product Owner de la BU Veolia qui développe le produit, et vous assurerez également l'évolution du produit en lien avec son écosystème d'applications connectées (notamment les connecteurs avec GMAO et outils métier). Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : 1. Stratégie, Cadrage et Backlog (BUILD) Collecter les demandes d'évolution des utilisateurs clés à travers le monde. Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello . Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). 2. Pilotage de la Valeur et Satisfaction Client • Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. • Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. 3. Animation des Rituels Agiles et Communication Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet . Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. 4. Support, Cybersécurité et Documentation (RUN) Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. S'assurer de la conformité du produit et des règles de cybersécurité Veolia (suivi du plan d'action et remédiations suite aux Pentests). Participer à la rédaction et au maintien de la documentation technique et utilisateur. Help the Product Sales & communication manager on the creation of communication materials Update the release notes regularly 5. Traning support & dashboarding Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : apprenti UX/UI Data Engineer / Analyst Product Sales and Communication Manager Product Owner Developeurs experts métiers key users partour dans le monde divers services transverse à Veolia : cybersecurité, Service management, équipe data, communication, La mission se déroulera a Aubervilliers. Une présence regulière sur site est requise bien que des jours de télétravail soient possibles. Compétences demandées
Freelance
CDI

Offre d'emploi
Data Analyst Microsoft H/F

OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric

1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
Freelance

Mission freelance
POT8981 - Un Proxy Product Manager sur Aubervilliers

Almatek
Publiée le
Méthode Agile

6 mois
Aubervilliers, Île-de-France
Almatek recherche pour l'un de ses clients, un Proxy Product Manager sur Aubervilliers. Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : 1. Stratégie, Cadrage et Backlog (BUILD) • Collecter les demandes d'évolution des utilisateurs clés à travers le monde. • Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. • Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. • Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello. • Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). 2. Pilotage de la Valeur et Satisfaction Client • Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. • Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. 3. Animation des Rituels Agiles et Communication • Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet. • Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. • Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. 4. Support, Cybersécurité et Documentation (RUN) • Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. • S'assurer de la conformité du produit et des règles de cybersécurité Veolia (suivi du plan d'action et remédiations suite aux Pentests). • Participer à la rédaction et au maintien de la documentation technique et utilisateur. • Help the Product Sales & communication manager on the creation of communication materials Update the release notes regularly 5. Traning support & dashboarding • Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. • Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : • apprenti UX/UI • Data Engineer / Analyst • Product Sales and Communication Manager • Product Owner • Developeurs • experts métiers • key users partour dans le monde • divers services transverse à Veolia : cybersecurité, Service management, équipe data, communication,
Freelance

Mission freelance
247066/Expert DBT

WorldWide People
Publiée le
DBT

3 mois
Vélizy-Villacoublay, Île-de-France
Expert DBT Dans le cadre de notre initiative de modernisation et de standardisation de nos processus de transformation des données au sein du groupe, nous recherchons un Data Engineer expérimenté spécialisé dans la dbt (data build tool). L'ingénierie des données soutiendra la mise en œuvre d'une plateforme DBT, garantissant les meilleures pratiques et permettant des pipelines de données robustes et évolutifs. Anglais fluent Objectifs et livrables Actions : Proposer les meilleures pratiques et directives pour l'outil de gestion des données DBT, du développement au déploiement : définition et mise en œuvre des normes avec le responsable technique ELT Soutien lors de la mise en œuvre du projet : qualification et transformation Prise en charge de l'optimisation et de la configuration des outils de gestion des données Dbt (support technique) Co-définir l'architecture, la stratégie et le modèle ELT, en collaboration avec des experts techniques de l'entité. Capture du besoin : définir la faisabilité technique et la charge de travail associée Conception des connecteurs/emplois avec le chef de technologie DBT Développement des emplois DBT, déploiement, tests d'acceptation et rédaction de documentation Audit d'emploi Préparer et animer une session de formation / transfert de connaissances Participer à la stratégie et à la gouvernance d'intégration des données Définir les prérequis techniques et les modèles Étudier l'analyse des lacunes pour les cas d'utilisation de la migration (de la solution existante vers la Dbt) Participer au pilote Inner Source avec l'entité du groupe Rédaction de spécifications techniques Participer à la communication : présentation, communauté WW ELT Fournir les meilleures pratiques pour maintenir le système en conditions opérationnelles optimales. Co-définir la définition de la stratégie de kogging et la gestion d'événements Compétences demandées Compétences Niveau de compétence DBT Confirmé Data build tool Confirmé
Freelance

Mission freelance
Architecte Azure Sophia Antipolis

WorldWide People
Publiée le
Azure

6 mois
400-450 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Architecte Azure Sophia Antipolis Définir les architectures cibles (IaaS, PaaS, serverless) et les référentiels (landing zones, reference architectures). Concevoir et valider les solutions de stockage Azure : Blob Storage, ADLS Gen2, Files, Disks, tiers de stockage, réplications et stratégies lifecycle. Piloter les migrations cloud (assessment, stratégie migration, cutover, plan de rollback). Mettre en place et promouvoir l’Infrastructure as Code (ARM, Bicep, Terraform) et les pipelines CI/CD (Azure DevOps, GitHub Actions). Architecturer et opérer des environnements containerisés (AKS), registries (ACR) et orchestration de microservices. Garantir la sécurité, la conformité et la gouvernance : Azure AD, RBAC, Key Vault, chiffrement, Azure Policy, Blueprints, gestion des secrets. Implémenter l’observabilité : Azure Monitor, Log Analytics, Application Insights, alerting et runbooks. Optimiser les coûts cloud (finops) : sizing, autoscaling, réservations, storage tiers, reporting coûts. Accompagner et coacher les équipes DevOps, ingénierie et data sur bonnes pratiques Azure et transferts de compétences. Collaborer avec sécurité, réseau (ExpressRoute, VPN), DBA, data engineers et support pour les dépendances infra. Rédiger des architectures, décisions techniques (ADR), modèles de sécurité et guides d’exploitation.
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Freelance
CDI

Offre d'emploi
Proxy Product Manager

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Île-de-France, France
Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : Stratégie, Cadrage et Backlog (BUILD) Collecter les demandes d'évolution des utilisateurs clés à travers le monde. Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello . Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). Pilotage de la Valeur et Satisfaction Client Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. Animation des Rituels Agiles et Communication Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet . Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. Support, Cybersécurité et Documentation (RUN) Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. S'assurer de la conformité du produit et des règles de cybersécurité (suivi du plan d'action et remédiations suite aux Pentests). Participer à la rédaction et au maintien de la documentation technique et utilisateur. Help the Product Sales & communication manager on the creation of communication materials. Update the release notes regularly. Training support & dashboarding Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst. Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : apprenti UX/UI Data Engineer / Analyst Product Sales and Communication Manager Product Owner Développeurs experts métiers key users partout dans le monde divers services transverses : cybersécurité, Service management, équipe data, communication. Compétences demandées CompétencesNiveau de compétence Understanding of user needs and behaviorsExpertSkill in prioritizing product backlog itemsExpertAbility to define and communicate a clear product visionExpertNegotiation and conflict resolution abilitiesAvancéFlexibility to adjust to changing market conditions and requirementsConfirméExperience in product positioning and messagingConfirméCustomer-centric approach with a focus on satisfaction and relationship buildingConfirméKnowledge of business metrics and PIsExpertUnderstanding of product lifecycle managementExpertExcellent communication and presentation skills, both verbal and writtenExpertAgile and Scrum KnowledgeExpertStrong communication skills to interact with various stakeholdersConfirméExperience on mobile development contextConfirméStrategic thinking to align product goals with business objectivesConfirméAbility to make tough decisions based on value and ROIExpertAbility to translate user requirements into product featuresExpertFluent level of English (reading, writing, speaking and understanding various local accents all over the world)ExpertEnglishExpertBasic understanding of technical concepts and limitationsConfirméAbility to translate technical features into business benefitsConfirmé
Freelance

Mission freelance
Data Product Manager

DEVIK CONSULTING
Publiée le
Analyse
Data visualisation
ERP

1 an
500-750 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Data Product Manager afin de piloter le projet migration client sur le volet Data & Visualisation L’objectif étant de construire un nouveau modèle de BDD et reporting basé sur S/4HANA ainsi que d’évaluer les impacte sur les systèmes legacy. Tâches principales Organiser l’étude et collecter les éléments auprès de l’ensemble des parties prenantes Comprendre les ambitions, enjeux et objectifs métiers Organiser et animer des ateliers avec les équipes métiers Collecter l’ensemble des besoins métiers nécessaires à l’étude Documenter l’architecture fonctionnelle Réaliser la modélisation des données / concevoir les couches métiers (Silver layer) Coordonner les contributeurs Data as a Service (Architecte technique, Data Engineers, BI Engineers) Documenter la valeur de la solution Préparer le budget et le planning build/run Formaliser les propositions finales de passage en projet (« Go to project ») Compétences demandées Analyse de données : Expert ERP : Expert Data Modeling : Expert Power BI : Confirmé SAP : Expert Communication : Expert SQL : Expert Data : Expert Langues Français : Courant Anglais : Courant Requis Lieu : Paris
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Freelance

Mission freelance
Architect MS Fabric

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Microsoft Fabric

12 mois
France
Architec t MS Fabric (Framework & Responsable d’équipe) Le rôle Vous rejoindrez notre équipe projet en tant que Lead Expert MS Fabric pour un client international majeur. Votre mission sera de concevoir et de livrer un framework d’ingestion et de transformation scalable, de niveau production , qui constituera la colonne vertébrale de leur plateforme data globale. Responsabilités principales Responsabilité du framework : Concevoir et développer un framework personnalisé et piloté par les métadonnées en utilisant Python (PySpark) et MS Fabric (Notebooks, Pipelines, Lakehouses). Delivery de bout en bout : Assumer l’entière responsabilité des livrables du projet, incluant un code de haute qualité, une documentation d’architecture technique complète et la livraison finale du framework. Leadership d’équipe : Manager et encadrer une équipe de data engineers juniors, en garantissant la qualité du code via des revues rigoureuses et un accompagnement technique. Interaction client : Agir en tant que point de contact technique au sein de l’équipe de delivery, en veillant à ce que la solution soit alignée avec l’échelle internationale du client et les standards de sécurité Azure.
Freelance

Mission freelance
DevOps Engineer Senior

Aneo
Publiée le
AWS Cloud
Kubernetes
Python

7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance

Mission freelance
Chef de projet finance de marché

JobiStart
Publiée le
Agile Scrum
Analyse financière

2 ans
400-670 €
Île-de-France, France
Tâches principales : Piloter des projets IT complexes en mode Agile (Scrum / SAFe) et Waterfall hybride , de la phase de cadrage jusqu'à la mise en production et le go-live Définir et suivre le plan projet : périmètre, budget, planning, ressources, jalons et livrables Animer les comités de pilotage (Steerco) , les réunions de suivi et les ateliers de conception avec les équipes métiers et techniques Gérer le RAID Log (Risks, Assumptions, Issues, Dependencies) et mettre en place des plans de mitigation adaptés Coordonner les équipes pluridisciplinaires : Développeurs, Architectes Solution, Data Engineers, QA / UAT, DevOps Assurer le suivi budgétaire et la gestion des ressources internes et prestataires externes (TJM, staffing, montée en compétence) Contribuer aux projets de transformation réglementaire (FRTB, EMIR Refit, Bâle IV, DORA) en lien avec les équipes Compliance et Risk Rédiger les Business Requirements Documents (BRD) , les Functional Specifications et les livrables de gouvernance projet Piloter les phases de recette (SIT / UAT) , de gestion du changement ( Change Management ) et de déploiement en production Assurer un reporting régulier auprès des sponsors et du middle management via des tableaux de bord ( PowerBI, Confluence, JIRA )
Freelance

Mission freelance
Directeur de projet IT Fonctionnel

Deodis
Publiée le
Agile Scrum
Dataiku

1 an
550 €
Île-de-France, France
Rattaché au Responsable du Département IT Data au sein de la DSI, le Chef de Projet IT intervient sur la mise en œuvre des use cases data sur la plateforme cible, composée de : • Une plateforme d’intégration (ingestion, DataHub, pipelines xDI), • Une plateforme de stockage et transformation (modélisation, data processing), • Une plateforme de mise à disposition des Data Products (API, datamarts, données raffinées), • Des outils de data visualisation, • Des solutions Machine Learning / Data Science, notamment Dataiku. Il contribue au pilotage global de la roadmap data, en cohérence avec l’organisation cible et les pratiques projet de la DSI. Le département IT Data est organisé en squad représentant chaque composante de la plateforme data. 1. Pilotage de projets Data • Planifier, organiser et piloter des projets data (à titre d’exemple ces projets pourront être : Implémentation de use cases data de la conception à la mise en production, Migration technique, Rationalisation des usages de la datavisualisation). • Coordonner l’ensemble des parties prenantes: BA métier / data, Data Engineers, Tech Leads, iOPS, Testing, Data Office. • Assurer le suivi des charges, coûts, délais, risques et dépendances. • Garantir la qualité des livrables data (mapping, modèles, pipelines, dashboards, modèles ML). 2. Supporter la gouvernance de la roadmap Data • Préparer les comités de pilotage de la roadmap Data en support du responsable du département IT Data. A ce titre, consolider l’avancement de l’ensemble des chantiers de la roadmap data (incluant KPIs, pilotage des plannings, des risques et des dépendances) au près des responsables de chantiers. • Préparer les points de synchronisation hebdo sur l’ensemble des chantiers de la roadmap data (identification des interdépendances entre squads, status d’avancement). • Maintien du master plan (vue macro du planning de l’ensemble des squads). • Participer aux instances de la DSI en relation avec les projets data sous pilotage : instances CIM/CVSIT, points hebdos, Design Authority, ... Compétences requises Techniques • Très bonne compréhension des architectures data modernes : ingestion, transformation, data modeling, API, datamarts. • Bonne compréhension des outils de machine learning type Dataiku (projets ML, orchestrations, data prep). • Bon niveau sur les outils de data visualisation. • Maitrise des différents rôles autour d’une organisation data (ML Ops, Data Eng..) Méthodologiques et fonctionnelles • Pilotage de projets IT (Agile / hybride / Cycle en V selon les périmètres). • Capacité à travailler avec des domaines métiers variés et des organisations matricielles. Comportementales • Leadership transversal, communication claire, capacité d’arbitrage. • Sens de la collaboration : lien étroit avec BA, Data Office, Architecture • Rigueur, autonomie, gestion du stress et des priorités. Livrables attendus • Plan projets, backlog, planning, budgets. • Comptes-rendus comités, KPI et tableaux de bord de suivi.
CDI

Offre d'emploi
Responsable Data Platform

Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance

55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
273 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous