L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 174 résultats.
Mission freelance
Architecte DATA- Data Architecture
Publiée le
DBT
Python
Terraform
18 mois
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : la Direction Technique a besoin d’être accompagnée sur une prestation d’Architecture Data pour l’ensemble de la Data Platform et des dispositifs associés. MISSIONS Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l’accompagnement des équipes dans les domaines suivants : · Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation Expertises demandées pour la réalisation de la prestation : · Au moins 3 ans d’expérience en tant qu’Architecte Data dans un environnement data · Compétences solides en data : structures de données, code, architecture · Expériences approfondies des meilleures pratiques des architectures en général et data en particulier · Expérience dans la sécurisation d’application dans le Cloud · Expériences dans un environnement du cloud Google (GCP) · Expériences intégrant BigQuery, Cloud Composer (Airflow) et Dataplex Universal Catalog · Expériences intégrant les langages Python et SQL · Expériences intégrant Spark · Expériences intégrant dbt · Expériences intégrant Terraform et Terragrunt
Offre d'emploi
skiils | DevOps Kubernetes/GCP - Full remote (Maghreb)
Publiée le
Google Cloud Platform (GCP)
Kubernetes
3 ans
10k-26k €
100-280 €
Safi, Maroc
Télétravail 100%
Nous recherchons un DevOps Senior (H/F) d’un grand acteur international du retail. 🎯 L’objectif ? Contribuer à la construction, la fiabilité et l’industrialisation de la plateforme Data du groupe, en apportant ton expertise sur les environnements Kubernetes et Google Cloud Platform (GCP) . Tu évolueras dans un environnement technique exigeant et collaboratif, au cœur de la transformation data-driven de l’entreprise. 🚀 Tes missions principales : Participer à la construction et l’évolution de la plateforme Data sur GCP Mettre en place et maintenir les pipelines d’intégration et de déploiement continu (CI/CD) Assurer la stabilité, la sécurité et la performance de l’infrastructure Kubernetes Gérer les déploiements d’applications et services dans le cloud Automatiser les processus et améliorer la scalabilité de la plateforme Collaborer avec les équipes Data, Cloud et Sécurité pour garantir la cohérence globale des environnements Surveiller, diagnostiquer et résoudre les incidents liés à l’infrastructure Être force de proposition pour l’amélioration continue des outils et des pratiques DevOps 🔧 Environnement technique : Cloud & Infrastructure : Google Cloud Platform (GCP), Kubernetes (GKE) Outils CI/CD : GitLab CI, Jenkins, Terraform, Helm Monitoring & Logging : Prometheus, Grafana, Stackdriver Langages / Scripting : Bash, Python, YAML Messaging / Streaming : Kafka (atout apprécié, non obligatoire) Méthodologie : Agile / Scrum
Mission freelance
Développeur SQL (F/H)
Publiée le
BigQuery
Google Cloud Platform (GCP)
Oracle SQL Developer
6 mois
Lille, Hauts-de-France
Télétravail partiel
Objectif global de la mission : : Construire des rapports / monitorings sur le produit Tour de Contrôle Contrainte forte du projet Connaissances GCP, SQL nécessaire, équipe restreinte, connaissances technico-fonctionnelles à appréhender Le livrable est Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Anglais Lu, écrit (Secondaire)
Offre d'emploi
Staff Engineer IA / IA Générative
Publiée le
AWS Cloud
Docker
Git
6 mois
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de l’accélération de sa stratégie autour de l’Intelligence Artificielle et de l’IA Générative, un groupe industriel international de premier plan recherche un(e) Staff Engineer pour renforcer son équipe AI Activation . Vous interviendrez en tant que référent technique transverse sur plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…), avec un double enjeu : accompagner les projets de bout en bout (de la conception à la mise en production), et contribuer à la définition d’un cadre technique commun garantissant cohérence, sécurité, performance et scalabilité des solutions IA du groupe. Vous serez le garant des bonnes pratiques d’ingénierie et de la qualité globale de l’écosystème technique IA. Objectifs et Livrables : Accompagner et encadrer techniquement plusieurs projets IA / GenAI (design, implémentation, mise en production). Définir, formaliser et promouvoir les bonnes pratiques techniques : MLOps, LLMOps, DevSecOps, architectures cloud. Concevoir des architectures de référence pour les solutions IA, robustes, sécurisées, scalables et maintenables. Industrialiser les usages IA : mise en place de pipelines, intégration dans les chaînes CI/CD, automatisation et monitoring des workloads. Assurer la cohérence technique entre les différents projets IA / GenAI portés par le groupe. Contribuer à la construction et à l’évolution du socle commun “AI Platform” sur lequel s’appuient les équipes projet. Encadrer, coacher et faire monter en compétence les ingénieurs data, ML et software (revues de code, pair design, partage de bonnes pratiques). Assurer une veille technologique active sur les briques IA / GenAI (LLM, RAG, orchestrateurs, vector DB, frameworks, etc.) et proposer leur intégration quand pertinent.
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Offre d'emploi
Architecte Technique Applicatif
Publiée le
Application web
Architecture
AWS Cloud
2 ans
40k-83k €
400-720 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un architecte technique : Les qualités requises sur cette mission sont de plusieurs ordres : - Technico-applicatif : • Les principes d’architecture Cloud native • Les solutions de containerisation (Docker, Kubernetes), et cloud public tel que AWS, GCP et à moindre mesure Azure • Les patterns applicatifs tels que DDD, Architecture Hexagonale, Clean architecture, CQRS, MVC2… • Le modèle d’architecture API/REST, les solutions d’API Manager (WSO2, Kong) et les protocoles de gestion d’identité et accès OpenIdC/OAuth2 • Les pratiques et solutions DevOps et GitOps (Git, GitLab, Operateur Kube…) • Les architectures évènementielles et les solutions technologiques associées (Kafka, Change Data Capture, MQSeries…) • Les Frameworks Web et back-end JavaScript & CSS, Angular, React, Bootstrap, NodeJS, Springboot • Les bases de données SQL (PostgreSQL, mySQL…) et noSQL (MongoDB, Redis…), • La plate-forme Java JEE et son écosystème • Les systèmes d’exploitation et serveur d’application Windows, Linux, Tomcat, Websphere. • Connaissances du Mainframe IBM serait un plus Experience dans le développement des applications bancaires
Mission freelance
Développeur java/GCP
Publiée le
Google Cloud Platform (GCP)
Java
1 an
Lille, Hauts-de-France
Télétravail partiel
Objectif de la mission Contribuer activement au développement de nouvelles features et à l’évolution du socle technique de la plateforme, avec un focus sur les sujets Claim Management. L’objectif est d’améliorer la traçabilité, la qualité de traitement et la satisfaction client à travers des outils performants et fiables. --- Environnement technique - Langage principal : Java 17+ - Framework : Spring Boot / Spring Cloud - Cloud : Google Cloud Platform (GCP) - Cloud Run, Pub/Sub / BigQuery, Cloud Storage - CI/CD : GitHub Actions / GitHub Packages - Tests : JUnit, Playwright (E2E – un plus apprécié) - Observabilité :Datadog / Prometheus - Architecture : microservices / events / API REST - Communication : Kafka - Outils de collaboration : Jira, Confluence, Miro, Google Workspace - Data : Big Query, Power BI --- Responsabilités principales - Concevoir et développer des microservices Java robustes et maintenables. - Participer à la définition des API et contrats d’événements entre services (Kafka / REST). - Implémenter les nouvelles fonctionnalités autour du Claim Management (création, suivi, résolutions, SLA). - Contribuer à l’amélioration continue du code, de la qualité logicielle et des pipelines CI/CD. - Collaborer avec les Product Managers, les Tech Leads et les équipes Front / Ops pour garantir la cohérence fonctionnelle et technique. - Participer aux rituels agiles : sprint planning, revue, rétrospective, refinements. Profil recherché - Expérience confirmée (3 à 7 ans) en développement backend Java dans un contexte de microservices. - Bonne compréhension des architectures cloud-native et des principes de résilience et observabilité. - Capacité à évoluer dans un environnement distribué et collaboratif. - Esprit analytique, rigueur, sens du service et goût pour la qualité du code. Un plus apprécié : expérience sur des systèmes de gestion de tickets, réclamations ou workflow orienté “service client”. --- Durée & localisation - Démarrage : ASAP - Durée : 3 mois renouvelables - Localisation : Lille / Remote partiel possible (hybride)
Mission freelance
Lead Machine leaning engineering
Publiée le
FastAPI
Flask
Gitlab
12 mois
470-510 €
Île-de-France, France
Télétravail partiel
Je recherche un(e) Lead Machine Learning Engineer pour accompagner la Direction Data d’un grand média français dans la mise en place d’une équipe dédiée aux sujets de recommandation et de personnalisation. 👤 Mission Vous interviendrez au cœur d’une équipe Data (PO, Data Scientist, Lead ML, ML Engineer) pour concevoir, déployer et industrialiser des modèles de machine learning en production, dans un environnement full Google Cloud. 💼 Compétences requises : • 5+ années d’expérience en environnement Data / Machine Learning • Déploiement en production de modèles ML (scalabilité, haute perf) • Maîtrise de Google Cloud (Vertex AI, BigQuery, Cloud Run, Composer, CloudSQL, IAM) • Très bonnes compétences en Python et SQL • Connaissances de Flask, FastAPI, SQLAlchemy, Pgvector, Pandas, Hugging Face • Expérience en Terraform / Terragrunt • Très bonnes connaissances en ML, Deep Learning, systèmes de recommandation • Maîtrise de GitLab & GitLab CI/CD • Capacité à vulgariser, communiquer et accompagner une équipe • Expérience des méthodes Agile (Scrum / Kanban) 📍 Modalités : • Présence sur site requise (~50% du temps) • Expérience attendue : Sénior • Environnement : Paris • Matériel sécurisé requis (chiffrement, antivirus, etc.)
Offre d'emploi
DATA ENGINEER
Publiée le
BigQuery
MySQL
Python
6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Nous recherchons un Data Engineer GCP confirmé pour accompagner nos clients dans la mise en place et l’industrialisation de leurs pipelines data au sein d’environnements Cloud exigeants. Missions : Conception et développement de pipelines data dans GCP (Dataflow, Dataproc, Composer). Modélisation et optimisation des tables dans BigQuery. Mise en place de bonnes pratiques CI/CD (Cloud Build, GitLab CI, Terraform…). Industrialisation, monitoring et optimisation des workflows. Collaboration étroite avec les équipes Data, Produit et Architecture. Compétences recherchées : Maîtrise des services GCP Data (BigQuery, Dataflow, Pub/Sub, Composer). Très bonne expertise Python et frameworks ETL. Connaissances des bonnes pratiques DevOps (Docker, Terraform…). Expérience en environnement Data à forte volumétrie. Esprit analytique, autonomie et capacité à travailler en équipe. Profil attendu : 3 à 5 ans d’expérience en Data Engineering. Expérience significative sur GCP obligatoire. Une certification GCP Data Engineer est un plus.
Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - STAND - BY - 1005
Publiée le
10 mois
400-750 €
Guyancourt, Île-de-France
Télétravail partiel
Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Offre d'emploi
Architect solutions (H/F)
Publiée le
Application mobile
Architecture
AWS Cloud
1 an
64k-75k €
590-720 €
Paris, France
Télétravail partiel
ARCHITECTE SOLUTIONS (H/F) 📍 Localisation et Rattachement ● Poste : Architecte Solutions (H/F) ● Localisation : Paris, Île de France ● Rattachement : Digital Factory INVENTIV IT 🚀 Le Rôle : Leader de la Transformation Cloud-Native Au sein de la Digital Factory, vous êtes le garant technique et stratégique de la cohérence, de la performance et de la sécurité des architectures applicatives pour nos grands comptes (projets en mode Forfait et Régie). Ce rôle, à la fois opérationnel et stratégique, exige une expertise de pointe sur l'ensemble de la chaîne de valeur : du Cloud (dominance AWS) et Java/Spring pour le Backend, aux solutions Web (React/NextJS) & Mobile (Flutter) , incluant l'industrialisation DevSecOps et la conception d' API résilientes . Vous agissez avec une forte vision produit pour transformer les usages métier en valeur business concrète. Vous êtes capables de gérer plusieurs projets et squad au sein de Digital Factory/CoreTeam. Vous êtes un profil polyvalent et autonome capable d'intervenir sur le volet technique et stratégique. Vous embarquez et encadrer les équipes techniques ainsi que les métiers et le business. Capacité à comprendre les besoins 🎯 Vos Missions Principales Vous intervenez à la croisée des enjeux métiers et technologiques pour accompagner nos clients dans leurs projets de transformation digitale : I. Conception Architecturale & Stratégie ● Concevoir des architectures évolutives, modernes et hautement performantes (Cloud-native, Serverless, Event-driven, Hexagonal, Microservices, etc.). ● Définir la stratégie d'intégration et de sécurisation des API et des Brokers. ● Assurer l'orientation architecturale et participer activement aux phases de cadrage & stratégie, ainsi qu'au brainstorming technique. ● Sélectionner et valider les solutions techniques adaptées aux enjeux des clients. II. Leadership Technique & Delivery ● Piloter des projets complexes avec des équipes distribuées (offshore/nearshore). ● Garantir l'industrialisation de l'innovation via des usines logicielles DevSecOps, des produits SaaS, RAG, LLM et des plateformes IoT. ● Manager et coacher techniquement les équipes de développement (CoreTeam & Digital Factory). ● Garantir le Delivery, de la production dev jusqu'à la mise en place de l'observabilité/performance. ● Déployer des solutions résilientes, sécurisées (conformité HDS, ISO 27001 ), et alignées sur les meilleures pratiques (CleanCode, TDD, BDD). III. Veille et Expertise ● Être force de proposition et toujours en veille sur l'écosystème tech, l'entrepreneuriat et l'innovation responsable. ● Encadrer plusieurs projets stratégiques auprès de plusieurs clients en tant que Lead Architect. ✨ Quelques Réalisations Attendues Votre expérience se traduira par des réalisations concrètes et impactantes : ● Pilotage d'initiatives stratégiques pour moderniser et sécuriser les infrastructures applicatives. ● Supervision de la conception d'usine logicielle DevSecOps modulaire. ● Pilotage de la mise en place d'une architecture Cloud hautement sécurisée conforme à la norme ISO 27001. ● Migration et modernisation d'applications avec enjeux d’optimisation de Time to Market . ● Création From Scratch d'applications Web & Mobile. 📚 Votre Profil & Compétences Techniques (Le Socle de l'Architecte) Domaine d'Expertise Compétences Techniques Clés (Maîtrise Requise) Architectures Serverless, Event-driven, Data-driven, Hexagonal, Microservices. Backend & Cloud Java / Spring (Dominance Web), NodeJs / JavaScript, Move To Cloud (Dominance AWS) , GCP/Azure. Industrialisation DevSecOps, DevOps & IAC , intégration continue, Sécurité applicative, Brokers. Front-End & Mobile React / NextJS, Mobile ( Flutter ), Angular (TMA). Qualité & Méthodologie Approche BDD, TDD, CleanCode , Test unitaire/intégration/automatisé et end to end, Cycle de vie logiciel. Data & Modélisation Platform Data/IA, Base de données (relationnel et non-relationnel), Modélisation SQL / requêtes. Leadership & Soft Skills Leadership technique, Posture projet / business, Fonctionnel : Confirmé, Anglais : Courant . Autres Performance / observabilité, Build et gestion de version, Développement.
Mission freelance
H/F - Architecte VMware NSX-T
Publiée le
Ansible
Architecture
AWS Cloud
3 mois
550-700 €
Paris, France
Télétravail partiel
Au sein du département Network Product , la ligne de produits Data Center & Cloud est responsable de la gestion des infrastructures réseau de Data Centers et d’environnements Cloud. Cela comprend les routeurs, commutateurs, load balancers, accès Internet, interconnexions de Data Centers, backbone DWDM , ainsi que les environnements réseau Cloud (AWS, Azure, Google Cloud, Intercloud). Les services d’ingénierie associés couvrent la conception, la mise en œuvre et le support des produits et solutions réseau, dans le cadre du programme One Network visant à harmoniser et moderniser les infrastructures. Les principales missions sont : Contribuer à l’évolution à moyen et long terme des produits et à leur amélioration continue. Assurer le conseil, la sélection, la conception, la construction sécurisée et l’intégration des solutions réseau concernées. Faciliter la communication et la coordination entre les équipes fonctionnelles, les partenaires stratégiques et les fournisseurs. Garantir la qualité de service (QoS) dans la livraison et le support des solutions. Fournir une expertise technique de haut niveau sur les produits et services du périmètre.
Offre d'emploi
Développeur Fullstack (java/ Python/ GCP)
Publiée le
CI/CD
Google Cloud Platform (GCP)
Java
3 ans
40k-45k €
460-520 €
Paris, France
Télétravail partiel
Contexte: Dans le cadre du développement des solutions Data & Cloud de l'entreprise, nous recherchons un Développeur confirmé maîtrisant les écosystèmes Python, Java et Google Cloud Platform (GCP) , avec une forte culture CI/CD et des compétences sur les outils d’orchestration de workflows data. Vous rejoindrez une équipe stratégique au sein de la DSI Natixis, orientée innovation, performance et industrialisation des services Cloud. Vos missions: Développer et maintenir des applications backend en Python et/ou Java Concevoir et optimiser des pipelines de données dans GCP (Google Cloud Platform) Implémenter et maintenir des processus d’orchestration via : Composer (Apache Airflow) de préférence ou Google Workflows Exploiter et interroger des données dans BigQuery Gérer le stockage des données sur Cloud Storage Mettre en place et maintenir des pipelines CI/CD via Jenkins Participer à l’industrialisation, à l’automatisation et à la fiabilisation des déploiements Collaborer avec les équipes Data, Cloud et Architecture Compétences techniques requises: Langages : Python – Confirmé à Expert Java – Confirmé Cloud & Data : Google Cloud Platform (GCP) BigQuery, Cloud Storage Orchestration : Composer / Airflow ou Google Workflows DevOps / CI-CD : Jenkins (impératif) Git / GitLab (apprécié) Environnement : Méthodologies Agile / Scrum Bonne capacité de troubleshooting et optimisation performance
Mission freelance
Head of Data
Publiée le
Gouvernance
Management
Pilotage
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Mission freelance
DATA Engineer - AWS(H/F)
Publiée le
AWS Cloud
Azure DevOps
Data Lake
1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Calcul de l'indemnité de la rupture conventionnelle
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
174 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois