L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 285 résultats.
Mission freelance
Senior DataOps / DevOps AWS – Terraform
OAWJ CONSULTING
Publiée le
AWS Cloud
Databricks
Terraform
1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans un environnement Media à forte volumétrie de données, le consultant interviendra au sein d’une équipe Data & Platform pour industrialiser, sécuriser et faire évoluer les plateformes data sur AWS . Le rôle est clairement senior , orienté DataOps / DevOps , avec une forte proximité Databricks. Responsabilités Conception et industrialisation des plateformes data sur AWS Mise en place et maintenance de l’infrastructure as code avec Terraform Déploiement, configuration et optimisation des environnements Databricks (AWS) Automatisation des pipelines Data & infra (CI/CD) Gestion des environnements (dev, preprod, prod) Sécurisation des accès, gestion des coûts et optimisation des performances Collaboration étroite avec les équipes Data Engineers et Analytics Compétences requises (impératives) Databricks sur AWS – expertise confirmée Terraform – niveau avancé AWS (IAM, VPC, S3, EC2, EKS ou équivalent) Solide culture DevOps / DataOps CI/CD (Git, pipelines automatisés) Bonne compréhension des architectures data cloud Profil recherché Senior DataOps / DevOps Autonome, structuré, orienté production À l’aise dans des environnements data complexes et critiques
Mission freelance
consultant power BI H/F
Insitoo Freelances
Publiée le
Microsoft Power BI
2 ans
400-450 €
Île-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un consultant power BI H/F à Île-de-France, France. Contexte : Le client souhaite accélérer la création de valeur liée à la Business Intelligence et à l’analyse avancée via la mise en place d’un DataLab au sein du Data Office. Ce DataLab a pour mission : de soutenir les métiers dans leurs projets data, d’incuber et accélérer les solutions jusqu’au produit final, de diffuser les pratiques et la culture Data (BI, data science, data analytics, data management). Objectifs de la mission Mission : Traduction des enjeux métiers (Achats, Planification) en outils de pilotage décisionnels Expertise : Maîtrise avancée Power BI (et DAX) et connaissance des flux de données industriels/ERP/CRM Soft Skills : Forte sensibilité métier. Capacité à challenger les demandes opérationnelles pour garantir la pertinence des dashboards Autonomie : Gestion complète du cycle de vie de la donnée (du recueil de besoin à la mise en production) La mission couvre un ensemble d’activités d’expertise Power BI et Data Analytics : Collecter, structurer et analyser des données provenant de sources variées. Garantir la qualité, cohérence et fiabilité des données. Concevoir et optimiser des tableaux de bord interactifs Power BI. Diffuser les bonnes pratiques d’optimisation au sein de l’équipe du DataLab. Définir et promouvoir des pratiques UX pour améliorer la lisibilité et l’efficacité des dashboards. Travailler en proximité avec les équipes métiers, IS/IT, et Data Engineers pour comprendre les besoins et proposer les solutions adéquates. Contribuer à l’amélioration continue des processus de Data Management au sein de LAS.
Mission freelance
DataOps Engineer
AGH CONSULTING
Publiée le
CI/CD
DBT
ETL (Extract-transform-load)
6 mois
300-420 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Ingénieur DataOps afin d'apporter une expertise technique sur la mise en place et l'évolution de la stack data. A cet titre, vos principales missions seront les suivantes : - Faire évoluer les process, outils, codes et plateformes permettant de répondre aux mieux aux besoins - Proposer des architectures DATA en mettant en œuvre les principes de l’Agilité, d'intégration et de déploiement continu, en anticipant les besoin de scalabilité, - Contribuer à la réduction des coûts dans une démarche FinOps, - Former les data engineers aux outils de notre stack data, - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data, - Encadrer l’industrialisation du déploiement des applications en utilisant les bonnes pratiques de la CI/CD
Mission freelance
INGENIEUR MLOps
HAYS France
Publiée le
Ansible
Apache Airflow
Cloud
3 ans
Lille, Hauts-de-France
Objectif de la mission Mettre en place et maintenir une chaîne d’intégration et de déploiement des modèles de Machine Learning en production, garantissant robustesse, scalabilité et monitoring. Contexte Vous interviendrez au sein d’une équipe Data & IA pour industrialiser des modèles ML liés à la qualité, la classification et l’enrichissement des données produits. Collaboration étroite avec Data Scientists et Data Engineers pour transformer des prototypes en solutions fiables. Responsabilités Conception & Déploiement Développer et maintenir des pipelines MLOps automatisés (CI/CD). Mettre en place l’infrastructure cloud via IaC. Assurer le versioning des modèles, données et pipelines (ZenML, MLflow). Monitoring & Maintenance Implémenter l’observabilité (drift, latence, qualité prédictions). Configurer alertes pour anomalies et dégradations. Optimiser les ressources de calcul. Collaboration & Qualité Accompagner les Data Scientists sur les bonnes pratiques MLOps. Intégrer des Data Quality Gates dans les pipelines. Contribuer à l’architecture Data Mesh (modèles = Data Products).
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Full Stack C#/React Developer
Phaidon London- Glocomms
Publiée le
.NET
.NET Framework
C#
6 mois
600-700 €
Paris, France
Intitulé du poste : Développeur Full Stack C# / React Localisation : Paris, France (Hybrid) Type de contrat : Mission de 6 mois Contexte Nous recherchons un Développeur Full‑Stack C# / React pour concevoir et développer, à partir de zéro, une nouvelle génération d’outils ainsi qu’un portail web permettant aux équipes Sales et Structuration de tarifer, commercialiser et suivre en continu (24/7) les offres énergétiques. Ces offres garantissent une correspondance horaire entre production renouvelable et consommation, une étape clé vers une véritable décarbonation. Vous jouerez un rôle central dans la création d’une plateforme cloud‑native, sécurisée, évolutive, destinée à devenir un élément stratégique pour l’organisation. Responsabilités : Concevoir et développer des applications full‑stack en C#/.NET Core et React Créer un portail web robuste permettant la tarification, l’établissement de devis et le suivi des offres décarbonées 24/7 Développer des API sécurisées et structurées pour les équipes internes et les partenaires externes (TPIs) Mettre en œuvre des flux de données en temps réel ou quasi temps réel pour l’appariement horaire énergie‑production Traduire les besoins métiers en solutions techniques évolutives et maintenables Construire des composants cloud‑native en utilisant les services Microsoft Azure (App Services, AKS, Azure SQL, Storage, Key Vault, Monitor) Concevoir et maintenir des pipelines CI/CD selon les meilleures pratiques Collaborer avec les architectes, data engineers et autres développeurs au sein de l’équipe IS Sales & Customers Documenter les solutions et contribuer au partage des connaissances Faire preuve d’autonomie, de proactivité et d’efficacité dans un environnement dynamique Compétences techniques requises : Expertise en développement backend C#/.NET Core Maîtrise de React avec les outils frontend modernes (TypeScript, Hooks, gestion d’état) Développement cloud‑native sur Azure, notamment : App Services ou Kubernetes (AKS) Azure SQL & Storage Key Vault Monitor / Application Insights Conception d’API (REST, GraphQL apprécié) Connaissance des architectures sécurisées et de la gestion des identités (OAuth2, Azure AD, MSAL) Solide expérience dans la construction de pipelines CI/CD (Azure DevOps ou GitHub Actions) Veuillez postuler directement ou me contacter à l’adresse suivante :
Mission freelance
DataOps Engineer expert Snowflake(H/F)
Freelance.com
Publiée le
Snowflake
3 mois
400-420 €
Bordeaux, Nouvelle-Aquitaine
Intégré(e) à la direction IT DATA , au sein d’une équipe Data Tech, vous interviendrez sur la mise en place et l’évolution de la stack data , avec une forte dimension DataOps & industrialisation .🔧 Vos responsabilités Concevoir des architectures DATA scalables (Agilité, CI/CD, intégration continue) Participer à l’optimisation des coûts (FinOps) Former les Data Engineers aux outils de la stack data Mettre à disposition des outils d’aide au développement et de monitoring Assurer une veille technologique autour des architectures data Encadrer l’ industrialisation des déploiements applicatifs (bonnes pratiques CI/CD) 🛠 Compétences techniques requises Snowflake : Expert (> 5 ans) Python : Confirmé (2–5 ans) CI/CD : Confirmé (2–5 ans) DataOps : Confirmé (2–5 ans) ETL : Talend / DBT – Confirmé (2–5 ans) ⭐ Points clés Environnement data mature Enjeux de performance & industrialisation 📌 Pour chaque candidature technique, merci d’inclure impérativement : CV du consultant Tests de sélection / mise à jour du niveau de compétences / prise de référence Première grille de compétences en auto-évaluation (PJ)
Offre d'emploi
Business Analyst Banque SQL SSIS
CELAD
Publiée le
Analyse
12 mois
40k-59k €
400-550 €
Paris, France
POSTE de BA au sein du pôle HUB de l’équipe Data&Reporting Mission Mission située au niveau de l'équipe DSI au niveau de l’équipe Data et Reporting au sein de la cellule HUB. La mission consistera à être Business Analyst sur la plateforme Data du SI. · Analyse des besoins : Comprendre les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires pour des projets liés aux données. · Cadrage de projet : Travailler avec des équipes techniques de la DSI (architectes, data engineers, MOA/MOE des autres applications), autres DSI du groupe, et non techniques (direction financière, conformité, direction des risques, direction commerciale) afin de cadrer un projet (solution, chiffrage, planning, …) · Pilotage de projet : définir et suivre les engagements / assurer le reporting et le dialogue avec les interlocuteurs métiers Analyse des demandes du métier : Sur la base d’une expression de besoins ou de spécifications fonctionnelles générales, réalisation de l’analyse, en lien avec les développeurs, puis établissement des chiffrages et du planning de mise en œuvre des évolutions. Spécifications fonctionnelles : A partir des expressions de besoins, rédaction des spécifications fonctionnelles détaillées à destination des équipes de développement. Préparation et réalisation des recettes : Rédaction des cahiers de recettes et validation du bon fonctionnement technico-fonctionnels des applications. Assistance et support : Assurer l’assistance auprès des utilisateurs, analyser les dysfonctionnements et proposer des solutions correctives/palliatives chiffrées.
Mission freelance
PRODUCT OWNER DATA SUPPLY
Signe +
Publiée le
Snowflake
12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Mission freelance
DATA ENGINEER-EXPERT DATAIKU - FINANCE (H/F) 75
Mindquest
Publiée le
Apache Spark
Dataiku
PySpark
6 mois
Paris, France
Profil souhaité: DATA ENGINEER (Minimum 5 ans d'Xp) avec grosse expérience Dataiku (au moins 4 ans), Ayant déjà travaillé sur des projet Finance et/ou en environnement Finance. (Forecast/Revenue/Topline/CA/Prévision/Prédiction/Ventes) Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Mission freelance
Product Manager Data (H/F)
Atlas Connect
Publiée le
Product management
12 mois
France
Nous recherchons des Product Managers Data pour piloter des produits et plateformes data à fort impact business. En lien étroit avec les équipes Data, Tech, Métiers et BI , vous serez responsable de la vision produit, de la priorisation des besoins et de la livraison de solutions data créatrices de valeur. Vos missions pourront inclure : Définition de la vision produit Data et de la roadmap associée Recueil et formalisation des besoins métiers liés à la data Priorisation du backlog (use cases data, features, dette technique) Collaboration étroite avec les équipes Data Engineers, Analytics, Data Science Suivi de la delivery et mesure de la valeur business générée Mise en place de KPIs , data products et indicateurs de performance Contribution à la gouvernance data et aux bonnes pratiques produit
Mission freelance
Data Ingénieur
STHREE SAS pour HUXLEY
Publiée le
18 mois
500 €
France
Le rôle du Data Engineer dans ce projet consistera à : * Concevoir et implémenter les composants/pipelines d'ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) * Traiter et normaliser les données * Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) * Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud * Distribuer les données aux différents consommateurs/Métiers * Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog * Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) * Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … * Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données * Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. * Être force de proposition pour améliorer les processus et les performances des systèmes.
Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance
Gentis Recruitment SAS
Publiée le
Architecture
BigQuery
Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Mission freelance
Data Product Manager en Data Lab - Rennes
Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
Développeur Back End Azure H/F
LeHibou
Publiée le
.NET
AngularJS
Azure
9 mois
500-550 €
Saint-Ouen-sur-Seine, Île-de-France
Notre client dans le secteur Luxe recherche un/une Développeur Back End AzureH/F Description de la mission: Leader mondial de la beauté, cette entreprise française incarne l'excellence et l'innovation dans l'industrie cosmétique. Forte d’un portefeuille de marques iconiques, elle sublime la beauté sous toutes ses formes à travers des soins de la peau, du maquillage, des parfums et des produits capillaires. Présente dans plus de 150 pays, elle allie science et créativité pour offrir des produits d’exception adaptés à tous. Description: ARCHITECTURE • Faire évoluer et maintenir l’architecture de la plateforme CBP Azure dans un souci de rationalisation et de performance • Faire évoluer et maintenir la gestion des APIs • Aide sur la mise en place un monitoring de la plateforme sur les aspects sécurité, coût, fiabilité, excellence opérationnelle et performance • Concevoir avec l’aide d’un Data Engineer un modèle de données Core segmenté par catégorie de produits (cheveux, peau, maquillage, parfum) • Assurer une veille technologique sur l’ensemble des composants de la plateforme et ceux non utilisés qui pourraient améliorer la plateforme • S’assurer du déploiement continu des ressources via Azure DevOps COLLABORATION • Maintenir une collaboration forte avec les autres membres de l’équipe (Dev Front End, Data, Architecture, Sécurité et Infrastructure) et les équipes métiers • Maintenir une collaboration avec les équipes des services tierces en France et à l’international DEVELOPPEMENT • Assurer des développements en .NET Core pour la spécialisation de certains services fournis par la plateforme • Être garant de la qualité des services fournis par la plateforme et de leur robustesse DOCUMENTATION • Documenter l’ensemble des implémentations de la plateforme en Anglais MODALITES • Présence sur site au moins 3 jours par semaine, 2 jours de télétravail • Contrat potentiellement renouvelable sur une durée maximum de 3 ans si prestation de qualité Expertise Obligatoires • Au moins 5 ans d'expertise dans un environnement Microsoft Azure PaaS • App Services, LogicApps, Azure functions, ServiceBus • VNet/Subnet, VNET integration, Azure Bastion • KeyVault, SQL, CosmosDB, Azure Storage • Azure AD, App registration, Managed identities • Développement .NET Core • Anglais fluent Optionnel • Expertise simple d'Azure DevOps et des principes de CI/CD • Expertise simple en administration Apigee Bonus • Connaissance en développement front-end web (Angular) • Connaissance en gestion événementielle (EventHub) • Connaissance en observabilité (New Relic) Compétences / Qualités indispensables : .Net, C#, CosmosDB, Microsoft Active Directory and Azure Active Directory, Microsoft Azure DevOps, Microsoft Azure PaaS, NoSQL, Postman, SQL, Angular.js, GEN AI, GITHUB, Google Artificial Intelligence, • Au moins 5 ans d'expertise dans un environnement Microsoft Azure PaaS, Anglais fluent écrit & oral obligatoire Compétences / Qualités qui seraient un + : Optionnel • Expertise simple d'Azure DevOps et des principes de CI/CD • Expertise simple en administration Apigee Bonus • Connaissance en développement front-end web (Angular) • Connaissance en gestion événementielle (EventHub) • Connaissance en observabilité (New Relic) Connaissance au sujet des outils de diagnostics peau/cheveux ect Informations concernant le télétravail : 2 jours de TT
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
285 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois