L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 738 résultats.
Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Offre d'emploi
DevOps AWS H/F
DAVRICOURT
Publiée le
DevOps
45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur DevOps AWS / InfraOps pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Faire évoluer et maintenir l'infrastructure Data multi-cloud, notamment l'offre compute basée sur AWS EKS ; - Automatiser la chaîne CI/CD, industrialiser les déploiements et éliminer les tâches manuelles ; - Concevoir, développer et maintenir les API internes de la plateforme (Python, microservices) ; - Gérer la sécurité, l'observabilité, le monitoring et le support N3 de l'infrastructure cloud ; - Proposer et animer les bonnes pratiques DevOps au sein de l'équipe InfraOps et accompagner les projets Data. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
Lead Développeur AWS
Groupe Aptenia
Publiée le
Angular
AWS Cloud
DevOps
6 mois
Bordeaux, Nouvelle-Aquitaine
Assurer le leadership technique de l'équipe de développement : Définir les standards de code Animer les revues Aaccompagner la montée en compétences des développeurs Développer et maintenir les composants backend en Python en garantissant la qualité via JUnit, tests d'intégration, Cypress, Playwright et tests E2E Concevoir et développer les interfaces frontend en Angular avec Amazon CloudFront Gérer et interroger les bases de données DynamoDB, RDS et OpenSearch selon les besoins fonctionnels Développer et déployer des applications cloud-native sur AWS (Lambda, SNS, SQS, CloudWatch, CloudFormation) en respectant les contraintes de production Maîtriser la chaîne DevOps complète : Terraform, GitLab, Docker, KICS, WIZ, pipelines CI/CD, versioning et DORA Metrics Utiliser les outils de gestion de projet Confluence et Jira pour le suivi des activités et la documentation Utiliser l'IA pour accélérer la génération, la revue et l'optimisation de code ainsi que les activités de test
Mission freelance
Consultant en modélisation de risques LGD S3 (H/F)
NOVAMINDS
Publiée le
Analyse
8 mois
400-700 €
Paris, France
Objectif de la mission Dans le cadre d’un nouveau programme notre client spécialisé dans le leasing souhaite refondre ses modèles de LGD stage 3 avec étude de l'intégration d'éléments forward looking. Prestations demandées La prestation consiste à assister l'équipe de modélisation dans la refonte de modèles LGD S3 IFRS9. Il s'agira de : - Analyser les données disponibles dans les différents systèmes d'information et en contrôler la qualité (fiabilité, disponibilité en production) ; - Construire et documenter les bases de modélisation en veillant à modulariser les programmes : périmètres, calcul de la LGD observée, extraction des prédicteurs ; - Construire les modèles de LGD S3 en suivant les guidelines groupe et en consultant les experts risque / risques locaux ; - Appliquer les tests de performance des modèles développés dans le respect des normes en usage ; - Elaborer les documentations statistiques, opérationnelles et les expressions de besoin pour l’implémentation des modèles en production ; - Assurer la recette de l'implémentation IT du modèle ; - Contribuer à l’amélioration des outils et procédures en identifiant des dysfonctionnements et en étant force de proposition de nouvelles solutions ;
Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Offre d'emploi
Ingénieur Cloud (AWS)
MSI Experts
Publiée le
Argo CD
AWS Cloud
Gitlab
3 mois
France
Dans un environnement cloud critique, nous renforçons nos équipes pour accompagner la mise en place d’une stratégie de continuité d’activité robuste. L’objectif : garantir la disponibilité des services même en cas d’incident majeur, grâce à une solution de reprise d’activité de type Warm Pilot . Vous interviendrez au cœur d’une plateforme exigeante, où la fiabilité, la sécurité et l’automatisation sont essentielles. Vos missions Au sein d’une équipe technique transverse, vous serez impliqué(e) de bout en bout dans la conception et le déploiement des solutions de reprise d’activité : Analyser et faire évoluer l’architecture de reprise d’activité existante pour des applications critiques Définir et optimiser les mécanismes de bascule (failover), de retour à la normale (failback) et de réplication des données Concevoir des solutions techniques fiables, évolutives et adaptées aux enjeux de continuité d’activité Mettre en œuvre les infrastructures via des pratiques d’automatisation (Infrastructure as Code, GitOps) Collaborer étroitement avec les équipes infrastructure, sécurité et développement pour assurer la cohérence globale des solutions Formaliser les procédures de reprise, les scénarios de test et les processus de validation Identifier les risques techniques, les dépendances critiques et les points de fragilité du système
Mission freelance
Tech Lead Data (AWS/BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Mission freelance
Développeur Python / AWS / PostgreSQL / Kafka (h/f)
emagine Consulting SARL
Publiée le
1 mois
550-650 €
92400, Courbevoie, Île-de-France
Introduction & Résumé Nous recherchons un Développeur Python expérimenté avec une expertise en PostgreSQL et Kafka. Le candidat idéal devra posséder un minimum de 10 ans d'expérience en développement logiciel, avec des compétences avérées en gestion technique et une expérience dans des environnements similaires. L'accent sera mis sur le développement de solutions robustes et performantes pour des secteurs tels que la finance de marché, le trading de matières premières ou l'énergie. Principales Responsabilités Développer et maintenir des applications logicielles performantes. Assurer la conception et l’optimisation des bases de données PostgreSQL. Élaborer des architectures logicielles solides basées sur des technologies modernes. Implémenter des systèmes orientés événements et gérer le flux de données. Développer des API et des pipelines de données optimisés. Participer à l’évolution et à l’amélioration continue des processus Agile. Assurer le suivi du cycle de vie du développement logiciel. Exigences Clés 10 ans d’expérience en développement logiciel. Expérience avancée en développement Python (6+ ans). Maîtrise de PostgreSQL et gestion des performances. Compréhension des architectures logicielles modernes. Expérience avec des systèmes de messaging et de streaming comme Kafka. Compétences en mise en œuvre d’API et de pipelines de données. Connaissance des méthodologies Agile. Pratique du cycle de vie du développement avec GitHub. Atouts Complémentaires Expérience dans le secteur de la finance de marché ou de l’énergie. Connaissance des systèmes RabbitMQ. Autres Détails Ce poste est basé dans un environnement dynamique et collaboratif. Les candidats doivent être disposés à participer à des projets intéressants allant du développement à la mise en production.
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
CONSULTANT CLOUD AWS / PLATEFORME
SKILL EXPERT
Publiée le
AWS Cloud
Gitlab
2 mois
550-600 €
Hauts-de-Seine, France
CONSULTANT CLOUD AWS / PLATEFORME COMPÉTENCES REQUISES CONSULTANT CLOUD AWS / PLATEFORME Confirmé AWS CLOUD, ARGOCD, GITLAB Confirmé TERRAGUNT, ARCHITECTURE Confirmé ANGLAIS LU, ÉCRIT, PARLÉ Confirmé Descriptif de la mission Notre Client recherche pour cette mission un Consultant Cloud AWS / Plateforme Les tâches au quotidien seront : • Définir, concevoir et mettre en œuvre les éléments techniques nécessaires à une stratégie de reprise après sinistre pilote sur AWS • Analyser l'architecture cible existante de reprise après sinistre à chaud pour les charges de travail critiques dans le cloud • Examiner et remettre en question les modèles techniques de basculement, de retour en arrière, de réplication, de synchronisation et d'orchestration de récupération • Traduire les exigences en matière de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives • Mettre en œuvre les composants d'infrastructure et de reprise après sinistre en utilisant l'infrastructure en tant que code et les principes GitOps • Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir une cohérence de bout en bout • Définir et documenter les procédures de basculement, de retour en arrière, de validation de la récupération et de test de reprise après sinistre • Identifier les risques techniques, les dépendances, les points de défaillance uniques et les lacunes opérationnelles Les compétences requises pour cette mission sont : • Justifier d'au moins 5/6 ans d'expérience professionnel dans ce domaine • Avoir une solide expérience dans l'exploitation de plateforme de production basée sur AWS • Avoir de bonnes compétences en matière d'infrastructure as code, en automatisation et de standardisation du déploiement • Justifier d'une solide connaissance de la haute disponibilité et des opérations de productions • Avoir de bonnes connaissances avec ArgoCD, Gitlab, Terragunt • Anglais lu, écrit, parlé Environnement technique de la prestation Aws Cloud, ArgoCD, Gitlab Terragunt, Architecture
Mission freelance
DBA AWS / Administrateur de base de données
Tenth Revolution Group
Publiée le
Amazon DynamoDB
AWS Cloud
Mongodb
3 ans
190-650 €
Lille, Hauts-de-France
Dans le cadre de l’évolution de son positionnement cloud, notre client recherche un DBA orienté AWS avec une forte appétence pour le développement et l’automatisation. Le rôle s’inscrit dans une transformation où les activités DBA traditionnelles évoluent vers un scope plus large mêlant gestion des données, développement et innovation . À ce titre, vos missions seront les suivantes : Administrer, optimiser et maintenir les bases de données ( AWS RDS, DynamoDB, MongoDB ) Garantir la performance, la disponibilité et la sécurité des environnements data Développer des endpoints API en Python pour exposer et exploiter les données Automatiser l’infrastructure via des playbooks Terraform Participer à des POC autour de nouvelles solutions Cloud/Data Rédiger de la documentation technique et contribuer à la veille technologique
Offre d'emploi
AWS Platform Engineer - Geneva (Switzerland)
LEVUP
Publiée le
AWS Cloud
Kubernetes
12 mois
Genève, Suisse
Vous intégrez une équipe spécialisée dans la fourniture de solutions d’intégration innovantes pour l’ensemble des lignes métiers et des sites. Notre expertise couvre les environnements on-premise et cloud, le conseil ainsi que la gestion de projets. • Gestion des mises en production : piloter le cycle de release, corriger les anomalies et déployer de nouvelles fonctionnalités en collaboration avec le Product Manager. • Gestion des infrastructures on-premise (machines virtuelles Windows et Linux). • Automatisation & optimisation : maintenir et refactoriser les automatisations à l’aide d’outils tels que Puppet, Ansible et Terraform • Gestion des incidents : analyser les incidents et anomalies, identifier les causes racines et mettre en œuvre des solutions pérennes • Infrastructure as Code (IaC) : automatiser le provisionnement et la gestion des ressources cloud via Terraform, GitHub et GitHub Actions • Performance & sécurité : optimiser les environnements en termes de coûts, performances et sécurité, et mettre en place des pipelines CI/CD • Supervision & maintien en conditions opérationnelles : maintenir les outils de supervision (ex. Rundeck, Grafana) pour les environnements on-premise et cloud • Méthodologies DevOps : appliquer les bonnes pratiques DevOps, participer aux rotations d’astreinte et garantir l’alignement avec les exigences métier et sécurité • Migration et gestion Cloud : contribuer à la stratégie de migration vers le cloud AWS. • Documentation & intégration : rédiger la documentation technique et gérer plusieurs applications dans des environnements hybrides • Travail en équipe : collaborer en binôme avec les équipes afin de délivrer les activités efficacement et dans les délais
Mission freelance
Pilote Delivery AWS
Groupe Aptenia
Publiée le
AWS Cloud
DevOps
6 mois
Bordeaux, Nouvelle-Aquitaine
Définir et piloter l'architecture technique de la plateforme en lien avec les parties prenantes et les objectifs stratégiques Garantir la qualité, la cohérence et la performance des solutions déployées via des revues de code et l'application des bonnes pratiques Mettre en place et faire évoluer les chaînes CI/CD, les pratiques DevOps/DevSecOps, l'IaC et le GitOps pour industrialiser le delivery Suivre et améliorer les métriques de performance delivery (DORA Metrics) Piloter les démarches d'amélioration continue (Accelerate, DevEx) Comprendre et challenger les architectures applicatives et infrastructure du SI (cloud, conteneurisation, event-driven, contraintes sécurité) Utiliser l'IA pour accélérer la production de livrables Impulser une culture IA au sein des équipes produit
Offre d'emploi
DataOps Engineer - H/F
AMD Blue
Publiée le
Amazon S3
AWS Cloud
CI/CD
3 ans
48k-56k €
480-550 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Ops . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Ops . Contexte de la mission : Notre client recherche un(e) Senior Data Ops Engineer pour rejoindre son équipe en charge du Datalake. La donnée est au cœur de la stratégie de notre client, guidant chaque décision de la conception à l'expérience utilisateur. L'équipe est responsable de la mise à disposition du stockage, de la robustesse, de la scalabilité et de la gouvernance technique du patrimoine de données. Descriptif de la mission : Les missions sont : Garantir la robustesse de la plateforme : Gestion du DRP et du PCA. Monitoring et pilotage : Actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails). Support et accompagnement : Expertise sur S3, Glue et Unity Catalog. Infrastructure as Code : Déploiement de nouvelles ressources via Terraform et maintenance de l'existant. Collaboration : Travail en étroite collaboration avec les ingénieurs infra et les équipes ops. Accompagnement et formation : Définition et promotion des bonnes pratiques, conseil lors de la conception des pipelines de données. Développement du futur : Automatisation de la gouvernance (Data contract registry, access management) et déploiement de Unity Catalog (lineage, managed tables, etc.).
Mission freelance
Développeur Fullstack AWS
Signe +
Publiée le
AWS Cloud
React
SQL
6 mois
400-420 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients 2 développeurs full stack AWS avec un niveau d’anglais professionnel (B2 ou +). Rôle : Le candidat fera partie de l'équipe de développement. Il aura pour responsabilité de se familiariser avec l'application et de contribuer au développement, à la validation et à la mise en service. Cadre SCRUM • Participation aux cérémonies SCRUM (planification de sprint, réunion quotidienne, rétrospective, affinement du backlog) • Participation aux estimations des User Stories et aux SWAG • Participation aux réunions internes (hebdomadaires avec la direction) Développement • Contribuer au développement du front-end (React) et du back-end (TypeScript) au sein de l’équipe • Tests unitaires Documentation • Capitaliser sur la page Confluence d’Airbus • Rédiger de la documentation technique si nécessaire
Offre d'emploi
DATA ENGINEER PYTHON
UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins
3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2738 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois