Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris
Offre d'emploi
Senior DevOps / AWS Platform Engineer (H/F)
Vous souhaitez mettre à profit votre expertise DevOps / Platform Engineering dans un environnement exigeant et innovant ? Objectif : Concevoir, industrialiser et opérer une plateforme AWS permettant aux équipes internes de déployer rapidement et en toute sécurité. Vos responsabilités - Concevoir et développer des modules Terraform avancés et réutilisables (networking, sécurité, compute, data). - Gérer un environnement multi-comptes AWS (Organizations, Control Tower, SCPs, IAM). - Définir des blueprints d'infrastructure (EKS/ECS/Fargate, Lambda, EC2). - Construire et maintenir des pipelines CI/CD (Jenkins, GitLab CI) avec intégration sécurité et policy-as-code. - Mettre en place la supervision & observabilité (CloudWatch, Prometheus/Grafana, Datadog...). - Sécuriser les environnements (IAM, KMS, Secrets Manager, scanning IaC/images). - Supporter et accompagner les équipes internes (migration workloads, coaching, self-service). - Automatiser avec Bash, Python, Terraform automation, AI copilots. - Participer au support L2/L3, documentation et transfert de connaissances. Profil recherché - 8+ ans d'expérience en DevOps / SRE / Platform Engineering. - 4+ ans sur AWS en production. - Expert Terraform (design de modules, state management, bonnes pratiques). - Très bonne maîtrise AWS (VPC, Transit Gateway, IAM, EKS, ECS, Lambda, RDS, DynamoDB, S3, Route 53...). - Compétences solides en Linux, réseau (TCP/IP, DNS, TLS), scripting (Bash, Python). - Expérience CI/CD (Git, Jenkins, GitLab CI). - Connaissances containers/Kubernetes (EKS), Helm, supply chain security. - Excellente capacité de collaboration et sens produit. Atouts appréciés - Leadership technique & mentoring. - Certifications AWS, Terraform ou Kubernetes. - Pratiques FinOps. - Expérience GitOps (ArgoCD, Flux). - Outils avancés Terraform (Terragrunt, Spacelift).
Offre d'emploi
Architecte technique (H/F)
Nous recherchons un Architecte Technique expérimenté pour intervenir au sein de la Direction Technique Informatique de notre client, plus particulièrement dans le pôle Gouvernance Technique Opérationnelle composé actuellement de 8 architectes techniques. L'infrastructure est actuellement en évolution vers la conteneurisation par la solution Kubernetes de Redhat (OpenShift). Le poste est centré sur des compétences infrastructure et production.Vous interviendrez sur des socles techniques comprenant Apache, JBoss, PostgreSQL, ainsi que sur des aspects réseau et sécurité (VLAN, VIPs, composants matériels réseau), et sur la maîtrise de Docker/Kubernetes (OpenShift). Missions principales: Concevoir l'architecture technique des projets (métiers, progiciels) et des socles techniques (API Management, Oracle, moteur de règles...). Identifier les composants applicatifs et flux associés, décrire l'infrastructure d'exécution et dimensionner les ressources selon les exigences techniques et de sécurité. Accompagner les projets métiers dans la rédaction des fiches de sécurité et des NFR (exigences non fonctionnelles). Valider les architectures techniques sous l'angle sécurité et rédiger les matrices de flux. Accompagner les chefs de projets techniques pour le cadrage et l'organisation des phases techniques, y compris les plans de bascule et la mise en exploitation de DRCP et SFs. Vérifier régulièrement que l'architecture en production est conforme aux spécifications, et ajuster si nécessaire. Instruire des dossiers techniques (ex. mise en oeuvre du protocole S3). Participer au support opérationnel et aux cellules de crise. Vous êtes titulaire d'une formation niveau Bac+5 (Master) ou avez une expérience équivalente. Vous avez au minimum 5 ans d'expérience sur un poste similaire et une expérience confirmée en modélisation d'architecture technique (type Archimate) et en rédaction de dossiers d'architecture technique. Compétences techniques attendues: Infrastructure et middleware : Apache, JBoss, PostgreSQL, serveurs d'applications et bases de données relationnelles. Virtualisation et conteneurisation : Docker, Kubernetes (OpenShift), orchestration et déploiement automatisé de conteneurs. Réseau et sécurité : VLAN, VIPs, firewalls, composants matériels réseau, dimensionnement et sécurisation des flux. Socles techniques et outils métiers : API Management, moteurs de règles, solutions GED et acquisition de documents (KOFAX, ITESOFT). Notre processus de recrutement : en 4 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone 2. Puis, nous aurons le plaisir d'échanger en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! Kubernetes Docker OpenShift jboss JAVA
Mission freelance
DevOps cloud AWS
Notre client est un acteur majeur du secteur des médias et du divertissement , présent à l’international. Son pôle Tech regroupe plusieurs centaines d’experts dédiés à la conception et à l’exploitation des plateformes applicatives du groupe. Au sein d’une équipe transverse d’Architectes et de DevOps , la mission consiste à accompagner les équipes projets dans la modernisation, l’automatisation et la sécurisation de leurs environnements Cloud. L’objectif : renforcer la cohérence technologique, accélérer les déploiements et fiabiliser les infrastructures dans un contexte de transformation vers le Cloud AWS . Missions principales Accompagner les équipes projets dans la conception, la mise en place et la modernisation d’infrastructures Cloud . Définir et déployer des architectures AWS robustes, modulaires et sécurisées. Concevoir et maintenir des chaînes CI/CD (GitLab CI, GitOps) et des modules Infrastructure as Code (Terraform, Ansible). Contribuer à la conteneurisation et à l’orchestration (Docker, Kubernetes, EKS). Garantir la scalabilité, la fiabilité et la sécurité des plateformes Cloud. Participer à la diffusion des bonnes pratiques DevOps et SRE (SLI/SLO, post-mortems, résilience). Intervenir en support transverse multi-projets , avec une vision globale et des enjeux variés. Pour les profils seniors : jouer un rôle de référent technique / Tech Lead , notamment sur la coordination avec les équipes offshore. Stack technique Cloud & Infra : AWS (EKS, EC2, S3, RDS, Lambda, Route53, Transit Gateway, CloudWatch) – notions Azure & On-Prem. Conteneurs & orchestration : Docker, Kubernetes (EKS), Helm, Autoscalers, ECR, CNI. IaC & configuration : Terraform, Ansible, AWX, Terragrunt. CI/CD : GitLab CI, GitOps, Jenkins. Scripting : Bash, Python. Observabilité : Prometheus, Grafana, Loki, Datadog. Sécurité & FinOps : IAM, API security, segmentation, right-sizing, cost tracking.
Mission freelance
Intégrateur technique Cloud Niv.2-3
CONTEXTE l’Intégrateur.trice Cloud sera sous la responsabilité du Responsable d’équipe EIT (Equipe d’Intégration Technique). Cette équipe assure notamment les activités de mise en place des éléments d’infrastructures applicatives en relation avec les exploitants, d’intégration de livrables éditeurs et/ou maîtrise d’œuvre, de développement et support d’outils transverses pour les applications du périmètre DARC. De plus en plus d’applications sont sur la Cloud Plateforme et l’équipe a besoin de se renforcer avec un sachant afin de répondre aux nouveaux besoins. Ce poste est rattaché à la Direction ARC « Acquisition, Restitution, Corporate » dont les principales missions MISSIONS : • Être responsable de la conception et de la maintenance des échanges de flux de Cash Management pour la clientèle des grandes entreprises et des banques. • Concevoir, mettre en œuvre et assurer l’évolution des applications concernant les produits de Cash Management et des services associés : acquisition des flux d’opérations, restitution d’informations (multiformats et multi-protocoles) et offres de gestion de comptes. Vous aurez notamment la charge de : • Participer à la mise en place de nouvelles applications au sein de la Cloud Platform privée : o Développement Spring Boot / Nodejs o Gestion de l'infrastructure Kubernetes (Rédaction fichier de déploiement, instanciation de ressources) o Mise en place de certificats o Mise en place de pipeline ci/cd (github actions) o Gestion de secrets (vault) o Gestion des DNS o Gestion des traffic manager / load balancer o Gestion de buckets S3 o Envoi de logs vers des outils de monitoring ▪ Grafana ▪ Instana • Participer au développement d’interface WEB o Front et back (nodejs, spring boot, react) • Commander et suivre la mise en place des éléments d’infrastructures composant une application • Participer à la mise en place des rotations automatisées des artéfacts/fonctions exploités sur la Cloud Platform o Terraform o Playbook et rôle ansible • Participer à la mise en place d’outils transverses au pôle CAT permettant notamment le monitoring, l’alerting des applicatifs associés et le déclenchement des processus de traitement batch, • Participer à l’élaboration et à la maintenance de solutions transverses mises à la disposition des équipes applicatives • Participer aux opérations de production du service EIT • Gestion des ressources Azure (Jira / Confluence) COMPETENCES D’un naturel précis, rigoureux, méthodique, curieux et autonome vous communiquez de façon efficace et adaptée aux différents interlocuteurs.rices. Vous recherchez efficacement des solutions à des problématiques non encore rencontrées et êtes en mesure d’apprendre le développement au travers de nouveaux outils, tout en donnant de la visibilité sur les actions en cours (demandes métiers, techniques…). Les technologies sur lesquelles vous devrez intervenir seront : - - - - - - - - - - - - shell (bash – ksh – sh) Unix (Aix – Redhat) PL/SQL – PostgreSql - PgPool Spring Boot – NodeJs – React Kubernetes – NameSpace - Pod – Docker CI/CD – GitHub – Nexus – Jenkins Playbooks – Terraform CloudPlatform privée – Azure Kafka – RabbitMQ – API – Grafana Jira – Confluence (produits Attlasian) Certificats Niveau : 2/3 (minimum 5-10 ans d’expérience dans ce type de rôle) De formation Bac +4/5, vous êtes francophone et pratiquez un Anglais intermédiaire.
Mission freelance
Mission de Data Engineer - Retail
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github
Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Mission freelance
Devops Kubernetes
Rejoignez une équipe chargée de soutenir et de faire évoluer les plateformes Kubernetes utilisées pour les applications, le big data et l'apprentissage automatique. Le poste implique l'intégration, le déploiement, l'automatisation et la maintenance opérationnelle dans un environnement complexe et multi-clients. Principales responsabilités Intégrer et prendre en charge les applications sur Kubernetes. Déployer de nouvelles solutions technologiques et garantir leur disponibilité pour la production. Former les développeurs et les équipes d'infrastructure. Étendre le modèle sur site au cloud (Azure). Automatiser et améliorer les processus existants. Maintenir la stabilité de la plateforme et des applications . Stack technologique Conteneurs et orchestration : Docker, Kubernetes, Rancher, ArgoCD Langages : YAML, Go Outils DevOps : Jenkins, Grafana, Prometheus, Sysdig Cloud et infrastructure : AKS Azure, Linux (SUSE), GitLab, Artifactory, S3
Mission freelance
Senior DevOps Engineer (Python, Jenkins, Ansible, Shell, AWS)
Qualifications / Compétences requises Licence ou Master en informatique, génie logiciel ou domaine connexe. Au moins 8 ans d'expérience en tant qu'ingénieur DevOps et au moins 4 ans en projets centrés sur les données. Vaste expérience en développement Python démontrant une solide maîtrise de la création d'applications évolutives. Expertise approfondie des pratiques DevOps et des pipelines CI/CD pour optimiser les processus de déploiement. Expérience en infrastructure as-code. Excellentes compétences collaboratives, avec la capacité à traduire des exigences utilisateurs complexes en solutions techniques efficaces. Bonne maîtrise de l'anglais, car la documentation sera rédigée en anglais et une partie des utilisateurs de la plateforme de données ne parlent pas français. Plus : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience en développement produit agile et en méthodologie Scrum. Maîtrise des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell. AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … DevOps : Jenkins, SonarQube, Conda, Ansible… Logiciels : Python, Rust est un plus.
Mission freelance
Senior Devops
Mission L’équipe Data est au cœur de nos stratégies d’investissement, exploitant une large gamme de sources de données pour générer des indicateurs diversifiés qui permettent d’obtenir de solides performances pour nos clients. En tant que membre de l’équipe Data Platform, votre mission sera de mettre en œuvre activement les directives et recommandations d’audit afin de sécuriser nos environnements de production. Principales tâches : En tant que Senior DevOps Engineer, vos principales missions seront : Séparation des environnements de production et de développement (gestion des droits, amélioration des tests), Gestion de la capacité de nos serveurs (y compris suivi et alertes), Industrialisation des tests de qualité des données, Amélioration de la gestion des versions (tests, versioning, etc.), Mise en place d’un plan de reprise après sinistre et de chaos engineering, Maintenance de plusieurs serveurs et assets existants (y compris les outils et pipelines CI/CD). Qualifications / Compétences requises Diplôme de niveau Licence ou Master en informatique, génie logiciel ou domaine similaire, Minimum 8 ans d’expérience en tant qu’ingénieur DevOps, dont au moins 4 ans sur des projets centrés sur la Data, Expérience approfondie en développement Python et maîtrise de la création d’applications évolutives, Expertise en pratiques DevOps et pipelines CI/CD pour améliorer les processus de déploiement, Expérience des frameworks Infra-as-Code, Excellentes compétences collaboratives et capacité à traduire des besoins utilisateurs complexes en solutions techniques efficaces, Bonne maîtrise de l’anglais (la documentation sera rédigée en anglais et certains utilisateurs de la Data Platform ne parlent pas français). Atouts supplémentaires : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark, Expérience en développement produit agile et méthodologie Scrum, Compréhension des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell, DevOps : Jenkins, SonarQube, Conda, Ansible, … Logiciels : Python, Rust (un plus), AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …
Offre d'emploi
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Offre d'emploi
DevOps AWS
Missions principales Concevoir, déployer et maintenir les infrastructures AWS (EC2, S3, RDS, Lambda, VPC, etc.). Mettre en place et gérer les pipelines CI/CD (GitHub Actions, Jenkins, GitLab CI, etc.). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, CloudFormation, Ansible). Assurer la monitoring, le logging et l’alerte pour garantir la disponibilité et la performance des systèmes. Implémenter les meilleures pratiques de sécurité AWS (IAM, KMS, Security Groups, compliance). Collaborer avec les équipes de développement pour optimiser les processus de déploiement et l’architecture cloud. Participer à la résolution d’incidents , à la gestion des changements et à l’amélioration continue.
Mission freelance
Tech Lead (Cloud / Symfony / Next.js / Kafka)
CONTEXTE: EXperience : 7 ans et plus Métiers Fonctions : Etudes & Développement, Développeurs Spécialités technologiques : Back-End ;Front-End, Cloud, APIs Base de données Description et livrables de la prestation Nous sommes à la recherche pour un de nos clients d'un Tech Lead pour superviser une équipe de développeurs et se placer en tant que bras droit du responsable projet. Contexte : Coordination de la communication entre APIs de plusieurs équipes Nous recherchons un profil ayant une posture très affirmée, un excellent niveau de discours et un français impeccable. Expertise souhaitée Le cahier des charges : - Cloud : AWS avec stockage S3 - Base de données : PostgreSQL - API : Symfony 6/7 avec API Platform - Back-for-front : NestJS pour servir le front - Front-end : Next.js (React) - OS : Ubuntu LTS (maîtrise CLI/Linux requise) - Service Mesh : Istio/Linkerd - Event bus : Kafka (migration RabbitMQ → Kafka)
Offre d'emploi
DATA ENGINEER AWS / TALEND
🎯 Contexte du poste Nous recherchons un Data Engineer confirmé afin d’accompagner un projet de migration stratégique de notre plateforme Data. Le consultant interviendra au sein d’équipes techniques et métiers pour assurer la transition et l’optimisation des flux de données. 🛠️ Missions principales Concevoir, développer et maintenir des pipelines de données performants et scalables. Assurer la migration des traitements Talend vers Spark sur EMR (Amazon Elastic MapReduce). Mettre en place des modèles de données et des tables optimisées avec Apache Iceberg. Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes Data, DevOps et métiers pour accompagner la transformation de la plateforme. 📌 Compétences techniques requises Talend : expertise dans les flux existants et leur migration. Spark (PySpark/Scala) sur EMR : maîtrise des traitements distribués et optimisation. Apache Iceberg : connaissance des formats de tables modernes (partitionnement, évolutivité, performance). DevOps (nice to have) : CI/CD, Docker, Kubernetes, Terraform, GitLab. Cloud AWS : maîtrise des services liés au Big Data (S3, EMR, Glue, etc.). 🌍 Soft skills et linguistique Anglais courant (fluent) : échanges réguliers avec des équipes internationales. Autonomie, capacité d’adaptation, esprit d’analyse. Bon relationnel et aptitude au travail en équipe agile. 🚀 Profil recherché Minimum 4/5 ans d’expérience en tant que Data Engineer. Expérience significative dans des projets de migration de flux Data. Capacité à intervenir dans des environnements complexes et à forte volumétrie de données.
Mission freelance
Architecte AWS SECURITY
Missions Formaliser et mettre à jour les guides de durcissement de sécurité pour les services AWS. Identifier les changements dans les services AWS pouvant impacter la sécurité. Comparer les pratiques actuelles avec les bonnes pratiques AWS et les exigences Analyser et recommander des solutions pertinentes pour les risques et vulnérabilités identifiés. Documenter et communiquer les recommandations et guides aux équipes concernées. Collaborer avec les équipes Cloud et sécurité pour garantir la conformité et la robustesse des environnements AWS. Environnement technique et fonctionnel Cloud : AWS (services identifiés : Lambda, EC2, S3, KMS, Secret Manager, CloudWatch, EventHub, SQS, SNS). Outils : Documentation technique, systèmes de suivi de sécurité et bonnes pratiques Cloud. Domaines d’expertise : Sécurité Cloud, architecture système, cybersécurité. Profil recherché Compétences techniques et fonctionnelles : Expertise avancée en AWS Security et meilleures pratiques de durcissement. Bonne maîtrise des architectures systèmes et sécurité de l’information. Capacité à identifier et analyser des problèmes de sécurité complexes. Rédaction et formalisation de documents techniques.
Mission freelance
TECH LEAD SENIOR DEVELOPPEMENT WEB
CONTEXTE Opticapa est une application d’aide à la décision pour l’ordonnancement des travaux en amont du plan de transport. Il s’agit d’une application web à support cartographique constituée de 2 briques fonctionnelles disposant chacune de leurs propres ressources. Néanmoins, les équipes engagées sur chacune d’elles sont invitées à échanger et partager leurs travaux, ces derniers pouvant alimenter les 2 briques. Le projet dans son entièreté engage à date, pour la partie design & développement, 1 responsable technique, 2 développeurs front-end seniors, 4 développeurs back-end senior et expérimentée, 1 QA testeuse ainsi qu’1 responsable produit. Afin d’assurer les exigences clients, nous cherchons donc à recruter à temps plein un.e Tech Lead Senior afin d’assurer la conception et la cohérence technique des briques PER et macro-ordonnancement avec les feuilles de route en place. MISSIONS Le/la Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement, en veillant à la qualité technique des solutions mises en œuvre et au respect des meilleures pratiques de développement. Il ou elle sera responsable de l'architecture technique du projet, de la planification des tâches de développement. Le/la Tech Lead devra également encadrer et mentorer les développeurs et développeuses, en les accompagnant dans leur montée en compétences et en veillant à ce que les objectifs de développement soient atteints. Il ou elle sera également responsable de revues de code, de la supervision de l’automatisation des tests et de la gestion des environnements de développement, de test et de production. En collaboration avec les chefs de projet, le/la Tech Lead participera à la définition des roadmaps techniques et fonctionnelles, en proposant des solutions innovantes et en veillant à ce que les projets soient livrés dans les délais impartis. Il ou elle sera également responsable de la veille technologique, en identifiant les nouvelles technologies et les bonnes pratiques à adopter pour améliorer la qualité des solutions développées. Enfin, le/la Tech Lead devra également participer aux différentes cérémonies agiles (réunions de planification des sprints, aux rétrospectives, etc) en veillant à ce que l'équipe fonctionne de manière efficace et en constante amélioration. Description détaillée des tâches qui constituent la mission assurera, en accord avec les chef.fe.s de projets, des missions techniques telles que : • La conception et la révision du code source – python o ETLs, 2 app back, 1 schéma de BDD • La documentation du code source • La performance des services back • L’administration des infrastructures informatiques – Jenkins, AWS (S3, RDS), Ansible, Helm, Kubernetes • Les déploiements des apps back sur les différents environnements (dev, recette, intégration, production) • La revue de code des autres .s back-end En parallèle, il.elle se démarquera par sa capacité à s’imprégner des enjeux du projet. Cela passe par : • Un intérêt marqué pour comprendre les enjeux métier du projet • L’appropriation de l’outil et du code source. • Le partage de connaissance technique pour améliorer, en équipe, l’application. • La prise d’initiative sur les sujets techniques. • L’investissement dans les activités de l’équipe projet Tech Lead disposera d’une grande autonomie et sera force de proposition technique pour assurer le fonctionnement de l’application et garantir son adéquation avec le cahier des charges. Il.elle travaillera en équipe et entretiendra des relations pour permettre à celle-ci d’évoluer pour le mieux. Il.elle adaptera sa communication à ses interlocuteurs, aura de l’impact et de l’influence sur les autres.
Mission freelance
Senior Python Backend Engineer / FULL REMOTE
Description du poste – Senior Python Backend Engineer (Freelance)Contexte Nous accompagnons un grand groupe international dans le cadre d’un projet de transformation digitale. Dans ce contexte, nous recherchons un Senior Python Backend Engineer pour une mission freelance longue durée. Le consultant rejoindra une équipe internationale et contribuera au développement d’une plateforme innovante orientée data, intégrant des technologies cloud et intelligence artificielle. Missions principales Développer et maintenir des services backend en Python (API, microservices). Concevoir et optimiser des architectures event-driven et serverless sur cloud public. Automatiser les déploiements via IaC (Terraform). Participer aux décisions techniques et aux choix d’architecture. Implémenter des tests et rédiger la documentation associée. Collaborer avec une équipe distribuée en mode agile. Stack technique Python (FastAPI, Flask) Cloud serverless : Lambda, Step Functions, DynamoDB, S3, SQS, EventBridge Terraform / CodePipeline Bases de données : MongoDB, Postgres Bonus : ETL, Batch, Geospatial Conditions de mission Contrat : Freelance Localisation : Remote, avec quelques déplacements ponctuels en Europe (2-3 fois par an) Démarrage : Dès que possible Durée : Mission longue Candidature par mail : Et/ou Linkedin : Sofiane O.C
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- 𝒯ℰℳ𝒰 Rabattcode [ACV951295]: 20€ Gutscheinpaket für neue Nutzer
- 𝒯ℰℳ𝒰 Gutscheincode [ACV951295] | 20€ Rabatt für Bestandskunden
- 𝒯ℰℳ𝒰 Gutschein: 100€ Rabattcode [ACV951295] für Bestandskunden
- „Aktueller“➛ 𝒯ℰℳ𝒰 Tablet Gratis-Test (ACV951295): Und ein 100 € Rabattcode!
- ❰Aktueller❱➛ 𝒯ℰℳ𝒰 Gutscheincode [ACV951295] 100€ Rabatt für neue Kunden
- factures non payés