L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 649 résultats.
Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)
Publiée le
Azure
Python
1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
Administrateur IaC (H/F)
Publiée le
Ansible
Azure
Git
6 mois
400-500 €
Le Mans, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Proche du Mans 🏠 Télétravail : 3 jours sur site 📝Contrat : Pré-embauche 👉 Contexte client : Vous rejoignez un acteur industriel français majeur en pleine transformation digitale. Au sein de la DSI, l’objectif est de renforcer les pratiques DevOps et d’industrialiser les environnements on-premise et Cloud grâce à l’Infrastructure as Code. En tant qu’ Ingénieur DevOps / Administrateur IaC , vous participez à la conception, l’automatisation et l’industrialisation des infrastructures du groupe. Vous serez amené(e) à : Automatiser les déploiements et configurations via Ansible et PowerShell Maintenir et faire évoluer les environnements serveurs (Windows / Linux) Développer des scripts d’industrialisation et d’automatisation Participer aux projets d’infrastructure (mise en prod, standardisation, migrations…) Contribuer à la fiabilisation et à la sécurité des plateformes techniques Documenter, optimiser et améliorer les processus existants Stack technique : Automation / IaC : Ansible, PowerShell Systèmes : Windows Server, Linux CI/CD : Git, GitLab CI Virtualisation / Cloud : VMware, Azure (souhaité)
Offre d'emploi
Architecte cloud AZURE SAP
Publiée le
Azure
SAP
2 ans
40k-75k €
600-800 €
Île-de-France, France
Télétravail partiel
En tant qu’ Architecte Cloud Azure SAP , vous accompagnerez les équipes projet sur la bonne réalisation d’un projet de migration. Établir les standards, normes et bonnes pratiques (architecture, sécurité, FinOps, DevOps). SecurityByDesign (Chiffrement, gestion des accès (IAM), monitoring, sauvegardes). Accompagnement du projet de migration Maîtrise avancée d’ Azure (IaaS, PaaS, SAP on Azure) : conception d’architectures performantes, sécurisées et scalables. Expérience sur les projets SAP Rise, S/4HANA Cloud , et migration de workloads SAP vers Azure. Expérience en migration de VM et d’applications ( Lift & Shift, replatforming, refactoring ) avec la solution Azure Migrate , gestion des interconnexions (ExpressRoute, VPN, peering VNet). Maîtrise des outils d’ automatisation (Terraform, Ansible, Azure DevOps) . Support post-migration : anticiper les incidents et les besoins d’optimisation après la bascule. Concevoir des architectures Azure performantes et sécurisées . Réaliser des études techniques détaillées (infrastructure & applicatif). Rédiger les dossiers d’architecture technique et d’exploitation . Définir les processus d’ industrialisation et d’automatisation (IaC, CI/CD). Piloter les projets cloud dans le respect des coûts, délais et qualité . Maîtrise des bonnes pratiques DevOps et Agilité . Accompagner les équipes projet et assurer le transfert de compétences (approche shift-left). Assurer le support de niveau 3 et l’animation d’ateliers techniques. Gestion de projet, reporting, coordination multi-équipes. Environnement technique Cloud : Azure (infrastructure & applicatif) Systèmes : Linux (RedHat, CentOS), Windows Outils DevOps : Azure DevOps, Ansible, Terraform Méthodologies : FinOps, DevOps, Infrastructure as Code
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
ingénieur en automatisation du cloud AWS
Publiée le
AWS Cloud
Kubernetes
Terraform
12 mois
400-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Spécification du Poste (Mis à Jour) Poste : Ingénieur Cloud AWS Senior / Ingénieur Plateforme Lieu : Lyon (Hybride – 1 à 2 jours sur site par semaine) Contrat : 12 mois renouvelable Date de début : Dès que possible Présentation Nous accompagnons une entreprise internationale en pleine transformation cloud. Elle recherche un Ingénieur Cloud AWS Senior / Ingénieur Plateforme avec de solides compétences en développement pour concevoir, mettre en œuvre et optimiser l’infrastructure cloud en utilisant Terraform et Kubernetes . Ce rôle va au-delà des opérations : il nécessite une expertise de niveau développeur pour refactoriser et personnaliser des modules Terraform et créer des solutions en libre-service pour les landing zones. Responsabilités principales Développement de Landing Zone : Concevoir et mettre en œuvre des landing zones AWS avec sous-réseaux privés/publics, sécurité et conformité. Développement Terraform : Refactoriser et créer des modules Terraform personnalisés pour une infrastructure évolutive et réutilisable. Kubernetes : Déployer et gérer des clusters (EKS de préférence), en garantissant la séparation des environnements et les bonnes pratiques de sécurité. Intégration CI/CD : Construire et maintenir des pipelines pour des déploiements automatisés. Libre-service : Développer des solutions d’ingénierie de plateforme pour l’automatisation du provisioning et la création d’environnements. Collaborer avec les équipes architecture et sécurité pour garantir les meilleures pratiques. Compétences requises Expertise AWS : Expérience solide avec les services AWS et l’architecture des landing zones. Terraform : Maîtrise avancée du développement de modules, gestion des états et backends distants. Kubernetes : Expérience confirmée avec EKS et l’orchestration de conteneurs. Outils CI/CD : GitHub Actions, GitLab, Jenkins ou équivalent. Esprit développeur : Capacité à écrire du code propre, réutilisable et à refactoriser des modules existants. Langages : Python ou scripts similaires pour l’automatisation. Niveau d’anglais : B2 minimum. Atouts supplémentaires Expérience en ingénierie de plateforme et solutions en libre-service. Connaissance des architectures hybrides et de la conception réseau sécurisée.
Mission freelance
Architecte technique (H/F) Lille
Publiée le
Ansible
Azure
BGP (Border Gateway Protocol)
36 mois
400-550 €
Lille, Hauts-de-France
Missions principales Concevoir le design des solutions Réseau et Sécurité dans le cadre des programmes technologiques. Définir et maintenir la feuille de route de transformation des infrastructures. Participer activement au déploiement des solutions et accompagner les équipes projets. Apporter un soutien aux équipes de production grâce à une expertise technique pointue. Identifier les problématiques, proposer des plans de remédiation et conduire des actions d'amélioration continue. Garantir la conformité, la sécurité et l’application des meilleures pratiques au sein des environnements techniques. Environnement technique LAN/WLAN : Huawei, Cisco, Meraki WAN : SD-WAN, VPN/MPLS, BGP, Cisco ASR, Huawei Sécurité : Fortinet, Palo Alto, Netskope Cloud : Azure, GCP, OCI Cloud privé : OVH / VMware Datacenter : Huawei DCS Infrastructure as Code : Terraform, Ansible
Mission freelance
Tech Lead Senior - H/F - 93
Publiée le
Agile Scrum
Amazon S3
Ansible
12 mois
Saint-Denis, Île-de-France
Dans le cadre du projet de refonte et d’évolution d’une application métier dans le domaine ferroviaire / industriel, nous recherchons un Tech Lead pour piloter l’équipe technique et garantir la qualité des solutions développées. Ce rôle clé allie expertise technique, leadership et collaboration transverse avec les chefs de projet et les équipes métiers. Le projet repose sur une stack technique moderne (Python, FastAPI, PostgreSQL/PostGIS, AWS, Kubernetes) et s’inscrit dans une démarche Agile/Scrum. Le Tech Lead sera responsable de l’architecture, de la performance des services back-end, et de l’amélioration continue des processus de développement. Leadership technique & Architecture Concevoir et valider l’architecture technique des solutions (back-end, BDD, ETLs). Superviser les revues de code (Python) et garantir le respect des bonnes pratiques. Optimiser les performances des services back-end (FastAPI, SQLAlchemy). Piloter les déploiements sur les environnements (dev, recette, prod) via Jenkins, AWS (S3/RDS), Ansible, Kubernetes. Automatiser les tests et les pipelines CI/CD. Encadrement & Collaboration Mentorer les développeurs et développeuses pour favoriser leur montée en compétences. Participer aux cérémonies Agile (sprints, rétrospectives) et contribuer à l’amélioration des processus. Travailler en étroite collaboration avec les chefs de projet pour aligner les roadmaps techniques et fonctionnelles. Assurer une veille technologique et proposer des innovations (outils, frameworks, bonnes pratiques). Gestion des infrastructures & Qualité Administrer les outils DevOps (Jenkins, AWS, Helm, Datadog). Documenter le code et les processus techniques. * Garantir la stabilité et la scalabilité des applications en production.
Mission freelance
Responsable SysOps
Publiée le
AWS Cloud
Safe
24 mois
680-700 €
La Défense, Île-de-France
Nous recherchons un Responsable Sysops pour encadrer et animer une équipe sysops pour l'un de nos clients. Vous jouerez un rôle clé dans la gestion des infrastructures en assurant la disponibilité, la performance, l’évolutivité, la gestion de l’obsolescence, la capacité et la maitrise des coûts OnPremise, Cloud ou hybride. Rattaché(e) au responsable de l’entité, vous serez responsable hiérarchique d’une équipe d’une quinzaine de personnes (collaborateurs et prestataires) de profils techniques sysops Cloud Public et On Premise Missions principales : Encadrer et animer l’équipe Organiser et gérer la charge de l’équipe en fonction des besoins opérationnels, S’assurer du delivery de l’équipe, de sa performance et de l’atteinte des objectifs, Développer les recouvrements et la gestion des compétences, Développer et uniformiser les pratiques entre les périmètres (cloud public, cloud privé et réseau), Décliner la vision stratégique, Encourager la collaboration au sein de l’équipe et favoriser l’engagement, Organiser des points de suivi avec les lead et l’équipe. Suivre les collaborateurs Gérer les relations avec les ESN Gérer des KPIs, SLAs et reporting Définir et suivre des KPIs par rapport aux objectifs DSI Définir et suivre un reporting organisationnel Gérer et Suivre les SLAs et la qualité de service Gérer le budget et le suivi des ressources Construction et suivi budgétaire, respect du nombre de jours, Gestion des demandes d’achat, Gestion des relations avec les ESN, Participation aux entretiens de recrutement, Suivi des imputations d’activités/projets. Compétences techniques requises : Bonnes connaissances des infrastructures OnPremise (compute, stockage, backup, virtualisation, réseaux, … ) et Cloud Public (AWS, architecture, services managés)
Mission freelance
Développeur Microsoft 365/Sharepoint Online H/F
Publiée le
.NET
Azure
React
3 ans
La Défense, Île-de-France
Télétravail partiel
1. Descriptif du poste Au sein du Pôle Corporate Solutions de la DSI du client, le Senior Developer Microsoft 365 / SharePoint Online prend en charge le développement et la maintenance des outils au sein de la plateforme Microsoft 365. Les clients représentent les fonctions Corporate de la société dont le Pôle est le garant de l’adéquation de leurs outils informatiques à leurs besoins. Les activités dominantes du candidat sont les suivantes : Administration, conception et développement d’applications s’intégrant dans l’écosystème Microsoft 365 (SharePoint Online, Teams, Power Platform, Azure) Participation aux projets de migration SharePoint On Premise vers Microsoft 365/SharePoint Online en mode agile Participer aux cérémonies Agile (Backlog definition, Sprint Planning, Daily Meetings et Sprint Retrospective) Assistance aux équipes projets dans les domaines suivants : Définition et mise en oeuvre des best practices de développement (Clean code, TDD, BDD, nUnit, Pair Programming…) Aide au choix des technologies Mise en uvre de l’industrialisation associée (CI/CD : GitHub, Terraform, Azure) Définition d’infrastructure as Code (Terraform) Elaboration de la stratégie de test Développement de webservices Restfull (.NET) compatible openAPI et leur intégration avec les autres applications du SI Développement d’app customizer, de composants front et formulaires à façon sur SharePoint. Configuration et Design autour des fonctions avancées de SharePoint Rédaction et mise à jour de la documentation technique des applications Lien avec les autres équipes de la maîtrise d' uvre ou de l’assistance à maitrise d’ouvrage. 2. Profil et compétences Le Senior Developer Microsoft 365 / SharePoint Online devra travailler dans l’environnement technique suivant dont il devra maitriser les technologies. Environnement technique Ce poste s'adresse à un profil expérimenté (entre 8 et 10 ans d’expérience), capable de prendre en main rapidement et en autonomie le code et le fonctionnel associé et ayant impérativement une expérience significative de développement et d’administration technique sur les environnements suivants :
Offre d'emploi
QA / Performance Testing Engineer
Publiée le
QA
1 an
Rouen, Normandie
Télétravail partiel
Vous souhaitez évoluer sur des projets techniques orientés qualité et performance applicative ? Alors, nous avons la mission qu'il vous faut ! Au sein d’une équipe Scrum, vous êtes responsable des tests de performance et de la qualité globale des applications. Vous collaborez étroitement avec les équipes développement, DevOps et infrastructure dans des environnements cloud complexes. Vos missions : Concevoir et exécuter des tests de performance (charge, stress, endurance) avec LoadRunner Définir les scénarios de tests à partir des cas d’usage métier Définir et suivre les KPIs de performance Analyser les résultats, identifier les limites systèmes et proposer des optimisations Rédiger et présenter les rapports de tests aux équipes Scrum Participer à l’automatisation des tests fonctionnels et non fonctionnels (Robot Framework) Développer des tests automatisés API et UI Exécuter des tests fonctionnels, de régression et d’intégration Environnement technique : LoadRunner • Tests de performance • Automatisation (API/UI) • Robot Framework • Python • Cloud • Agile / Scrum
Offre d'emploi
QA / Performance Testing Engineer
Publiée le
QA
1 an
Paris, France
Télétravail partiel
Vous souhaitez évoluer sur des projets techniques orientés qualité et performance applicative ? Alors, nous avons la mission qu'il vous faut ! Au sein d’une équipe Scrum, vous êtes responsable des tests de performance et de la qualité globale des applications. Vous collaborez étroitement avec les équipes développement, DevOps et infrastructure dans des environnements cloud complexes. Vos missions : Concevoir et exécuter des tests de performance (charge, stress, endurance) avec LoadRunner Définir les scénarios de tests à partir des cas d’usage métier Définir et suivre les KPIs de performance Analyser les résultats, identifier les limites systèmes et proposer des optimisations Rédiger et présenter les rapports de tests aux équipes Scrum Participer à l’automatisation des tests fonctionnels et non fonctionnels (Robot Framework) Développer des tests automatisés API et UI Exécuter des tests fonctionnels, de régression et d’intégration Environnement technique : LoadRunner • Tests de performance • Automatisation (API/UI) • Robot Framework • Python • Cloud • Agile / Scrum
Mission freelance
Administrateur bases de données
Publiée le
Azure
Datadog
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un expert Base de donnée afin de compléter l'équipe Architectes Techniques de la direction Infrastructures et Technologies. La mission se déroulera sur un rythme de 2 à 3 jours par semaine. Les principales missions seront en collaboration avec notre partenaire infogéreur: - Concevoir les architecture Base de Données Oracle sur un environnement vmware (Standard Edition / Enterprise Edition) - Concevoir les mécanismes de réplication et de haute disponibilité et pour une autre partie concevoir l'architecture DRP - Mettre en place l'automatisation pour le déploiement de cette infrastructure Oracle (Infrastructure As Code) - Accompagner les équipes "applications" dans la résolution des incidents notamment de performance - Concevoir les solutions de monitoring Environnement Techniques: - Oracle - Offre PaaS DBsur Azure (PostgreSQL, Mysql, Mariadb, MangoDB) - Azure / GCP / OVH (Vmware) Des connaissances souhaitées dans ces technologies: - Terraform ou Vmware (Cloud Assmbly, Code Stream, Service Broker) - Datadog/Dynatrace/appdynamics/Splunk/Instana
Mission freelance
Développeur EBX Senior
Publiée le
Apache Kafka
API REST
AWS Cloud
3 mois
480-520 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Offre d'emploi
Ingénieur Cloud AWS - Lyon
Publiée le
AWS Cloud
CI/CD
Linux
6 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Un client final européen en pleine croissance recherche un Ingénieur Cloud pour renforcer son équipe en charge de l’hébergement et du MCO des applications SaaS. Le rôle inclut la supervision des environnements AWS, l’optimisation des infrastructures, l’automatisation (Terraform), la création et gestion de modules CI/CD, la gestion des incidents, la standardisation des solutions et la veille technologique. Expertise Linux, industrialisation, conteneurs, CI/CD et performance requise, avec un fort sens de l’excellence opérationnelle.
Mission freelance
Ingénieur(e) Tests de Performance Cloud Azure
Publiée le
Azure
Performance testing
1 an
Paris, France
Télétravail partiel
Nous recherchons un(e) Ingénieur Performance expérimenté(e) pour assurer le test et l’optimisation des performances de nos applications et infrastructures hébergées sur le cloud Azure. Vous serez responsable de la conception, de l’exécution et de l’analyse des tests de performance, ainsi que de la mise en place des scénarios de charge adaptés aux besoins métiers. Missions principales : Concevoir, paramétrer et exécuter des tests de performance sur des applications et services cloud (Azure). Réaliser des tirs de tests et ajuster les scénarios en fonction des résultats. Identifier les goulets d’étranglement et proposer des recommandations d’optimisation. Collaborer avec les équipes de développement et d’infrastructure pour améliorer les performances globales. Automatiser et maintenir les scripts de tests et les environnements de test. Produire des rapports clairs et détaillés pour la direction et les équipes techniques. Profil recherché : Concevoir, planifier et exécuter des tirs de tests de performance (charge, stress, endurance, scalabilité) sur les applications hébergées dans le cloud Azure. Définir les scénarios de test (volumétrie, profils d’utilisateurs, pics de charge, cas dégradés) en collaboration avec les équipes produit, développement et exploitation. Mettre en œuvre et industrialiser les outils de test de performance : Outils Azure : Azure Load Testing, Azure Monitor, Application Insights, Log Analytics, tableaux de bord. Outils de test de charge : JMeter, Gatling, k6 (ou équivalents) intégrés dans la chaîne CI/CD. Analyser les résultats des tirs de tests (temps de réponse, taux d’erreur, consommation CPU/RAM, I/O, saturation réseau, comportement des services managés Azure) et produire des rapports clairs et exploitables. Identifier les goulots d’étranglement de performance, proposer des optimisations (dimensionnement des ressources, mise en cache, configuration des services PaaS, optimisation des requêtes) et suivre leur mise en œuvre. Mettre en place des bonnes pratiques de tests de performance sur Azure (standardisation des scénarios, seuils d’alerte, automatisation des tirs récurrents, monitoring en continu). Maîtrise des outils de test de performance (JMeter, Gatling, Locust, etc.). Connaissance approfondie du cloud Azure (services PaaS, IaaS, monitoring, scalabilité). Compétences en scripting (Python, PowerShell, Bash…) et paramétrage de tests. Capacités d’analyse, rigueur et esprit d’équipe. Atouts supplémentaires : Expérience en CI/CD et intégration des tests de performance dans le pipeline. Connaissances en sécurité et en résilience des applications cloud. Environnement de travail : Projet innovant sur le cloud Azure. Équipe agile et collaborative. Opportunités de montée en compétences et certifications cloud.
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
649 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois