L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 280 résultats.
Offre d'emploi
Développeur Data (Bordeaux)
Publiée le
Apache Kafka
DBT
Microsoft Power BI
3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Offre d'emploi
4 Missions - Cloud & DevOps – Freelance / Portage - Lille - Longue durée
Publiée le
AWS Cloud
Cloud
Google Cloud Platform (GCP)
3 ans
40k-50k €
100-460 €
Lille, Hauts-de-France
Télétravail partiel
Pour l’un de mes clients, je recherche pour 4 missions ouvertes à Lille : CloudOps Engineer : Kubernetes, Terraform, AWS/GCP, scripting (Bash/Python/Go) DevOps AWS : Data Platform multi-cloud, AWS EKS, Terraform, Python (API REST), CI/CD Développeur Cloud Sénior : GCP, Terraform, Python, GitOps, développement plateforme interne DevOps Réseau / Public Network : Terraform, Python, GCP/AWS, sécurité (Firewall, DNS, WAF, LB) Conditions : Freelance ou portage salarial ( accompagnement possible sur votre passage en portage ) Mission longue (3 ans) Disponibilité max 1 mois Présence 3 jours/semaine sur Lille (non négociable) 3‑5 ans d’expérience sur un rôle similaire ou plus Si vous êtes intéressé et que votre profil correspond à la demande, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.
Mission freelance
Expert Système- DevOPS Exadata- N4
Publiée le
Oracle
18 mois
100-450 €
Toulouse, Occitanie
Télétravail partiel
CONTEXTE Objectif global : Administrer DevOPS Exadata MISSIONS - Assure l'expertise de son domaine. - Assure l'ingénierie d'installation et de paramétrage de plates-formes simples ou complexes. - Coordonne le cas échéant les différents acteurs qui interviennent dans le processus d'installation. - Assure le bon fonctionnement des systèmes d'information en prenant en compte la disponibilité des Infrastructures système, la correction des incidents et le maintien en condition opérationnelle des infrastructures dans un objectif de qualité, de productivité et de sécurité. - Conçoit, développe et intègre les capacités techniques s'appuyant sur les produits de son domaine d'expertise - Assure l'ingénierie, lors de la construction/installation/paramétrage des plates-formes techniques dans le cadre des projets (BUILD) : - Peut être amené à participer à l'installation des infrastructures ou produits, le paramétrage et la validation des composants de l'infrastructure - Coordonne le cas échéant les différents acteurs qui interviennent dans le processus d'installation - Assure le bon fonctionnement des plates-formes techniques (RUN) : - Garantit la disponibilité des ressources techniques - Intervient, en expertise de Niveau 3 sur les incidents complexes de fonctionnement - Réalise des diagnostics pour identifier les causes de dysfonctionnement et propose des corrections et des solutions de contournement - Définit et met en œuvre les règles de bonne gestion et d'exploitabilité des systèmes ou produits et les qualifie d'un point de vue technique - Contribue à la réalisation des actions de capacity planning voire en assure la responsabilité sur délégation de son responsable 2 - Propose des solutions pour améliorer les performances des systèmes - Assure l'expertise de son domaine, propose et gère les évolutions en adéquation avec les besoins fonctionnels ou techniques : - Assure l'interface avec les experts des autres domaines. - Vérifie l'application des normes (sécurité informatique, qualité?). - Garantit la bonne implémentation des produits pour atteindre le bon niveau de qualité de service en cohérence Description actuelle du projet Le service "Bases de Données Oracle EXADATA" au sein de la Direction "Infrastructures Applicative" recherche un profil Expert système Oracle pour renforcer ses équipes : - Compétences techniques attendues : Compétence sur le Scripting ksh et Python, l'automatisation indispensable (Ansible) Expérience sur les workflows CI/CD ( Jenkins ) et les déployements via XLDeploy La maitrise des Systèmes d’Exploitation (Unix/Linux en particulier) sera également demandée. Cette expérience, obtenue sur une durée significative (minimum six ans) en contexte de Production, lui aura permis de maitriser tous les aspects de l’exploitation de cette solution: installation des moteurs bases de données, mise à niveau, administration, amélioration des performances, gestion de la sécurité, support aux utilisateurs, gestion et configuration de la haute disponibilité (cluster, réplication). - Compétences complémentaires: La candidate/Le candidat devra posséder une bonne connaissance infra des moteurs Oracle en cluster RAC. Connaissance de RMAN, ASM, RAC, Dataguard appréciées. Une bonne expérience d’un outil de supervision (Zabbix, …) serait également appréciée. Connaissance des appliance EXADATA et ZDLRA serait un plus. - Le candidat devra échanger avec des experts, des chefs de projet, des architectes. Il devra avoir d'excellentes compétences de communication à l'oral comme à l'écrit. - Des astreintes régulières (toutes les 8 semaines environ) et opérations en HNO sont à prévoir. Compétences techniques : Maitrise des outils d'automatisation (Ansible...) - Confirmé - Impératif Maitrise des outils CI/CD DevOPS ( Jenkins ... ) - Confirmé - Impératif Compétences système Linux ( RHEL / OracleLinux ) - Confirmé - Impératif Oracle (RAC) et EXADATA - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif)
Mission freelance
OPS Engineer Sénior
Publiée le
Python
18 mois
100-500 €
Lille, Hauts-de-France
Télétravail partiel
CONTEXTE Nous recherchons un profil DEVOPS/SYSOPS disposant d'une solide expérience sur AWS pour accompagner notre équipe Plateform Execution, dans la gestion des EC2, mail, transfert de fichiers ... Dans le rôle demandé, il est important d’avoir un profil en capacité : - de travailler au quotidien avec les équipes de delivery - d’assurer la gestion et le maintien en condition opérationnel de la production - de participer aux activités transverses de l'équipe d'OPS Engineer MISSIONS Concevoir, déployer et maintenir l'infrastructure cloud via Terraform (AWS) - Automatiser les processus de déploiement et de scaling d'infrastructures Kubernetes (EKS) - Garantir la haute disponibilité du service en production - Mettre en place la supervision et le monitoring du service via l'outil de monitoring (Datadog) - Mettre en œuvre des stratégies de sécurité et de conformité dans les pipelines IaC - Implémenter et maintenir la gestion du trafic, la sécurité applicative et la protection via Cloudflare - Maintenir le produit selon les évolutions (sécurité, obsolescence, mises à jour...) du groupe SCTS - Collaborer avec les équipes de développement pour optimiser les CI/CD (GitLab CI) - apporter son aide dans le suivi et les optimisations FINOPS des composants - du run - s’assurer du bon fonctionnement de la production et veiller à l'opérabilité du monitoring - assurer le maintien en condition opérationnelle de l'infrastructure - réaliser les actions d'amélioration continue - participer à l'analyse d'incident Contribution à la vie de l'équipe et du projet : - être acteur des cérémonies agiles - participer à la réalisation des éléments du backlog - être force de proposition sur l'amélioration continue Livrables • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Compétences •Maîtrise avancée de Terraform (modules, expressions, state management) • Expérience prouvée dans le déploiement d'infrastructures cloud (AWS) • SSM • Ansible • Linux (root) • LDAP • RPM • Athena • SMTP/MAIL • Cloudformation • Maîtrise des outils de supervision et de monitoring (Datadog) • Expérience dans la configuration de services Cloudflare • Connaissance opérationnelle de Kubernetes (EKS, déploiements, networking, opérateurs) • Profil techniquement polyvalent et concerné par la maîtrise d'incidents. • Connaissance en production • Bonne capacité à travailler en équipe. • Force de proposition. • Autonomie. • Esprit d’analyse et de synthèse. • Communication. Compétences clés obligatoires : AWS, Linux, Gitlab, Python et Terraform
Mission freelance
Tech Lead Azure
Publiée le
Architecture ARM
Azure
Azure DevOps
12 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
Contexte de la mission Durée : Longue mission, jusqu’à fin 2026 Localisation : La Défense (2 jours sur site / 3 jours en remote) Langue : Anglais courant requis Rôle et responsabilités : Le Tech Lead Azure agit comme référent technique sur les projets cloud, garantissant le respect des standards et bonnes pratiques. Il accompagne les Chefs de projet cloud dans la compréhension et la prise de décision technique, sans management direct, mais avec un rôle de conseil, cadrage et expertise . Principales responsabilités : Lire, analyser et challenger les designs d’architecture cloud. Faire des recommandations techniques sur les solutions PaaS, réseaux et cloud native. Guider les Chefs de projet sur les enjeux techniques tout en respectant leur rôle. Proposer des solutions d’automatisation, outillage et industrialisation. Assurer l’application des standards de gouvernance. Intervenir sur des projets non cadrés pour leur donner une trajectoire claire. Avoir une vision globale des projets cloud et contribuer à la priorisation. Compétences techniques : Expertise très sénior sur Azure : PaaS, réseau, gouvernance. Connaissances DevOps, Terraform et automatisation. Forte capacité à lire, analyser et challenger des designs d’architecture cloud. Compétences comportementales : Capacité à vulgariser et accompagner des profils non-techniques. Posture de conseil et d’accompagnement plutôt que de management direct. Vision globale et capacité à prioriser les initiatives cloud.
Offre d'emploi
Ingénieur Intelligence Artificielle / Data Scientist (H/F)
Publiée le
Docker
Natural Language Processing (NLP)
PySpark
3 ans
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un(e) Ingénieur(e) en Intelligence Artificielle / Data Scientist pour structurer et porter nos projets IA, en collaboration étroite avec les équipes R&D, produit et en réponse aux besoins clients. Vous intégrez une équipe Tech d’une vingtaine de personnes, organisées en squads produits, et serez impliqué(e) sur l’ensemble du cycle de développement, aux côtés des Tech Leads et Architectes, avec une réelle influence sur les choix d’architecture. Selon vos envies, vous pourrez aussi contribuer aux comités transverses R&D (technique, agile, innovation...). Projets en cours : Analyse automatique de documents réglementaires (NLP + NER) Génération automatisée de workflows, formulaires et rapports intelligents Intégration d’agents IA dans l’interface utilisateur Déploiement de moteurs de recherche sémantique (RAG hybride, reranking, vector search…) Stack technique : IA / Data : Python, Pandas, Scikit-learn, Hugging Face, FastAPI, OpenAI API, PyTorch, TensorFlow (ouvert à d’autres outils) Bases de données : MariaDB, PostgreSQL, MongoDB, Elasticsearch, bases vectorielles (Chroma, Activeloop…), graphes (Neo4J…) DevOps : Docker, Swarm > Kubernetes, GitLab CI/CD Environnement général : PHP / Symfony, Vue.js 3 / TypeScript, Jira, Confluence, architecture microservices Profil recherché : Diplôme Bac+5 en informatique, mathématiques appliquées, IA ou équivalent (école d’ingénieur ou université) Minimum 3 ans d’expérience en Data Science, modélisation et intégration technique, avec idéalement des projets IA à votre actif Compétences techniques essentielles : Maîtrise avancée de Python et des principaux outils IA, Data Science, Machine Learning Bonne compréhension des enjeux liés aux produits SaaS BtoB (performance, robustesse, monitoring) Solides compétences en SQL et gestion de bases relationnelles Maîtrise des bases de données vectorielles (Chroma, Activeloop…) et techniques d’embedding (Word2Vec, GPT…) Connaissance des techniques NER, embeddings, chain of thought, RAG, function calling… Familiarité avec les environnements cloud (Azure, Google Cloud, AWS) Atouts supplémentaires : Connaissance des éditeurs de code assisté par IA (Cursor, Github Copilot) Expérience avec les bases orientées graphes (Neo4J, OrientDB…) Connaissances web PHP / Symfony / Vue.js / TypeScript Vous souhaitez relever des challenges techniques ambitieux et rejoindre une équipe dynamique au cœur d’un projet innovant ? Ce poste est fait pour vous !
Mission freelance
Devops Openstack H/F
Publiée le
DevOps
OpenStack
1 an
400-560 €
Paris, France
Télétravail partiel
De nombreuses « Feature Teams » sont mises en place afin de développer les services de la plate-forme Cloud Mondiale d'un grand groupe du secteur bancaire. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Développements d'API en Python 3 - L'approche "fail fast and iterative" - Delivery Scrum - Testing et déploiement automatique Expertises attendues : • OpenStack Ops, automation & development (60%) • Tools and internal software development (40%) • Linux Operating System. Concepts of Networking, Bridges, File system, KVM • OpenStack and its components : Nova, Neutron, Cinder, Glance, keystone, Heat, kolla-ansible • Ceph storage implementation as our OpenStack storage backend • In-depth working of all the components and troubleshooting • Git & GitHub, CI-CD Pipeline, Jenkins, Ansible, Containers (Docker and Kubernetes) • Base integration with OpenStack like AD/LDAP, Storage, Network, Monitoring, Logs management tools • OpenStack VM Day 2 Operations and support • Installation and configuration of HP / Dell Rack servers • Development of modules / programs using Python
Offre d'emploi
DevOps – Data & BI
Publiée le
CI/CD
DevOps
GitLab CI
5 mois
42k-46k €
450-550 €
Île-de-France, France
Télétravail partiel
Objectif de la mission Renforcer l’équipe en charge d’une plateforme de visualisation et de traitement de données internes. Le consultant DevOps interviendra sur la conception, le développement, l’automatisation et le maintien en condition opérationnelle des moyens de déploiement, tout en assurant la surveillance et la gestion des composants de la plateforme BI. Responsabilités principales Concevoir et maintenir des pipelines de déploiement automatisés (CI/CD). Développer et maintenir des scripts (PowerShell, Python) pour automatiser les tâches de déploiement, monitoring et gestion des environnements. Surveiller la disponibilité et la performance des services (SQL Server, SSAS, Power BI). Gérer la configuration, la mise à jour et le suivi des composants techniques. Contribuer à l’amélioration continue des pratiques DevOps et des outils associés. Collaborer avec les équipes de développement, BI et infrastructure pour assurer la fluidité des déploiements et le respect des standards qualité.
Mission freelance
Ingénieur de production – prod GCP- N3
Publiée le
Azure
18 mois
100-350 €
Paris, France
Télétravail partiel
CONTEXTE : Participer à la construction d'applications sur GCP Contrainte forte du projet : Plateforme Data Groupe (CDPG) Production Data Métiers est une équipe jeune et dynamique composée de 11 personnes. Nous souhaitons renforcer notre équipe avec un/un(e) ingénieur(e) de production. MISSIONS Voici les principales missions qui lui seront confiées : - Contribuer à la stratégie de développement de projets sur GCP - Contribuer à développer l'automatisation et l'intégration continue (CI/CD/CC) - Contribuer à la gestion des flux de fichiers via des outils de type CFT - Assurer un support opérationnel aux utilisateurs - Participer aux projets techniques GCP - Assurer la gestion des environnements Hors-Production et Production - Assurer le bon fonctionnement des applications métiers - Gérer et résoudre les incidents de niveau 2 avec diagnostic et recommandations - Rédiger les procédures et documentations - Développer des scripts Une très bonne connaissance du cloud est attendue, notamment Google Cloud Platform. La connaissance de la filière DEVOPS avec notamment XL-Deploy, XL-Release, Jenkins sera un atout indéniable. Il/elle a des connaissances solides en développement de scripts en Shell et Python et les environnements Linux lui sont familiers. La connaissance de l'ordonnanceurs Control-M sera fortement appréciée. Il/elle devra être curieux(se) et motivé(e). Prendre des initiatives dans un cadre établi sera incontestablement un grand attendu. Compétences techniques : Cloud GCP/Azure - Confirmé - Impératif XLR/XLD - Expert - Important Control M - Confirmé - Important Développement Shell et Python - Confirmé – Important Connaissances linguistiques : Anglais Professionnel (Impératif) Français Courant (Impératif)
Offre d'emploi
Consultant DEVOPS
Publiée le
Administration linux
Docker
ELK
1 an
40k-51k €
320-500 €
Paris, France
Client : Public Lieu de mission : Paris Poste : Consultant DevOps Durée mission : longue Seniorité : +5 ans Date de démarrage : ASAP Missions principales Concevoir, mettre en œuvre et maintenir des pipelines CI/CD robustes (GitLab CI, GitHub Actions, Jenkins, Azure DevOps, Bamboo). Automatiser la création et la gestion d’infrastructures via des outils d’ Infrastructure as Code (Terraform, Ansible, Puppet, Chef, Pulumi). Accompagner les équipes de développement dans la conteneurisation et l’orchestration ( Docker, Kubernetes, OpenShift, Rancher, Helm ). Déployer et administrer des environnements Cloud (AWS, Azure, GCP, OVH, Scaleway). Assurer la supervision, le monitoring et l’alerte via des solutions Observabilité (Prometheus, Grafana, ELK/Elastic Stack, EFK, Splunk, Datadog, New Relic, AppDynamics). Intégrer la sécurité by design dans les pipelines (DevSecOps, Snyk, SonarQube, HashiCorp Vault, Aqua Security, Prisma Cloud). Mettre en place des solutions de scalabilité et de haute disponibilité (HAProxy, Nginx, Istio, Linkerd, Service Mesh). Contribuer à l’optimisation de la performance, de la résilience et des coûts des environnements Cloud et on-premise. Participer à la culture SRE (Site Reliability Engineering) et à l’industrialisation des bonnes pratiques DevOps. CI/CD : GitLab CI/CD, GitHub Actions, Jenkins, Azure DevOps, Bamboo, CircleCI OS : LINUX Conteneurisation & Orchestration : Docker, Kubernetes, OpenShift, Rancher, Helm, Istio IaC & Configuration Management : Terraform, Ansible, Puppet, Chef, Pulumi Cloud : AWS (EC2, EKS, Lambda, CloudFormation), Azure (AKS, DevOps, Functions), GCP (GKE, Cloud Build, Cloud Run), OVH, Scaleway Monitoring & Logging : Prometheus, Grafana, ELK/EFK Stack, Splunk, Datadog, New Relic Sécurité & DevSecOps : SonarQube, Snyk, HashiCorp Vault, Aqua Security, Prisma Cloud, Falco Networking & Middleware : Nginx, HAProxy, Traefik, Kong, RabbitMQ, Kafka Langages & Scripting : Python, Bash, Go, PowerShell, Groovy, YAML
Mission freelance
Devops senior - Azure/OVH/Linux - Full remote - H/F
Publiée le
Ansible
Azure
Grafana
90 jours
480-520 €
France
Télétravail 100%
Contexte de la mission Rejoignez une entreprise innovante dans le secteur digital, en pleine transformation et croissance de son infrastructure. Basée à distance avec des activités de production hébergées principalement sur OVH et des environnements non-produits sur Azure, notre société recherche un DevOps Senior pour intégrer une équipe dynamique. Actuellement composée d'un junior, six administrateurs systèmes avec un accent sur l'automatisation, et soutenue par un DBA, l'équipe est en expansion. Le départ imminent d'un expert senior crée une opportunité unique d'apporter vos compétences techniques pointues à cette mission critique. Votre rôle sera central pour soutenir l'évolution de l'infrastructure et assurer la stabilité des projets en cours. Cette mission DevOps Senior est idéale pour les professionnels aimant les challenges techniques et ayant une forte autonomie. Missions principales : - Prendre en charge la réarchitecture de l'infrastructure sur OVH - Assurer la passation avec le profil sortant - Participer activement à l'automatisation des opérations, incluant gestion des certificats et secrets. - Développement et optimisation d'outils internes en Python - Evolutions Ansible et Terraform - Collaborer avec l'équipe existante pour raffiner le monitoring et éviter les alertes inutiles. - Soutenir le DBA dans l'amélioration de l'hébergement des bases de données. Environnement technique : - Plateformes : OVH pour la production, Azure pour les environnements hors production. - Intégrations : HAProxy, Prometheus, Loki, Grafana, PostgreSQL.
Mission freelance
Chef de projet technique H/F
Publiée le
GitLab CI
Jenkins
Kubernetes
6 mois
450-500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Responsable des environnements et socles techniques H/F (freelance). Localisation : Niort (79). Profil : > 5 ans. TJ : 450€ à 500€. Date de démarrage : ASAP. L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Alors, vous nous rejoignez ?! Les missions : · Maintenir et optimiser les environnements de développement, recette, homologation et formation afin de garantir la qualité des livraisons et la fiabilité des mises en production. · Assurer le suivi de l’exploitation et veiller à la performance et à la conformité des environnements. · Piloter la feuille de route des sujets techniques suivants en appui avec les membres de l’équipe : - Mise en œuvre du DevOps - Forge logicielle - Bonnes pratiques de développements - Outillage pour les développeurs (puits de logs, qualité du code …) Responsabilités clés : è Mise en place des environnements et être force de proposition sur la rationalisation · Définir les besoins techniques pour chaque environnement (développement, recette, homologation et formation) · Piloter les installations, configurations et veiller à documenter les environnements · Veiller à l’automatisation des déploiements et les configurations (CI/CD, scripts, outils DevOps) è Qualité et préparation des versions · Participer aux comités de version et aux jalons projet · Garantir la cohérence entre les environnements et la production · Valider les livrables techniques avant mise en production · Mettre en œuvre des tests d’intégration et de non-régression è Suivi de l’exploitation · Surveiller les performances et la disponibilité des environnements · Assurer le maintien en conditions opérationnelles (MCO) · Gérer les incidents et les demandes d’évolution · Mettre à jour les environnements en fonction des évolutions applicatives è Coordination et communication · Travailler en étroite collaboration avec les équipes de développement, test, infrastructure et sécurité · Rédiger les procédures et les guides d’exploitation · Participer aux audits et aux contrôles qualité Suivre et piloter les travaux d’une équipe pluridisciplinaire
Offre d'emploi
Expert Cloud / DevOps – IBM Cloud, Kubernetes, Terraform, OpenShift
Publiée le
Cloud
Cloud Provider
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission L’objectif : renforcer l’équipe transverse d’experts pour accélérer la migration, l’industrialisation et la sécurisation des applications sur un Cloud privé Missions principales Participer à la migration des applications vers le Cloud et en assurer le support de niveau expert. Tester, valider et documenter les nouveaux services Cloud proposés au sein de la plateforme. Concevoir et maintenir des outils d’automatisation destinés aux équipes IT OPS (Python / Shell). Assurer le support technique et accompagner les IT OPS dans la construction et le déploiement de nouvelles applications Cloud. Être le point d’entrée N2 Cloud pour la gestion des incidents et problèmes liés aux infrastructures Cloud. Contribuer à la sécurisation, à la résilience et à la qualité des déploiements Cloud. Participer à la gestion des environnements Cloud (images Docker, Helm Charts, comptes IBM, Vault, subnets, policies, certificats, etc.). Définir les bonnes pratiques Cloud-native , et contribuer à l’ industrialisation via une approche As Code . Accompagner la montée en compétences des équipes IT OPS sur les technologies Cloud. Compétences techniques requises Expertise confirmée sur les environnements Cloud publics ou privés Maîtrise avancée des environnements Kubernetes , OpenShift , Terraform , Vault , Docker , Helm , ArgoCD . Bonne connaissance des outils CI/CD : GitLab CI, Jenkins, Ansible Tower, ELK. Solides compétences en scripting et automatisation (Python, YAML, Shell). Connaissance des services as code : MongoDB , PostgreSQL , CFT , MQ , etc. Expérience en CloudOps / SRE et sur des applications critiques en environnement Cloud-native . Compétences humaines et comportementales Excellente communication et capacité à vulgariser des sujets techniques complexes. Esprit d’équipe et forte orientation collaboration et support . Rigueur, autonomie et sens de la priorisation dans un contexte transverse. Capacité d’adaptation et d’apprentissage continu sur de nouvelles technologies Cloud.
Mission freelance
Développeur Python FAstAPI ( H/F)
Publiée le
FastAPI
PHP
Python
3 mois
450-550 €
Issy-les-Moulineaux, Île-de-France
Télétravail 100%
Teksystems recherche plusieurs profils de confirmés (H/F) pour une mission en freelance chez l’un de nos clients grand compte. Les profils participeront au développement et à la migration des services backend critiques, en collaboration étroite avec les équipes permanentes et les autres prestataires du programme. Responsabilités Principales Développement de services backend en architecture microservices Migration progressive des APIs legacy vers les nouveaux services Implémentation des systèmes d'authentification et d'autorisation Développement d'APIs REST/GraphQL avec maintien de la compatibilité Participation à la montée en charge progressive du trafic Optimisation des performances et mise en place du monitoring Collaboration étroite avec les équipes Product et DevOps Stack Technique Backend : Python, FastAPI, PHP (legacy) APIs : REST, GraphQL, OpenAPI Infrastructure : Docker, Kubernetes Databases : MySQL, MongoDB, Elasticsearch Messaging : RabbitMQ, Celery Auth : OAuth, JWT, RBAC Monitoring : Datadog CI/CD : Jenkins, GitOps
Offre d'emploi
TECH LEAD DevOps
Publiée le
Ansible
DevOps
Docker
1 jour
40k-80k €
400-650 €
Paris, France
Télétravail partiel
Client : PUBLIC Postes : TECH LEAD DevOps Expérience : +8 ans Localisation : Paris Deadline réponse : ASAP Démarrage : ASAP Durée : Longue Nous recherchons un Tech Lead DevOps expérimenté pour accompagner la transformation et l’industrialisation de nos équipes. Vous serez le référent technique de l’équipe DevOps et aurez un rôle clé dans la définition de l’architecture, la mise en place des bonnes pratiques et le pilotage des projets stratégiques Vos missions principales En tant que Tech Lead DevOps, vous serez en charge de : Définir et faire évoluer l’architecture CI/CD, du design à l’industrialisation. Piloter et encadrer une équipe DevOps (mentorat, code review, accompagnement technique). Déployer et administrer des infrastructures Cloud (AWS, Azure, GCP) et On-Premise (VMware, Kubernetes, OpenShift). Automatiser les déploiements et la configuration via Terraform, Ansible, Helm, Puppet, Chef. Superviser la sécurité des pipelines (secrets management, scans de vulnérabilités, compliance). Garantir la disponibilité, la performance et la scalabilité des environnements. Participer aux choix technologiques et à la veille sur les solutions DevOps/Cloud. Collaborer avec les équipes de développement, sécurité et infrastructure. Stack technique recherchée CI/CD : GitLab CI, Jenkins, GitHub Actions, ArgoCD Conteneurs & Orchestration : Docker, Kubernetes, OpenShift, Rancher Cloud : AWS, Azure, GCP Infrastructure as Code (IaC) : Terraform, Ansible, Helm, Pulumi Systèmes : Linux (Debian, RedHat), Windows Server Monitoring & Observabilité : Prometheus, Grafana, ELK, Datadog Sécurité : Vault, SonarQube, Snyk, Trivy Langages & Scripting : Python, Bash, Go, Groovy Profil recherché Minimum +8 ans d’expérience en DevOps dont au moins 2 ans en tant que Tech Lead / Référent technique Forte expertise sur CI/CD, conteneurisation, cloud et automatisation Leadership technique : capacité à fédérer, mentorat d’équipe Bonne communication et sens du service Capacité à travailler dans des environnements Agile/Scrum
Offre d'emploi
Data Engineer
Publiée le
Azure
DevOps
Microsoft Fabric
6 mois
Paris, France
Télétravail partiel
Mission Data Engineer Client: Secteur Minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum (renouvelable) Démarrage : Dès que possible Équipe à taille humaine Contexte de la mission Dans le cadre d’un vaste programme de transformation data, notre client – un acteur international du secteur des minéraux – déploie une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination du programme, Tech Enablers : mise en place des briques techniques de la plateforme, Data Use Cases : livraison de cas d’usage métiers concrets à forte valeur ajoutée. L’objectif est double : Livrer 2 à 3 cas d’usage prioritaires , Implémenter une plateforme data moderne , basée sur Microsoft Fabric et intégrée à l’écosystème Azure , tout en instaurant une gouvernance agile (Scrum, PI Planning). Rôle : Data Engineer Vous interviendrez au sein de l’équipe Data pour : Concevoir et développer les pipelines d’ingestion, de transformation et de mise en qualité des données , Gérer les flux de données batch et streaming , Optimiser les performances et la robustesse des traitements, Collaborer avec les équipes architecture , delivery et use cases pour assurer la cohérence de bout en bout, Contribuer à la mise en place des bonnes pratiques DevOps / DataOps dans un environnement agile. Compétences recherchées Techniques : Développement de pipelines de données (batch & streaming), Formats : Parquet, JSON, Delta, Maîtrise de l’écosystème Azure / Microsoft Fabric , Bon niveau en SQL et Python , Outils : Spark , Databricks , Azure Data Factory , Git , Docker , Airflow , Méthodologiques : Environnement Agile / Scrum , avec participation aux cérémonies PI Planning , Connaissance des pratiques DevOps / DataOps , Langues : Anglais courant obligatoire (environnement international). Profil recherché Data Engineer confirmé , avec 3 à 5 ans d’expérience dans des environnements cloud et data modernes, Esprit d’équipe, sens de l’organisation, autonomie et rigueur.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
280 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois