L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 407 résultats.
Mission freelance
Mission Freelance – Data Engineer Confirmé / Sénior
Publiée le
Python
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Missions Concevoir et maintenir des pipelines de données robustes et performants. Structurer et documenter les datasets (Utilisateurs, Comportements, Référentiels). Mettre en place et administrer des infrastructures data scalables . Déployer et maintenir des workflows CI/CD . Participer aux initiatives de gouvernance et qualité des données . Assurer la stabilité, la sécurité et la performance des environnements. Collaborer avec les équipes Data, Produit et Technique dans un contexte Agile. Environnement technique Langages : Python, SQL, Spark Stack : dbt, Airflow, Terraform, Terragrunt, GitLab CI/CD Cloud : Google Cloud Platform (BigQuery, Dataplex) Méthodologie : Agile (Scrum / Kanban)
Mission freelance
DATA Engineer - AWS(H/F)
Publiée le
AWS Cloud
Azure DevOps
Data Lake
1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Mission freelance
Engineer – Patching & Security
Publiée le
Ansible
Linux
MECM
6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Patch Management Piloter les cycles complets de patching sur Windows, Linux, VMware ESXi et équipements réseau Évaluer, planifier et déployer les mises à jour sécurité et performance selon les fenêtres de maintenance Assurer la conformité avec les standards sécurité internes (baseline, bonnes pratiques) 🔹 Vulnerability Remediation Travailler en lien étroit avec les équipes SOC / Vulnerability Management pour prioriser les corrections Suivre et valider la conformité des patchs (via SCCM, WSUS, Ansible, vSphere Update Manager…) 🔹 Collaboration & Communication Coordonner avec les équipes métiers pour minimiser les interruptions Préparer les audits et assurer la traçabilité pour la conformité réglementaire 🔹 Operational Excellence Maintenir une documentation claire (patch cycles, exceptions, procédures de rollback) Automatiser les déploiements quand possible Surveiller la santé de l’infrastructure post-patching 🔹 Continuous Improvement Se tenir informé des dernières vulnérabilités et recommandations sécurité Contribuer à l’ amélioration continue des processus de patching et sécurité
Mission freelance
Data Engineer - access management on Snowflake
Publiée le
Snowflake
3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Adminisitration Snowflake - Confirmé - Impératif RBAC - Confirmé - Impératif GITLAB - Confirmé - Important TERRAFORM - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée Au sein d'une Tribe Data Platform, l'équipe DATA « Data Platform Protect » (DPP) fournit des produits et des services pour gérer les accès et la protection des données sensibles (snowflake, app streamlit, etc.). Sous la responsabilité du Tech Lead Data Platform, le/la Data Engineer Snowflake « DPP » aura donc la charge de… Déployer un nouveau framework RBAC auprès des différentes Feature Teams DATA (+ 10 FT) sur leurs projets Gitlab gérant les ressources Snowflake Communiquer avec les TechLeads des Feature Teams Participer aux activités et évènements transverses de la Feature Team/Tribe, du pôle ENGINEERING ou DATA.
Mission freelance
Infra Engineer & Security– Patching
Publiée le
Administration linux
Ansible
Bash
6 mois
550-630 €
Valence, Auvergne-Rhône-Alpes
Télétravail partiel
Infrastructure Engineer – Patching & Security (Ingénieur Infrastructure – Gestion des correctifs et Sécurité) Mission principale Assurer la sécurité, la stabilité et la conformité de l’environnement IT de l’entreprise en pilotant l’ensemble des activités liées au patch management (Windows, Linux, VMware, équipements réseau). Le poste requiert une forte expertise technique, une sensibilité à la sécurité, et une collaboration étroite avec les équipes Infrastructure, Sécurité et Métiers. Responsabilités clés1. Gestion des correctifs (Patch Management) Piloter le cycle complet de mise à jour pour les serveurs Windows, Linux, VMware ESXi et équipements réseau. Planifier, tester et déployer les patchs de sécurité et de performance selon les fenêtres de maintenance et les priorités business. Garantir la conformité aux standards de sécurité internes et aux bonnes pratiques du marché. 2. Remédiation des vulnérabilités Collaborer avec les équipes Sécurité (SOC / Vulnerability Management) pour évaluer les risques et prioriser les actions. Contrôler et reporter la conformité des patchs via les outils disponibles (SCCM, WSUS, Ansible, vSphere Update Manager, etc.). 3. Collaboration et communication Coordonner les interventions avec les équipes métiers afin de minimiser l’impact des maintenances. Participer aux audits et assurer la conformité réglementaire (ISO27001, CIS, NIST). 4. Excellence opérationnelle Documenter précisément les cycles de patch, exceptions, et procédures de rollback. Automatiser les processus de déploiement des patchs pour accroître l’efficacité et réduire les erreurs humaines. Surveiller la santé de l’infrastructure après déploiement et résoudre les incidents éventuels. 5. Amélioration continue Se tenir informé des dernières mises à jour, vulnérabilités et bonnes pratiques en matière de sécurité. Proposer des optimisations et contribuer à la stratégie de sécurité à long terme de l’entreprise. Profil recherchéCompétences techniques Maîtrise de l’administration Windows Server (2016/2019/2022) et Linux (RHEL, CentOS, Ubuntu) . Expérience confirmée du patching et upgrade VMware vSphere/ESXi . Connaissance du firmware patching sur équipements réseau (switches, firewalls, routers). Maîtrise d’un ou plusieurs outils de gestion de patchs : SCCM/MECM, WSUS, Ansible, Ivanti, BigFix, etc. Compétences sécurité & conformité Bonne compréhension des CVE , du vulnerability management et des cadres de conformité (ISO27001, CIS, NIST). Expérience de collaboration avec des équipes SOC / InfoSec . Compétences comportementales Excellentes capacités de communication pour interagir avec des interlocuteurs techniques et métiers. Sens de l’organisation, rigueur, et orientation résultats. Réactivité et sang-froid lors des opérations de maintenance critiques. Esprit analytique et autonomie dans la résolution de problèmes. Formation et certifications Bac +3 à Bac +5 en informatique, systèmes et réseaux, cybersécurité ou équivalent. Certifications souhaitées : Microsoft (MCSA, MCSE) Red Hat Certified Engineer (RHCE) VMware Certified Professional (VCP) Cisco CCNA / CCNP CompTIA Security+ Qualités personnelles Sens aigu du détail et de la sécurité. Esprit d’équipe et adaptabilité dans un environnement international. Disponibilité pour intervenir en heures non ouvrées (soirs, week-ends) lors de maintenances planifiées. Rattachement hiérarchique Responsable Infrastructure / Responsable Sécurité IT (selon organisation).
Mission freelance
Senior Data / IA engineer (dataiku)
Publiée le
Dataiku
DevOps
Large Language Model (LLM)
3 ans
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre notre Group Data Office , au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits basés sur la donnée, l’automatisation des processus métier via l’automatisation agentique, et la prise de décisions stratégiques. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines et solutions data. En collaboration avec les parties prenantes métiers, vous accompagnerez les projets de bout en bout — de la phase d’idéation et de prototypage rapide jusqu’au déploiement en production. Donner le pouvoir de la donnée aux décisions Notre client est un acteur européen majeur dans le secteur financier , connectant les économies locales aux marchés mondiaux. Présent dans plusieurs pays d’Europe, il propose des services de négociation, compensation et cotation pour une large gamme de classes d’actifs : actions, dérivés, matières premières, etc. La donnée est au cœur de ses opérations et de sa stratégie d’innovation — elle permet des décisions plus intelligentes, des processus plus fluides et des solutions de pointe. Rejoignez l’équipe et contribuez à façonner l’avenir des marchés financiers grâce à une ingénierie data scalable et à fort impact. Vos missions En tant que Senior Data / AI Engineer (Dataiku) , vous serez amené(e) à : Collaborer avec les équipes métiers, opérations et IT pour recueillir les besoins et concevoir des solutions data sur mesure. Développer et optimiser des pipelines de données robustes, évolutifs et performants, soutenant des processus métier critiques. Co-créer des prototypes rapides avec les utilisateurs métier afin de valider des hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, en mettant l’accent sur la qualité des données, la maintenabilité et la performance. Soutenir la livraison continue et le déploiement en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Contribuer à l’évolution de la stack data et promouvoir les meilleures pratiques au sein de l’équipe.
Mission freelance
DataOps AWS Engineer -MlOps
Publiée le
Apache Airflow
AWS Cloud
AWS Glue
12 mois
500-580 €
Paris, France
Télétravail partiel
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Mission freelance
Data enginner SQL UNIX TEMPS PARTIEL
Publiée le
SQL
UNIX
3 mois
250-280 €
Île-de-France, France
Télétravail partiel
Vous renforcerez notre équipe de RUN et de maintien en conditions opérationnelles sur nos solutions. Vos activités principales sont : Générer des fichiers à intégrer en base à partir des portails opérateurs Intégrer en base, les données de parc et de facturation Lancer des batch et suivre les traitements Effectuer des requêtes pour extraction, injection ou correction en masse Mettre à jour les référentiels et contrôler la cohérence des données présentées dans l’applicatif pour nos clients Contrôle des intégrations automatisées
Mission freelance
Data Engineer / Data Viz - Java / Spark
Publiée le
Google Cloud Platform (GCP)
6 mois
400-620 €
Roissy-en-France, Île-de-France
Télétravail partiel
Profil du candidat Contexte Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer. Contexte de migration vers GCP. Compétences techniques : Grande connaissance GCP BigQuery and Java/Spark Appétence pour les environnements industriels /logistique ou du transport. Excellente rigueur, esprit d’analyse et sens de l’organisation. Aisance relationnelle, esprit d’équipe et proactivité. Minimum 5 ans d'expérience Compétences transverses : Niveau d’anglais niveau C1 ou C2 obligatoire. Autonomie Très bon relationnel Force de proposition Localisé en Ile de France, télétravail partiel autorisé, présentiel 3 jours par semaine.
Mission freelance
Consultant SAP BI
Publiée le
SQL
3 mois
Yvelines, France
Télétravail partiel
Pour le compte de l'un de nos clients, nous recherchons un(e) consultant(e) SAP BI. Besoin : En collaboration avec le Chef de Projet métier, vous piloterez le suivi du chantier Data Analytics dans le cadre de la reprise des queries et codes spécifiques pour le reporting dans S4 ou sur la Data Platform (AWS). Le profil sélectionné assurera la planification et le suivi des phases clés du projet (Réalisation, Tests métier, Go-live), coordonnera les équipes concernées (IS pour S4, Digital Factory pour la Data Platform, Domain Leader/Data Manager pour les tests), et préparera les comités projet hebdomadaires pour présenter l’avancement du stream Data Analytics.
Mission freelance
Head of Data
Publiée le
Gouvernance
Management
Pilotage
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Mission freelance
Data Engineer - GCP
Publiée le
Google Cloud Platform (GCP)
6 mois
500-650 €
Paris, France
Télétravail 100%
Nous recherchons un Data Engineer GCP expérimenté pour rejoindre une équipe dynamique en freelance afin de soutenir des projets critiques de migration de données et d'infrastructure. Il s'agit d'une opportunité entièrement à distance, idéale pour des professionnels pratiques passionnés par la construction de pipelines ETL/ELT évolutifs et de solutions de stockage de données dans un environnement rapide. Responsabilités: Concevoir, construire et maintenir des pipelines ETL/ELT pour l'ingestion, la transformation et le chargement de données dans des entrepôts de données cloud, en traitant efficacement de grands volumes de données. Implémenter et gérer des solutions de stockage de données, en garantissant des performances élevées, une évolutivité et une fiabilité dans des environnements de production. Déployer l'infrastructure en tant que code (IaC) à l'aide de Terraform pour provisionner et gérer les ressources GCP. Développer et orchestrer des workflows à l'aide de Cloud Composer ou Apache Airflow pour la planification et l'automatisation. Exploiter Apache Beam/Dataflow ou Spark/Dataproc pour le traitement distribué de données, y compris les architectures batch, micro-batch et streaming en temps réel. Rédiger des requêtes SQL avancées et optimiser les interactions avec les bases de données relationnelles, en intégrant la capture de changements de données (CDC) le cas échéant. Collaborer sur des migrations de données, en assurant des transitions fluides avec un accent sur la qualité des données, les tests et les pratiques modernes de DataOps (par exemple, déploiements de pipelines, ingénierie de qualité). Intégrer avec l'écosystème plus large de l'ingénierie de données, en recommandant et adoptant des outils au besoin pour améliorer l'efficacité. Communiquer efficacement avec les parties prenantes internes et les partenaires externes pour aligner sur les exigences et livrer des solutions à fort impact.
Mission freelance
Data Engineer GCP
Publiée le
Google Cloud Platform (GCP)
Hadoop
12 mois
550-570 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer GCP" pour un client dans le secteur de l'assurance Description 🧩 Contexte de la mission Au sein du Département Data Solutions, l’équipe TAI (Traitement et Analyse de l’Information) a pour objectif de préparer, transformer et mettre à disposition les données nécessaires aux applications métiers. Dans le cadre de la modernisation de la plateforme data, l’équipe lance un projet stratégique de migration des assets OnPrem vers le Cloud GCP, en s’appuyant notamment sur DataProc et BigQuery. 🎯 Objectifs et livrables Le consultant interviendra sur la migration technique des traitements data et sur l’accompagnement fonctionnel des équipes métier et techniques. 🔹 Missions fonctionnelles : Analyser et rationaliser le legacy existant pour le rendre compatible avec le Cloud GCP. Rédiger la documentation fonctionnelle de référence : Description technique et métier du SI cible. Implémentation et intégration dans le projet. Être garant de la bonne application des pré-requis techniques et fonctionnels. Maintenir une relation fluide et de confiance entre les équipes SI Source, Data Fabrik et les métiers. Mettre en place les bonnes pratiques sur DataProc et accompagner leur adoption. Accompagner la migration des projets TAI depuis la plateforme OnPrem vers DataProc. Soutenir les équipes (notamment LCB-FT) dans le développement et le déploiement des traitements. 🔹 Missions techniques ("dev") : Concevoir et développer les chaînes de traitement de données de bout en bout (depuis la source jusqu’à la consommation). Réaliser les développements conformes aux besoins métiers. Créer et industrialiser les workflows sous Control-M pour le pilotage automatisé des flux.
Offre d'emploi
Cybersécurité Engineer / Risk & Cyber Security Analyst
Publiée le
Cybersécurité
DevOps
1 an
40k-45k €
350-530 €
Île-de-France, France
Télétravail partiel
Cybersécurité Engineer / Risk & Cyber Security Analyst Nous recherchons un analyste passionné de risques informatiques et de cybersécurité pour rejoindre notre équipe et nous aider à améliorer notre posture de sécurité des applications, en garantissant que le cycle de développement logiciel est conforme aux politiques internes et aux réglementations applicables. En tant qu'analyste de risques informatiques, votre expertise en développement et en sécurité contribuera à la livraison réussie de solutions de sécurité de haute qualité pour les clients et les entreprises. Pour réussir, vous dirigerez des initiatives visant à améliorer notre posture de sécurité des applications en mettant en œuvre des politiques internes de sécurité et de gestion des vulnérabilités. Vous collaborerez avec les équipes informatiques dans différents domaines pour identifier les vulnérabilités signalées lors du développement de nos applications et aider les développeurs à les corriger en temps opportun avant le déploiement en production. Vous orchestrerez également la planification et l'organisation des tests de pénétration pour nos applications éligibles et le suivi du plan de remédiation des vulnérabilités. Dans ce rôle, vous contribuerez également à la conception et à la mise en œuvre de nouveaux objectifs et exigences de cybersécurité pour améliorer notre résilience numérique, en conformité avec les nouvelles réglementations et pour répondre aux risques informatiques émergents. Application Security Examiner les rapports de sécurité des applications provenant de NexusIQ et Fortify et identifier les vulnérabilités les plus pertinentes qui doivent être atténuées selon notre politique de sécurité des applications. Évaluer les problèmes identifiés par Fortify et NexusIQ pour déterminer leur validité et leur impact potentiel, en distinguant les menaces réelles des faux positifs. Collaborer avec les équipes de développement d'applications pour évaluer l'impact des vulnérabilités détectées et remettre en question le plan de remédiation en fournissant des conseils pour corriger les vulnérabilités. S'engager auprès des équipes de développeurs pour assurer la résolution rapide des vulnérabilités signalées, en fournissant des conseils et un support si nécessaire. Réaliser des revues de code sécurisé avec les développeurs, en fournissant des conseils et des commentaires pour améliorer la posture de sécurité de nos applications. Contribuer à la sécurisation de la chaîne d'outils CI/CD, en veillant à ce que les conteneurs et les images Docker soient sécurisés selon les meilleures pratiques de sécurité. Collaborer avec des équipes interdomaines pour concevoir et mettre en œuvre de nouvelles exigences de sécurité pour la sécurité des applications, en alignement avec les normes et meilleures pratiques de l'industrie, comme le filtrage sécurisé, la modélisation des menaces, la sécurité des API, etc.
Mission freelance
Un Software Engineer - Cloud technologies
Publiée le
Administration linux
AWS Cloud
Azure
12 mois
400-500 €
Île-de-France, France
Bonjour , Je suis à la recherche d'Un Software Engineer - Cloud technologies (5-7 ans d’expérience, hors alternance). Rôles · Développer des composants pour un cadre de développement rapide framework. · Intégrer de nouveaux modèles quantitatifs et maintenir les modèles existants dans différents environnements. · Améliorer l'ensemble d'outils actuel pour le test et le dépannage des modèles. · Optimiser les performances des modèles et l'utilisation de la mémoire. · Effectuer des revues de code et de conception. · Maintenir et améliorer l'infrastructure CI/CD (GitLab / Jenkins). Compétences clés requises · 5 ans d'expérience en programmation orientée objet. · 3 ans ou plus d'expérience en développement en C++. · Solide expérience de l'environnement Linux et shell scripting. · Une expérience du cloud (AWS, Azure) est un plus · Programmation Python. · Anglais courant 📍 Lieu : Ile de France 📅 Démarrage : 3 semaines après le go di client . ⌚Durée : Mission longue 🌐 Candidats résidant en FRANCE uniquement pour ces postes N'hésitez pas à me contacter pour toute information. Lieu : Ile de France Démarrage : 3 semaines après le go di client . Durée : Mission longue Candidats résidant en FRANCE uniquement pour ces postes N'hésitez pas à me contacter pour toute information.
Mission freelance
AWS Cloud Engineer
Publiée le
AWS Cloud
Azure DevOps
CI/CD
6 mois
510-650 €
Paris, France
Télétravail partiel
Responsable de la mise en œuvre de solutions dans un ou plusieurs des domaines techniques suivants : architecture d’infrastructure, technologies de conteneurs, calcul sans serveur, bases de données, connectivité réseau, sécurité et conformité. Gestion de la maintenance des environnements d’infrastructure avec des processus standardisés et des outils automatisés. Rédaction de documentation détaillée et de conception de bas niveau, avec coordination avec les autres membres de l’équipe. Responsabilité et maintenance de la plateforme de supervision.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
407 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois