L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 279 résultats.
Offre d'emploi
Data Engineer – Azure / Snowflake / dbt
Publiée le
Azure
DBT
Snowflake
2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre du renforcement d’une équipe Data de l'un de nos clients du secteur Finance, nous recherchons un Data Engineer confirmé pour contribuer à la conception, au déploiement et à l’industrialisation des plateformes de données sur Azure et Snowflake. Vous interviendrez sur la mise en place de pipelines de données performants, l’automatisation des traitements, et l’implémentation des bonnes pratiques CI/CD, dans un environnement à fort enjeu de qualité et de performance. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark. Développer et orchestrer des flux via Azure Data Factory et dbt (Python). Intégrer et exploiter des API pour l’ingestion et la diffusion de données. Participer au déploiement et à la gestion de l’infrastructure via Terraform. Mettre en œuvre les pratiques CI/CD sous Azure DevOps. Automatiser les tâches récurrentes (PowerShell, Azure CLI). Contribuer à la modélisation et à l’architecture data (3NF, étoile, data warehouse). Participer à la gouvernance, la qualité et la sécurité des données (RGPD, Data Privacy). Documenter les développements et collaborer avec les équipes techniques et métiers. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – PowerShell – Azure CLI – Terraform – Azure DevOps – PowerDesigner – Git
Mission freelance
DEVELOPPEUR RUBY - CONFIRME
Publiée le
Linux
PostgreSQL
Ruby
3 mois
Boulogne-Billancourt, Île-de-France
Contexte de la mission Au sein de l’équipe technique, vous travaillerez dans un environnement de développement logiciel agile, en collaboration avec des développeurs, des data scientists, des product owners et scrum masters expérimentés Objectifs et livrables Vous évoluerez dans un environnement utilisant les dernières technologies en termes de développement, Big Data et Infra : Rails 7, Vue.js, Python, Kubernetes, Terraform, Google Cloud Platform, Dataiku, PostgreSQL et vos missions consisteront à : Développer les nouvelles fonctionnalités des différents produits Maintenir et améliorer l’architecture logicielle durant les cycles de développements avec prise en compte des contraintes systèmes et business Garantir la performance, la sécurité et la mise à jour des applications Définir et maintenir la supervision des applications (monitoring, metrics, alerting…) Issu(e) d’une école d’ingénieur avec au moins +5 années d’expériences en développement en ruby, vous vous définissez comme un développeur ouvert, avec des connaissances pointues en développement ruby mais aussi en modélisation de base de données PostgreSQL. Vous justifiez également d'une forte appétence aux principes DevOps. Bon niveau d’anglais (écrit & parlé), communication, documentation et rituels de l'équipe se font en anglais Autonomie, rigueur, curiosité, relationnel L’environnement de travail: Backend : Ruby (Rails), NodeJS Frontend : HTML, CSS, JS Base de données : PostgreSQL, Redis Intégration continue (Circle CI, GitHub) Architectures microservices et Containerisation (Docker, Kubernetes) Plateformes Cloud : Google Cloud Platform Méthodologie Agile (Scrum/Kanban, Jira/Confluence) Outils de monitoring & alerting (Stackdriver, Jaeger) Tests automatiques (unitaires, intégration, fonctionnels) Documentation
Mission freelance
Data Engineer - Azure
Publiée le
Architecture
Azure
Azure Data Factory
1 an
400-570 €
Île-de-France, France
Télétravail partiel
Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.
Offre d'emploi
Lead Data Engineer – Azure / Snowflake / dbt
Publiée le
Azure
DBT
Snowflake
2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre d’un projet stratégique de modernisation des plateformes de données, nous recherchons un Lead Data Engineer capable de piloter la conception, l’industrialisation et l’optimisation des flux data sur Azure et Snowflake. Vous interviendrez en tant que référent technique au sein de l’équipe Data Engineering, en apportant votre expertise sur les architectures cloud, la modélisation, la performance et les bonnes pratiques CI/CD. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données sous Snowflake / Snowpark. Orchestrer les flux via Azure Data Factory et dbt (Python) pour des traitements fiables et scalables. Intégrer et exposer des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et administrer l’infrastructure as code via Terraform. Implémenter et superviser les pipelines CI/CD sous Azure DevOps. Automatiser les tâches récurrentes avec PowerShell et Azure CLI. Encadrer la modélisation des données (3NF, étoile) et la mise en œuvre du modèle d’entreprise et du Data Warehouse. Garantir la gouvernance des données, la qualité, la sécurité (RGPD) et le FinOps des plateformes. Assurer la documentation, la supervision et la coordination technique avec les équipes métiers et IT. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – Terraform – Azure DevOps – PowerShell – Azure CLI – PowerDesigner – Git
Offre d'emploi
Staff Engineer - Fintech / Paiement
Publiée le
50k-85k €
75001, Paris, Île-de-France
📍 Localisation : Paris 🏡 Présence sur site : 5 jours/semaine pendant 6 mois, puis 4 jours/semaine (non négociable) 📅 Contrat : CDI 💰 Rémunération : selon profil 🕐 Disponibilité : immédiate de préférence mais possibilité d'attendre Votre rôle En tant que Staff Engineer, vous jouez un rôle clé dans la structuration technique de la plateforme. Vous intervenez sur l'architecture, le développement backend, les bonnes pratiques et l'accompagnement technique des équipes, sans responsabilités managériales. Vos missions Piloter l'architecture technique des solutions financières critiques, en garantissant scalabilité, sécurité et conformité. Développer les composants backend critiques (Python), gérer les releases. Définir les bonnes pratiques, mentorer les développeurs, rédiger les tickets. Collaborer avec les équipes produit et mobile pour aligner vision métier et exécution technique. Intervenir ponctuellement sur des sujets DevOps et infrastructure (Terraform, AWS). 40-50% : Développement backend en Python, gestion des releases. 25% : Architecture, rédaction des tickets, coaching technique. 25% ou moins : Sujets DevOps et infrastructure (Terraform, AWS). Profil recherché Les critères suivants sont obligatoires pour que le profil soit retenu : A minima 6 à 8 ans d'expérience en développement applicatif et DevOps, avec des projets concrets. De préférence Python/Terraform. Maîtrise de Python . Expérience en startup ou scale-up (au moins 1 à 2 ans). Compréhension des concepts comptables : TVA, comptes comptables, logique de flux financiers. Expérience de collaboration avec des équipes mobiles codant en natif (minimum 2 ans). Les éléments suivants sont fortement appréciés : Expérience dans le secteur du paiement . À défaut, une expérience en banque ou finance est bienvenue. Stack technique Backend : Python/Django Frontend : TypeScript/React Infra : AWS, Terraform Mobile : Kotlin (Android), Swift (iOS)
Offre d'emploi
Administrateur Système Linux (F/H) - Nantes
Publiée le
37k-38k €
Nantes, Pays de la Loire
Administrateur Système Linux (F/H) - Nantes - Nantes 📍 Lieu : Nantes (44) 🕓 Disponibilité : Dès que possible 🏠 Télétravail : 2 jours par semaine après montée en autonomie 📚 Mots-clés : Linux - Ansible - Puppet - Cobbler - Bash - Virtualisation - OpenStack - VMware - DevOps 🎯 Mission Au sein d'une équipe d'exploitation et d'intégration systèmes, vous interviendrez en tant qu'Administrateur Système Linux pour assurer le maintien en conditions opérationnelles (MCO), le déploiement automatisé et la gestion technique de la plateforme. Vos principales responsabilités : Assurer l'administration quotidienne des environnements Linux (run et build de VMs). Participer au déploiement automatisé des serveurs via Ansible (actions d'installation et de configuration). Intervenir sur la virtualisation : gestion d'environnements VMware vSphere / vCenter et OpenStack. Garantir le MCO de la plateforme et la fiabilité des systèmes en production. Collaborer étroitement avec les équipes de développement et DevOps pour intégrer et déployer les applications. Exécuter les opérations en production (50 à 70 % du temps) selon les consignes et procédures établies. Automatiser les tâches récurrentes à l'aide de scripts Bash / Shell / Python / Ansible. Gérer le stockage et les volumes sur les baies.
Offre d'emploi
Lead data (H/F)
Publiée le
40k-45k €
Lille, Hauts-de-France
Télétravail partiel
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Offre d'emploi
Staff Engineer - Fintech / Paiement
Publiée le
50k-85k €
75001, Paris, Île-de-France
📍 Localisation : Paris 🏡 Présence sur site : 5 jours/semaine pendant 6 mois, puis 4 jours/semaine (non négociable) 📅 Contrat : CDI 💰 Rémunération : selon profil 🕐 Disponibilité : immédiate de préférence mais possibilité d'attendre Votre rôle En tant que Staff Engineer, vous jouez un rôle clé dans la structuration technique de la plateforme. Vous intervenez sur l'architecture, le développement backend, les bonnes pratiques et l'accompagnement technique des équipes, sans responsabilités managériales. Vos missions Piloter l'architecture technique des solutions financières critiques, en garantissant scalabilité, sécurité et conformité. Développer les composants backend critiques (Python), gérer les releases. Définir les bonnes pratiques, mentorer les développeurs, rédiger les tickets. Collaborer avec les équipes produit et mobile pour aligner vision métier et exécution technique. Intervenir ponctuellement sur des sujets DevOps et infrastructure (Terraform, AWS). 40-50% : Développement backend en Python, gestion des releases. 25% : Architecture, rédaction des tickets, coaching technique. 25% ou moins : Sujets DevOps et infrastructure (Terraform, AWS). Profil recherché Les critères suivants sont obligatoires pour que le profil soit retenu : A minima 6 à 8 ans d'expérience en développement applicatif et DevOps, avec des projets concrets. De préférence Python/Terraform. Maîtrise de Python . Expérience en startup ou scale-up (au moins 1 à 2 ans). Compréhension des concepts comptables : TVA, comptes comptables, logique de flux financiers. Expérience de collaboration avec des équipes mobiles codant en natif (minimum 2 ans). Les éléments suivants sont fortement appréciés : Expérience dans le secteur du paiement . À défaut, une expérience en banque ou finance est bienvenue. Stack technique Backend : Python/Django Frontend : TypeScript/React Infra : AWS, Terraform Mobile : Kotlin (Android), Swift (iOS)
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Publiée le
.NET CORE
Apache Kafka
Architecture ARM
6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Mission freelance
Expert DevSecOps GitLab (H/F)
Publiée le
CI/CD
DevSecOps
GitLab CI
13 mois
Nanterre, Île-de-France
Télétravail partiel
Si automatiser, sécuriser et monitorer des pipelines te fait vibrer, alors notre univers DevSecOps t’attend de pied ferme avec ce poste d’Expert DevSecOps GitLab ! 🚀 Ton challenge si tu l’acceptes : Participer à la migration des pipelines CI/CD de Jenkins vers GitLab dans un environnement cloud natif Concevoir, automatiser et sécuriser des pipelines performants sous GitLab CI/CD Déployer et administrer des environnements Kubernetes / OpenShift / Docker / Linux RedHat Développer des scripts Python et des dashboards Grafana / InfluxDB pour la supervision Contribuer à la mise en œuvre de bonnes pratiques DevSecOps / SRE Rédiger la documentation technique et les guides de référence sur Confluence Participer activement à la modernisation et à la fiabilisation de la plateforme DevOps 📍 Localisation : Nanterre (92) 🏡 Rythme : hybride – 2 jours sur site / semaine ℹ️ Poste : Freelance 💰 Salaire : Il n’existe pas un salaire défini puisqu’il sera à définir ensemble selon ton expérience et tes compétences
Mission freelance
[LFR] Ingénierie Réseaux & Sécurité, Expérimenté à Guyancourt - 1004
Publiée le
10 mois
300-480 €
Guyancourt, Île-de-France
Télétravail partiel
Ingénierie build Réseaux & Sécurité Informations générales Plateforme commune de production informatique regroupant plusieurs entités du secteur financier. Le 1er janvier 2019, plus de 1500 collaborateurs répartis au sein des activités de production informatique de plusieurs entités ont mis en commun leurs compétences au sein d’une nouvelle maison commune. L'objectif ? Répondre aux enjeux de la révolution digitale, afin de renforcer la position concurrentielle du groupe. Nos ambitions : développer de nouvelles plateformes adaptées aux pratiques du digital, tout en garantissant un haut niveau de sécurité et de confidentialité. Cette plateforme a pour vocation de devenir un pôle technologique de 1er plan en Europe, attractif pour les collaborateurs, les nouveaux talents et les partenaires technologiques ! Avoir le goût du challenge et souhaitez devenir acteur de la transformation digitale, rejoignez-nous ! Description du poste Le cluster concerné constitue le point d’entrée pour tous les sujets d’infrastructures et de production liés aux activités de banque d’investissement. Ce modèle intègre une approche globale avec les différents hubs régionaux. L’ingénierie build réseaux & sécurité est responsable de la mise en place des nouvelles solutions et/ou des changements importants sur les infrastructures réseaux & sécurités à l’échelle mondiale. Expérience confirmée dans la collaboration avec divers profils (chefs de projet, architectes, ingénieurs applicatifs, etc.) requise. Capacité à communiquer et vulgariser les éléments à mettre en œuvre du point de vue réseau & sécurité, et à se coordonner avec les différents interlocuteurs, en français comme en anglais. Expérience souhaitée sur des environnements « switchés » et « routés », avec maîtrise des protocoles tels que STP, BGP, OSPF, MPLS. Compétence avérée sur les équipements de sécurité tels que proxy, F5, firewalls. Approche proactive dans l’optimisation du temps de travail par l’automatisation des tâches réseau via des outils comme Ansible, Python. Compétences Niveau d'études minimum Bac + 5 / M2 et plus Formation / Spécialisation Informatique Niveau d'expérience minimum 3 ans Expériences Une expérience minimum de 3 ans en build réseaux & sécurité est demandée. Une expérience sur les méthodes / nouvelles technologies suivantes est appréciée : Ansible, DevOps, CI/CD,… Compétences recherchées Technologies réseaux Cisco, Fortinet, Juniper, Checkpoint, McAfee, Arista,… BGP, OSPF, ACI, ACL, MPLS,… Sécurité Culture transverse et générale. Compétences métiers Ingénierie Network & Security Connaissances de base en architectures techniques (système, stockage, middleware) Modélisation/rédaction d'architectures techniques (HLD/LLD) Langue Anglais Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation Type de prestation (Client / Hybrid / Remote) : Client Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Offre d'emploi
Data engineer
Publiée le
autonomie
12 mois
47k-55k €
450-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de notre pôle Data, nous recherchons un Data Engineer confirmé capable de concevoir, développer et industrialiser des solutions de traitement et de valorisation de données dans un environnement cloud (AWS). Vous interviendrez sur des projets stratégiques de construction de plateformes data modernes, à forte volumétrie et en lien direct avec les métiers. Vos principales missions :Architecture & Développement Concevoir et mettre en œuvre des pipelines de données robustes et scalables Construire et maintenir des Data Lakes et Data Warehouses modernes Développer des traitements ETL / ELT performants et automatisés Participer à la modélisation et l’optimisation des structures de données Qualité & Sécurité Garantir la qualité, la fiabilité et la traçabilité des données Implémenter des bonnes pratiques de sécurité et de gouvernance (IAM, RBAC, encryption, etc.) Mettre en place des mécanismes de monitoring et d’alerting Collaboration & Innovation Travailler en étroite collaboration avec les équipes Data Science, BI et Cloud Participer à la veille technologique et aux choix d’architecture Contribuer à la mise en place de standards et bonnes pratiques DevOps Data Environnement technique : AWS S3, Redshift, Glue, Athena, EMR, Lambda, Step Functions PySpark, Python, SQL Terraform, CloudFormation, CloudWatch, IAM, KMS
Mission freelance
Expert NetDevOps
Publiée le
LAN
6 mois
Île-de-France, France
Télétravail partiel
Au sein de l’équipe Réseaux & Télécoms, rattaché(e) au Responsable Réseaux Campus. Contexte et Environnement : L’équipe Réseaux & Télécoms Campus est composée d’ingénieurs et d’architectes spécialisés, en charge de l’ensemble de l’infrastructure réseau campus (LAN, Wi-Fi, NAC) sur les sites de l’entreprise sur le périmètre européen. Elle assure le maintien en condition opérationnelle (MCO) des infrastructures, tout en menant des projets de transformation visant à moderniser et automatiser l’environnement réseau. Dans ce contexte, nous recherchons un(e) Expert NetDevOps pour accélérer notre démarche d’industrialisation et d’automatisation des infrastructures réseau via des pratiques DevOps. Missions principales : 1. Industrialisation et Automatisation - Définir et mettre en œuvre des solutions d’automatisation pour le déploiement, la configuration et la supervision des équipements réseau (LAN/Wi-Fi/NAC) - Participer à l’élaboration de chaînes CI/CD pour les infrastructures réseau (infrastructure as code) - Maintenir et développer des scripts/outils pour l'automatisation du MCO (audit, sauvegarde, conformité, déploiement) 2. Contribution aux projets - Participer activement aux projets de transformation (refonte LAN, migration vers des architectures SDN, intégration de solutions NAC, etc.) - Collaborer avec les architectes pour évaluer les solutions techniques et les intégrer dans l’environnement existant - Contribuer à la rédaction des HLD/LLD et aux processus d’automatisation associés 3. Maintien en condition opérationnelle - Contribuer au support de niveau 3 sur les incidents complexes - Maintenir à jour la documentation technique et les outils internes - Participer aux astreintes si nécessaire (en fonction de l’organisation de l’équipe) Compétences techniques requises : - Réseaux campus : excellente maîtrise des architectures LAN (Cisco, Aruba, Juniper…), Wi-Fi (Cisco, Aruba…), NAC (Cisco ISE, Aruba ClearPass…) - Automatisation : expertise en Ansible et Python - Maîtrise des outils et concepts DevOps : Git, Jenkins, CI/CD, Terraform (IaC) - Protocoles réseau : TCP/IP, VLAN, STP, OSPF, BGP, Radius, 802.1X… - Environnements : Linux, systèmes de supervision réseau (LibreNMS, Prometheus, etc.) Profil recherché : - Formation Bac+5 en Réseaux & Télécoms ou équivalent - Expérience d’au moins 15 ans dans le domaine des réseaux, dont : • Une expérience significative en tant qu’expert réseaux, avec une très bonne maîtrise des environnements campus • Une expérience significative en automatisation réseau, via scripting et outils DevOps - Capacité à travailler dans des environnements complexes multi-sites - Autonomie, rigueur, esprit d’équipe et sens de la documentation Les plus : - Connaissance des environnements SDN / SD-Access - Expérience en migration ou déploiement de solutions NAC - Connaissance des API réseau (RESTCONF, NETCONF, API Cisco/Aruba, etc.) - Certifications : CCNP/CCIE, DevNet, Aruba Certified, etc.
Mission freelance
EXPERT -DevSecOps – Gitlab
Publiée le
Grafana
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Au sein du Centre PF Dev & Expert APPLI, le groupe DevSecOps à pour raison d’être de Faire référence sur l'automatisation, l'agilité et le DevOps afin de répondre aux enjeux d'amélioration de la fiabilité, du Time To Market et de la performance. Il est attendu d’apporter une expertise technique sur l’outillage DevSecOps avec Gitlab CI afin de maintenir et faire évoluer la Plateforme DevOps en fonction des besoins qui ne cessent de croître ainsi que de contribuer à la montée en compétence de l’équipe sur l’outil. Tous les développements réalisés devront être testés et validés selon les procédures en vigueurs .La prestation doit respecter le référentiel technique, méthodologique de l’Entreprise ainsi que les contraintes et délais décrits dans la suite de ce document et le cadre contractuel associé. Dans ce cadre il est attendu une expertise sur l’outillage Gitlab pour participer aux travaux de migration de Jenkins vers Gitlab. MISSIONS Il sera demandé au titulaire de répondre aux différentes activités : • Développement • Tests • Accompagnement • Support Tous les développements réalisés devront être testés et validés selon les procédures en vigueurs . La prestation doit respecter le référentiel technique, méthodologique de l’Entreprise ainsi que les contraintes et délais décrits La prestation porte sur l’outil Gestionnaire de code source de la Plateforme DevOps : GitLab CE et GitLab EE, Gitlab Ultimaten, sur la stack d’indicateur de la plateforme logmining DevSecOps avec les outils Mimir et Loki et Grafana Les activités principales identifiées pour la mission sont les suivantes : • Optimisation des instances afin d’améliorer les performances des outils, • Mise en place et partage de bonnes pratiques autour des outils, • Assurer le suivi, l’analyse et le traitement des incidents, • Optimisation de la plateforme Gitlab sur Openshift • Assurer le support auprès de l’équipe Projet Migration Jenkins2GitlabCI • Suivre et exploiter des environnements de Développement, • Participation au POC Gitlab Ultimate et DUO • Développement des services conteneurisés (Docker/Openshift) • Développement de scripts Python • Récupération d’indicateurs (InfluxDB, loki, mimir, Grafana ect..) • Rédaction des documentations associées aux travaux réalisés ( README, Confluence) • Livrer la solution à l’exploitant et l’assister lors de la MEP, • Réaliser la documentation technique,
Mission freelance
SRE/Ops Kubernetes & Cloud Privé
Publiée le
Argo CD
Cloud privé
Kubernetes
12 mois
550-630 €
Levallois-Perret, Île-de-France
Télétravail 100%
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement stable, automatisé et performant pour la mise à disposition d’environnements de développement, le déploiement de modèles, et leur supervision en production. Dans ce cadre, l’équipe recherche un profil SRE / Ops expérimenté pour renforcer la fiabilité, la supervision et l’automatisation de la plateforme, en interaction directe avec les équipes de développement, d’architecture et d’infrastructure. Missions principales: En tant que Site Reliability Engineer / Ops , vous interviendrez au cœur de la plateforme et participerez à son évolution technique. Vos responsabilités clés : Administration et exploitation Gérer et maintenir les clusters Kubernetes on-premise Superviser les déploiements des applications et services de la plateforme Garantir la stabilité, la performance et la disponibilité des environnements Automatisation et industrialisation Développer et maintenir les pipelines d’automatisation via Terraform , ArgoCD et Argo Workflows Contribuer à la mise en œuvre et à l’amélioration des processus CI/CD Participer à la conception d’une infrastructure fiable, scalable et résiliente Supervision et observabilité Mettre en place et administrer les outils de monitoring et de logging (Prometheus, Grafana, Kibana) Créer des tableaux de bord pour suivre les performances et anticiper les dérives (drift, charge, erreurs) Participer aux actions d’amélioration continue (tests de charge, alerting, performance tuning) Support et collaboration Travailler en proximité avec les développeurs (Python, Go) pour optimiser les déploiements et intégrations Être le point de contact technique sur les sujets d’infrastructure et de fiabilité Contribuer à la définition des bonnes pratiques DevOps et SRE
Mission freelance
POT8707 - Un Expert DevSecOps GitLab Sur Nanterre
Publiée le
Gitlab
6 mois
300-410 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Expert DevSecOps GitLab Sur Nanterre. Contexte et rôle: Participation à la migration d’une plateforme CI/CD Jenkins vers GitLab, dans un cadre DevSecOps. L’objectif est de renforcer la performance, la sécurité et l’automatisation des chaînes de déploiement applicatives. Profil recherché Rôle : Expert DevSecOps / Concepteur Développeur CI/CD Séniorité : 5 à 8 ans d’expérience minimum Compétences techniques requises Expertise GitLab CI/CD (architecture, Helm, Operator) Connaissance Jenkins, Sonar, Checkmarx, Nexus Maîtrise Docker, OpenShift, Kubernetes, Linux RedHat Développement Python / SQL / PostgreSQL Expérience sur Grafana, Loki, Mimir, InfluxDB (supervision, observabilité) Maîtrise des concepts DevSecOps, SRE, sécurité applicative Pratique des méthodes Agile / SAFe Utilisation de Jira / Confluence Soft skills Esprit DevOps, rigueur, adaptabilité Aisance en communication et reporting Esprit d’équipe, autonomie et sens du service Livrables attendus Pipelines CI/CD sécurisés et automatisés sous GitLab Scripts et tableaux de bord de supervision technique Documentation technique (Confluence) et bonnes pratiques Cadre de la prestation Langue de travail : français (écrit/oral), anglais technique apprécié
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
279 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois