L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 304 résultats.
Mission freelance
Data Automation Engineer Confirmé
Publiée le
CI/CD
Dataiku
DevOps
6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Offre d'emploi
Ingénieur de Production / Production Engineer
Publiée le
Apache
Grafana
Kibana
3 ans
40k-45k €
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Contexte Au sein de la Direction de Production , la/le Run Process Manager est responsable de la bonne mise en application des processus de change & incident. Pour un SI toujours plus performant et une Qualité de Service au plus haut, la/le Run Process Manager pilote les incidents majeurs transverses. Description L'ingénieur Suivi Prod est à la fois vigie de la Production en grand et responsable des processus régaliens qui font vivre cette Production (Change, Incident, Pilotage, Amélioration Continue…). Il a en charge l'amélioration continue des processus, méthodes et outils de Production ainsi que le suivi du respect de leur bonne application. Il analyse les événements de Production pour en extraire des tendances, détecter des signaux faibles et des plans d'amélioration continue. Dans une démarche Services, il accompagne les équipes pour une maitrise de la QoS au juste niveau d'excellence.
Mission freelance
Data Automation Engineer (Dataiku)
Publiée le
Dataiku
Python
RAG
3 mois
400-520 €
Paris, France
Télétravail partiel
Missions Dans le cadre de notre croissance stratégique, nous recherchons un Senior Data / AI Engineer (Dataiku) pour rejoindre l’équipe du Group Data Office, au service des métiers. Vous jouerez un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via des agents intelligents (agentic process automation), et le soutien à la prise de décision stratégique. Votre contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, vous interviendrez sur l’ensemble du cycle de vie des projets : de l’idéation et du prototypage rapide jusqu’au déploiement en production. Responsabilités En tant que Data Automation Engineer confirmé (Dataiku), vous serez amené(e) à : - Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et de concevoir des solutions data adaptées. - Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. - Co-construire des prototypes rapides avec les utilisateurs métiers afin de valider des hypothèses et d’accélérer le time-to-value. - Industrialiser ces prototypes en solutions prêtes pour la production, avec une attention particulière portée à la qualité des données, la maintenabilité et la performance. - Contribuer à la livraison continue et aux déploiements en appliquant les bonnes pratiques de génie logiciel et de DevOps. - Participer à l’évolution de la stack data et promouvoir les meilleures pratiques au sein de l’équipe. Compétences techniques - Expérience avérée dans le traitement de grands volumes de données en Python, avec des bibliothèques telles que pandas ou Polars. - Solide compréhension des principes du génie logiciel : clean code, gestion de versions, tests et automatisation. - Expérience avec des frameworks LLM et des outils d’orchestration d’agents IA. - Maîtrise du prompt engineering, des approches RAG (Retrieval-Augmented Generation) et de l’utilisation de modèles de fondation. - Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. - Expérience dans l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. - Connaissance des frameworks d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. - Expérience des outils d’orchestration de pipelines de données, notamment Dataiku. - Familiarité avec les pratiques DevOps, les pipelines CI/CD et les déploiements en environnement de production.
Mission freelance
DevOps & Oracle Engineer
Publiée le
DevOps
Oracle
12 mois
Niort, Nouvelle-Aquitaine
Télétravail partiel
DevOps & Oracle Engineer, freelance, 12 mois de contrat initial, Niort, 3 jours de télé travail par semaine Attractive opportunité pour un(e) Consultant(e) DevOps & Oracle de rejoindre notre client final basé à Niort et qui accompagne quotidiennement des millions de particuliers et de professionnels. Contexte : Dans le cadre du maintien en conditions opérationnelles (MCO) et de l’amélioration continue de son système d’information, le Service Delivery du client souhaite renforcer son équipe Production / Exploitation par une prestation d'ingénierie/ Ops. La prestation consistera à une intervention en support du centre de service (N1/N2) afin d’assurer la prise en charge du niveau 3, la résolution des incidents complexes, et la fiabilisation des environnements de production. Objectifs de la prestation : Au sein de l’équipe opérations du service delivery (8 personnes + 1 manager) et plus précisément d’un pôle de gestion des incidents/demandes/problèmes de 6 personnes (4 profils métiers + 2 profils ops), nous avons besoin d’une prestation ops supplémentaire pour : · Assurer le support niveau 3 sur le périmètre production · Garantir la résolution et la prévention des incidents critiques; · Participer à la fiabilisation, à l’automatisation et à l’industrialisation des process · Accompagner le centre de service Exploitation (N1/N2) dans la montée en compétence et la formalisation des procédures · Assurer un rôle d’expert DBA Oracle, capable de traiter en autonomie les incidents et demandes de services autour des bases de données (compétence manquante au sein de l’équipe) · Gestion opérationnelle : o Prendre en charge les incidents techniques de niveau 3 et coordonner leur résolution o Effectuer les analyses post-incidents et proposer des actions correctives et préventives o Suivre et piloter les actions de fiabilisation et d’amélioration continue o Gérer les changements en production selon les bonnes pratiques ITIL · Mettre à jour la documentation technique et les procédures d’exploitation · Amélioration continue / Automatisation : o Identifier les points de fragilité du SI et proposer des quick win o Industrialiser les opérations récurrentes à fort ROI o Contribuer à l’amélioration continue des chaînes d’exploitation et du monitoring · Compétences DBA / Oracle o Diagnostiquer et résoudre les incidents N1/N2 sur les bases Oracle (performances, verrous, espace, corruption) o Effectuer des analyses de performance à partir de rapports awr et de la supervision oem o Proposer des scripts SQL/PL-SQL permettant de fiabiliser/optimiser le SI o Diffuser les compétences / bonnes pratiques au sein du service delivery mais également auprès des équipes de développement Profil recherché : o Compétences techniques : Expérience confirmée en environnement de production o Solide maîtrise du support niveau 3 et des processus ITIL o Expertise DBA Oracle (administration, optimisation, dépannage) o Connaissances techniques : Linux, scripts Shell, supervision (Dynatrace, OEM, Grafana…)
Offre d'emploi
Data Engineer NiFi
Publiée le
Apache NiFi
40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑🚀👩🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Mission freelance
OT Engineer - BELGIQUE
Publiée le
SCADA
1 an
550 €
Belgique
Nous recherchons un(e) OT Engineer pour rejoindre une équipe pluridisciplinaire dédiée à la gouvernance et à la mise à disposition des données industrielles au sein d’une infrastructure Unified Namespace (UNS) . Composition de l’équipe : OT Engineer Senior Technical Leader IT Engineer Développeur Fullstack Expert en Data Governance Contexte et missions : Dans le cadre de la mise en place d’une architecture Industrie 4.0, vous travaillerez avec le Technical Leader pour évaluer et déployer des solutions permettant la collecte, la contextualisation et la standardisation des données machines . Vous contribuerez directement aux choix technologiques de l’infrastructure industrielle (ex. : HiveMQ, NodeRed, FlowFuse, SCADA, Kepware…). Une fois l’architecture validée, vous participerez à l’intégration des équipements existants dans cette nouvelle infrastructure, comprenant notamment : PLC (majoritairement Siemens S7) Commandes numériques (ex. Siemens 840D SL/PL/One) Robots industriels (majoritairement Fanuc) Étuves Lignes complètes de production Systèmes de traçabilité connectés … Vos responsabilités : Analyse et exploitation des données en lien avec les besoins métiers Mise en place et validation de documentation type IO List avec les responsables métier Modification éventuelle des programmes ou suivi d’intégrateurs externes Test des communications via différents protocoles (S7, OPC UA…) Configuration de middleware OT pour la collecte des données Filtrage, transformation et routage des données vers l’UNS Rédaction complète de la documentation et des checklists de tests Validation du fonctionnement réel par rapport aux attentes Mise en production et gestion du handover avec les équipes métiers Profil recherché : Expérience sur les systèmes industriels et les protocoles OT/IT Connaissance des architectures Industrie 4.0 et des infrastructures UNS Capacité à travailler en équipe pluridisciplinaire
Offre d'emploi
Platform Reliability Engineer Bilingue sur le 78
Publiée le
Azure
Datadog
Kubernetes
3 mois
Yvelines, France
Je recherche pour un de mes clients un Platform Reliability Engineer sur le 78 Mission: La mission proposée s’inscrit dans une approche SRE et DevOps. À ce titre, vous intégrez l’équipe Plateforme et vous contribuez à garantir la fiabilité, l’exploitabilité et la qualité des microservices de notre écosystème applicatif. Vous réalisez ou participez aux tâches suivantes : • Vous êtes responsable de l’intégration et de l’exploitation opérationnelle des applications de la plateforme. • Vous vérifiez la conformité des livraisons avec nos standards (conventions de nommage, qualité des logs, documentation, monitoring). • Vous relisez et améliorez la documentation de chaque release. • Vous définissez et suivez des indicateurs de fiabilité (SLI/SLO) et des error budgets, en lien avec les équipes de développement. • Vous configurez et maintenez dans Datadog les dashboards, règles d’alerting et runbooks, en veillant à améliorer en continu l’observabilité. • Vous corrélez logs, traces et métriques pour diagnostiquer en profondeur les applications .NET, PHP, JavaScript (Datadog APM/Logs/RUM). • Vous mettez en place et améliorez les mécanismes d’automatisation de l’exploitation : configuration d’autoscaling, définition de health probes, mise en œuvre de politiques de redémarrage automatique et de procédures de bascule (failover). • Vous facilitez des post-mortems constructifs après incidents, documentez les enseignements et pilotez les actions correctives techniques ou organisationnelles. • Vous mettez à jour et améliorez les pipelines de déploiement dans Azure DevOps. • Vous maintenez et faites évoluer les Helm charts utilisés pour le déploiement sur Kubernetes (AKS). • Vous intégrez SonarQube dans les processus de livraison pour renforcer les contrôles de qualité de code. • Vous collaborez avec les tech leads, développeurs et QA pour intégrer les tests automatisés dans les workflows CI/CD et renforcer la résilience des services. • Vous assurez le support de niveau 3 sur les services de la plateforme et contribuez aux analyses post-incident. Connaissances techniques • Maîtrise de la mise en œuvre de pipelines Azure DevOps (YAML, templates). • Expérience avec Kubernetes (AKS) et gestion des déploiements via Helm charts. • Pratique de Datadog (APM, Logs, RUM, dashboards, alerting, runbooks). • Connaissance de SonarQube et de son intégration dans la CI/CD. • Bonnes notions de Windows Servers et environnements hybrides. • Compréhension des principes SRE (SLI/SLO, error budgets, observabilité, postmortems). • Connaissances en développement C#, PHP ou JavaScript appréciées. • Familiarité avec Octopus Deploy est un atout. • Anglais courant indispensable. Démarrage : ASAP Mission: Longue
Offre d'emploi
Data Engineer
Publiée le
Apache Hive
Apache Kafka
Apache Spark
6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Offre d'emploi
Data engineer (H/F)
Publiée le
35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Mission freelance
Data Engineer Scala/Spark.
Publiée le
Azure
Databricks
Datadog
1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Mission freelance
SysOps Engineer
Publiée le
Active Directory
Veeam Backup & Replication
Virtualisation
14 mois
Paris, France
Télétravail partiel
Nous recherchons un Consultant System Ops/Sécurité pour renforcer une équipe IT en charge de la sécurité opérationnelle et de la fiabilité des infrastructures d’un grand groupe international. Le consultant interviendra en étroite collaboration avec les équipes cybersécurité , infrastructure et infogérance , afin d’assurer la continuité, la conformité et la sécurité des environnements techniques . Missions : Assurer la sécurité opérationnelle des systèmes IT et la conformité des environnements Windows & Linux. Coordonner les actions avec les équipes CyberSOC et les prestataires externes pour la remédiation des vulnérabilités (CVE critiques, patching). Gérer et renouveler les certificats de sécurité (Sectigo, Digicert, sous-CA interne). Administrer l’ Active Directory (création/modification de comptes, intégrations applicatives, remédiation). Superviser les solutions de sauvegarde VEEAM (B&R, Veeam One, intégration Azure, reporting). Contribuer à la gestion des infrastructures de stockage locales et cloud (Azure). Participer à l’administration et à la sécurisation des environnements de virtualisation de postes (Citrix, AVD). Collaborer aux plans de continuité / PRA-DRP pour les serveurs critiques.
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 729z7ixwq0
Mission freelance
IT Engineer - BELGIQUE
Publiée le
SCADA
1 an
550 €
Belgique
Nous recherchons un(e) IT Engineer pour rejoindre une équipe pluridisciplinaire dédiée à la gouvernance et à la mise à disposition des données industrielles dans une infrastructure Unified Namespace (UNS) . Composition de l’équipe : OT Engineer Senior Technical Leader OT Engineer Développeur Fullstack Expert en Data Governance Contexte et missions : Dans le cadre de la mise en place d’une architecture Industrie 4.0, vous travaillerez avec le Technical Leader pour évaluer et déployer des solutions permettant la collecte, la contextualisation et la standardisation des données machines . Vous contribuerez aux choix technologiques de l’infrastructure industrielle (ex. : HiveMQ, NodeRed, FlowFuse, SCADA, Kepware…). Une fois l’architecture validée, vous participerez à l’intégration des équipements existants dans cette nouvelle infrastructure, comprenant notamment : PLC (majoritairement Siemens S7) Commandes numériques (ex. Siemens 840D SL/PL/One) Robots industriels (majoritairement Fanuc) Étuves Lignes complètes de production Systèmes de traçabilité connectés … Vos responsabilités : Analyse et exploitation des données en collaboration avec l’ingénieur OT Création et configuration des topics dans HiveMQ Gestion des accès et de la sécurité dans HiveMQ Support au développement Low-Code (NodeRed-like) pour l’ingénieur OT Test des communications entre le middleware OT et HiveMQ Rédaction de la documentation complète et des checklists de tests Validation du fonctionnement réel par rapport aux attentes Mise en production et gestion du handover avec les équipes métiers Profil recherché : Expérience sur les systèmes industriels et les architectures IT/OT Connaissance des protocoles et outils de collecte et routage de données industrielles Capacité à travailler en équipe pluridisciplinaire
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
DevSecOps / Security Engineer (H/F)
Publiée le
DevSecOps
ELK
1 an
380-480 €
Rennes, Bretagne
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) DevSecOps / Security Engineer H/F pour intervenir chez un de nos clients. Contexte : Dans le cadre d’une mission courte à fort enjeu, vous serez chargé(e) de configurer et adapter un outil de collecte de logs. Votre mission consistera à garantir un paramétrage optimal afin de permettre un déploiement massif de la nouvelle version du collecteur à horizon T1 2026, tout en assurant la qualité de la chaîne d’audit et de supervision.
Offre d'emploi
DevOps Engineer - CDI
Publiée le
Ansible
AWS Cloud
DevOps
55k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
🛠️ Missions principales Maintien opérationnel & fiabilité de la plateforme Superviser l’ensemble des environnements (préprod, staging, prod…) Mettre en place / améliorer le monitoring, les alertes et la supervision S’assurer de la bonne exécution des pipelines et des déploiements Garantir la disponibilité, la performance et la stabilité du SaaS CI/CD & automatisation Maintenir et améliorer une CI/CD mature sous GitLab Gérer la génération d’images Docker, pipelines multi-serveurs, tests automatisés Automatiser la création/destruction d’environnements à la volée Soutenir les équipes QA (tests fonctionnels automatisés) Infrastructure & IaC Maintenir l’infrastructure Kubernetes existante Maintenir et faire évoluer l’IaC complète en Terraform Améliorer les process d’automatisation avec Ansible Aider ponctuellement d’autres équipes à industrialiser leurs outils internes FinOps & optimisation des coûts Suivre l’usage de l’infrastructure au quotidien Participer au pilotage de la consommation cloud (alertes quotidiennes, revue hebdo) Analyser l’impact budgétaire des évolutions Terraform (plan vs apply) Proposer des optimisations pragmatiques Sécurité & bonnes pratiques Maintenir les niveaux de sécurité de la plateforme Garantir la conformité des environnements Appliquer les best practices DevOps / Cloud / Kubernetes Collaboration et participation aux rituels Participer activement aux points Kaizen avec les leads techniques Proposer des améliorations continues Fournir des outils fiables aux développeurs & aux équipes métier Travailler en étroite collaboration avec le manager technique (support constant) Stack technique Cloud AWS (maîtrise attendue) Connaissance Azure appréciée (migration prévue à moyen terme) IaC & orchestration Terraform (incontournable) Kubernetes Ansible CI/CD GitLab CI (self-hosted) Docker GitLab Registry Bonus Connaissance des langages de la plateforme : PHP Node.js / TypeScript / NestJS
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
304 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois