Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 312 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F) - Lyon

Publiée le
Apache Airflow
MLOps
PySpark

1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
Freelance

Mission freelance
DevOps Engineer

Publiée le
Ansible
DevOps
Helm

2 ans
Toulouse, Occitanie
Missions : · Accompagner les équipes de développement sur la démarche DevOps durant leurs itérations agiles. · Collaborer avec les équipes de développement pour intégrer leurs composants et codes de déploiement. · Développer et ajouter des fonctionnalités via des librairies Ansible en fonction des besoins remontés par les équipes, et apporter un support technique · Assurer la conformité des plateformes de tests et opérationnelles aux attentes définies, et participer aux recettes des nouvelles plateformes à livrer prochainement. · Contribuer au développement ponctuel du composant de transfert de données et maintenir le code de déploiement ainsi que le Helm chart.
Freelance

Mission freelance
Data Engineer / Data Analyst Python

Publiée le
Analyse
KPI
Python

3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Freelance

Mission freelance
Data Engineer GCP

Publiée le
Google Cloud Platform (GCP)

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Engineer GCP Objectif global : Développer Data Engineer Google Plateforme Clermont-Ferrand Compétences techniques: GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques: Français Professionnel Impératif Anglais Professionnel Impératif Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme -- Nous recherchons un Data Engineer GCP Objectif global : Développer Data Engineer Google Plateforme Clermont-Ferrand Compétences techniques: GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques: Français Professionnel Impératif Anglais Professionnel Impératif Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme
Freelance

Mission freelance
Data Engineer Expert données GPS

Publiée le
Databricks
GPS
SIG (Systèmes d'Information Géographique)

3 mois
Île-de-France, France
Télétravail 100%
📅 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 🔍 Nous recherchons un Data Engineer ayant une expérience indispensable sur des problématiques GPS pour renforcer immédiatement une équipe spécialisée. 🎯 Missions principales : ✅ Analyses et rapprochements de données GPS avec la voirie ✅ Détection, correction et nettoyage des points aberrants ✅ Rapprochement GPS ↔ adresses distribuées ✅ Analyse des parcours multi-mode (arrêts, transitions) ✅ Comparaison et analyse des trajectoires entre plusieurs journées
Freelance

Mission freelance
DevOps engineer expert

Publiée le
Active Directory
Github
IAM

1 an
440-550 €
Île-de-France, France
Télétravail partiel
Description et livrables de la prestation Contexte de la mission Une équipe IAM Infra d’environ 60 personnes, réparties entre la France et l’international, recherche un Expert DevOps pour renforcer ses pratiques de développement et de sécurité. Il ne s’agit pas d’une équipe de développeurs de métier : le code produit n’intègre pas toujours des standards de qualité ou de sécurité. La mission vise donc à professionnaliser la qualité du code, à structurer les pratiques DevOps et à accompagner une transformation culturelle. Le rôle comporte deux dimensions essentielles : - Technique : expertise DevOps (Kubernetes, CI/CD, GitHub, automatisation…). - Coaching : accompagnement, transmission des bonnes pratiques, montée en maturité des équipes. Responsabilités et livrables - Structuration et amélioration des pratiques de développement - Définir, déployer et améliorer les bonnes pratiques : CI/CD, tests automatisés, observabilité, sécurité, backup/restore… - Évaluer régulièrement la maturité des pratiques et piloter les évolutions vers des standards plus exigeants. - Mettre en place des rituels d’amélioration continue et des revues de code structurées. - Accompagnement et adoption des pratiques DevOps - Sensibiliser et accompagner des équipes non-développeuses dans l’adoption du mindset DevOps. - Coacher les équipes au quotidien : revue du code, qualité, automatisation, sécurité by design. - Contribuer à la transformation Agile de l’environnement. - Intégration continue, automatisation et outillage - Concevoir, optimiser et opérer les pipelines CI/CD. - Intégrer ou améliorer les outils DevOps : GitHub, GitOps, IaC, automatisation, APIs self-service. - Travailler en binôme avec un Release Manager pour définir les cycles et processus de release. Expertise souhaitée Expertises techniques attendues - Bon niveau dans un langage de scripting : Python, PowerShell. - Maîtrise de Kubernetes / OpenShift. - Expérience en Infrastructure as Code : Terraform, ArgoCD… - Compétences en .NET ou Java. - Connaissance des projets liés à la sécurité informatique. - Bonus selon les profils : Saviynt, Ping Identity, Active Directory. - Solides bases infrastructure (Linux, Windows, réseau). - Connaissance de l’approche ITIL. Compétences non techniques - Aisance dans un environnement international et multiculturel. - Capacité à accompagner, fédérer et influencer. - Gestion des priorités, des dépendances et des situations complexes. - Sens du service et de la qualité. - Capacité analytique pour soutenir l’amélioration continue. Anglais courant obligatoire ; français apprécié. Profil recherché - Au moins 3 ans d’expérience, si la personne est fortement motivée par la dimension coaching et prête à s’impliquer dans l’accompagnement des équipes. - Alternativement, un profil plus senior peut être attendu si l’appétence pour le coaching est plus faible ou si l’environnement technique nécessite un niveau d’expertise supérieur. - Le poste exige une combinaison d’expertise technique solide et de leadership d’influence. - Une attitude proactive, structurée et orientée amélioration continue est indispensable. Mobilité Hybride, 2 jours sur site (PAris Ouest) 3j TT Spécialités technologiques : Tests automatisés Devops Sécurité informatique IAM / gitOps Compétences Technologies et Outils Linux PowerShell CI/CD Windows Active Java Kubernetes Python GitHub Terraform Méthodes / Normes Agile ITIL Intégration continue Soft skills Sens du serviceLeadership Langues Anglais / Français
CDI

Offre d'emploi
Software Engineers DevOps H/F

Publiée le

55k-60k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons notre futur.e software engineer DevOps sur Clermont-Ferrand ! Allez, on vous en dit plus... En lien avec notre manager DCS Sébastien, voici les missions qui vous seront confiées : - Évolution des produits préconisés par l'équipe selon les besoins et les évolutions technologiques - Définition des référentiels de bonnes pratiques, normes, procédures - Conception et réalisation d'outillages pour les équipes de développement - Support aux équipes de développement (bugfix, migration, revue de code, etc.) - Participation à des études techniques et Proof Of Concept - Rédaction de cas d'usage, cas de tests et validation des produits - Développement, déploiement et support d'applications Springboot / Angular / Python - Participation à la rédaction de documents d'architecture, guides, référentiels, présentations et formations - Respect des bonnes pratiques, outils et standards groupe - Forte utilisation de l'automatisation des tests et du déploiement. Et si on parlait de vous ? Titulaire d'un Bac+3 en informatique ou équivalent, vous témoignez de 5 ans d'expérience minimum sur un poste similaire. Compétences attendues sur le volet technique : - Springboot - Angular - Tomcat - Python - GitLab CI/CD - Docker - Kubernetes - Moteur de bases de données relationnelles - SonarQube Notre processus de recrutement en 4 étapes ! Tout simplement - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou TEAMS - Pour finir, discutez métiers avec l'un de nos managers opérationnels - Bienvenue chez nous ! Pourquoi nous rejoindre : - Paniers repas 6,30EUR net / jour travaillé - Prime de participation - Prime de vacances - Prime d'ancienneté - Comité d'entreprise - Mutuelle familiale prise en charge à 60% Ingenieur DEVOPS
Freelance

Mission freelance
Data Engineer

Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER

Publiée le
AWS Cloud
DBT
Snowflake

8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
CDI

Offre d'emploi
Software Engineer Integration H/F

Publiée le

50k-55k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous cherchons à renforcer nos équipes. Vous travaillez en étroite collaboration avec notre manager Sébastien. Allez on vous en dit plus... Dans le cadre d'une transformation digitale voici les missions que nous souhaitons vous confier : Objectifs : - Concevoir, industrialiser et exploiter les solutions middleware et les outils d'observabilité pour garantir la fiabilité, la performance et la sécurité des échanges SI. - Intervenir sur le Build (mise en place, automatisation, CI/CD) et le Run (supervision, support, optimisation) des plateformes et outils clés. Principales activités : - Administration et exploitation des solutions Axway CFT, IBM MQ, Message Broker ACE. - Mise en place et maintien de chaînes CI/CD avec GitLab CI. - Développement et automatisation via Ansible, Terraform (Infrastructure as Code). - Conteneurisation et orchestration (Docker, Kubernetes). - Observabilité et monitoring (OpenTelemetry, Grafana). - Support et résolution d'incidents sur environnements de production et non-production. - Contribution à la gouvernance technique (bonnes pratiques, documentation, accompagnement). - Veille technologique et amélioration continue. Et si on parlait de vous ? De formation informatique B+3/5 ou équivalent. Vous justifiez d'une expérience similaire réussie. Compétences techniques : -Administration Unix/Linux. -Maîtrise des middlewares (Axway CFT, IBM MQ, ACE). -CI/CD avec GitLab. -Conteneurisation (Docker). -Automatisation et IaC (Ansible, Terraform). -Observabilité (OpenTelemetry, Grafana). Vous faites preuve de rigueur et d'un réel sens du service dans l'ensemble de vos missions, et disposez d'une forte capacité d'analyse ainsi que d'une bonne aptitude à résoudre les problèmes. Votre curiosité et votre adaptabilité vous permettent d'évoluer efficacement dans des environnements variés. Vous maintenez une orientation client interne constante, en veillant à répondre au mieux aux besoins des équipes. Langues : -Anglais professionnel (lu, écrit, parlé). Expérience : -Minimum 5 ans dans des environnements DevOps ou systèmes distribués. Intégration dans une équipe internationale, environnement agile. Mode Hybride (avec du télétravail) Ouvert aux indépendants Pourquoi nous rejoindre : - Opportunités d'évolution : parcours de carrière personnalisé, mobilité interne. - Entreprise à taille humaine, esprit d'équipe et bienveillance : entraide, culture du feedback, management de proximité. - Missions variées et innovantes : projets en lien avec les dernières tendances tech. - Télétravail : home office (flexibilité) - Rémunération attractive : paniers repas 6,30EUR, prime ancienneté, prime de vacances, CE, participation, prime d'ancienneté, prime de cooptation, - Un accélérateur de carrière et formation continue : chez nous, chaque collaborateur bénéficie d'un accompagnement personnalisé pour évoluer. - Une entreprise engagée : nous mettons l'accent sur le bien-être au travail, la diversité, l'inclusion et la responsabilité sociétale (Top 3 performance RSE / Dév.Durable - ECOVADIS, Certification ISO27001), réduction de notre empreinte carbone, partenariats avec des associations). Notre processus de recrutement : en 4 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone : Séverine, Ikram, Marlène ou Denis. 2. Puis, nous aurons le plaisir d'échanger en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! DEVOPS
Freelance
CDI

Offre d'emploi
Release Train Engineer (IaaS/Cloud public) sur Nanterre

Publiée le
AWS Cloud
IaaS (Infrastructure-as-a-Service)
Terraform

3 mois
Nanterre, Île-de-France
Je recherche pour un de mes clients un Release Train Engineer (IaaS/Cloud public) sur Nanterre Mission: La prestation demandée vise à faciliter et aider au pilote de la performance au niveau de la chaine de services Cloud Public. Elle est désignée par le le rôle de « Release Train Engineer (RTE) » au sein de la chaine de service CLOUD PUBLIC. Les activités principales du TITULAIRE pour cette prestation seront donc : ? Planifier et animer la cadence de la chaine de services : établir et communiquer le calendrier annuel des sprints et des PI, planifier les ateliers System Demo et Inspect & Adapt. ? S’assurer de la préparation du PI Planning : vérifier que la vision et le backlog de Features soient complets, clairs et prêts pour la planification. ? Animer les cérémonies clés : PI Planning, ART Sync, System Demo, Inspect & Adapt. ? Coordonner les équipes via l’ART Sync : suivre l’avancement, lever les obstacles, piloter la performance collective et les risques systémiques. ? Diffuser la vision et les objectifs du domaine à travers les équipes : donner du sens et assurer la cohérence. ? Collaborer avec Responsables Chaine de Services, System Architects et Responsables de Domaine : maximiser la valeur générée. ? Soutenir l’adoption des pratiques agiles par les équipes et les parties prenantes ? conseiller et accompagner pour une mise en œuvre efficace et efficiente. COMPETENCES CLES : 1 - Primordial (redhibitoire si absent) - Connaissance de l’agilité et de l’agilité à l’échelle (méthode SAFe notamment) 2 - Principal - Management visuel (une première expérience ou une sensibilisation préalable aux outils est nécessaire) 3 - Principal - Capacité à anticiper les impacts techniques ou les risques associés et alerter 4 - Primordial (redhibitoire si absent) - Capacité à analyser une situation complexe et être force de propositions 5 - Primordial (redhibitoire si absent) - Capacité à communiquer (oral et écrit) et aptitude à animer des réunions (audio... ou réunions physiques) et des évènements de type présentation formation devant un public de personnes et tous les évènements SAFe 6 - Primordial (redhibitoire si absent) - Capacité à rédiger des documents 7 - Principal - Compréhension des clients internes et de leurs besoins 8 - Principal - Esprit de synthèse 9 - Primordial (redhibitoire si absent - Ecoute, communication et travail en équipe 10 - Primordial (redhibitoire si absent) - Rigueur et organisation 11 - Principal - Connaissances des normes et des règles de sécurité Informatique et Télécommunication 12 - Souhaitée - Connaissance de l’ENTREPRISE EDF, organisation, métiers, environnement) 13- Principal - Polyvalence et autonomie, bon relationnel, sens du service, force de proposition 14 - Principal - Capacité à synthétiser les informations pour assurer une documentation efficace TECHNIQUES : 1 - Primordial (redhibitoire si absent) - Capacité à réaliser des reporting (utilisation plus poussée d’Excel, voir sur la mise en place de macro) sur JIRA et EasyBI 2 - Principale - Pack Office et Messagerie Outlook et SHARE POINT 3 - Primordial (redhibitoire si absent) - Capacité à réaliser des reporting (utilisation plus poussée d’Excel, voire sur la mise en place de macro) 4 - Primordial (rédhibitoire si absent) - Connaissance des fonctionnalités des services Cloud Amazon Web Services (résesau, IAM, stockage, cyber, calcul, etc.) : savoir de quoi il s’agit, le fonctionnement global des services, les principes de facturation du cloud AWS, le principe de responsabilité partagée, les principes d’architectures AWS 5 - Souhaitée - Connaissance des fonctionnalités Terraform Démarrage: 19 janvier Localisation : Picasso - Nanterre
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
CDI
Freelance

Offre d'emploi
Data Engineer - SPARK/SCALA

Publiée le
Apache Airflow
Apache Spark
PySpark

12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
CDI
Freelance

Offre d'emploi
DevOps engineer expert

Publiée le
Python

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 3 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure ; Devops Engineer Spécialités technologiques : Devops, Sécurité informatique, IAM,gitOps, Tests automatisés MISSIONS Contexte de la mission Une équipe IAM Infra recherche un Expert DevOps pour renforcer ses pratiques de développement et de sécurité. Il ne s’agit pas d’une équipe de développeurs de métier : le code produit n’intègre pas toujours des standards de qualité ou de sécurité. La mission vise donc à professionnaliser la qualité du code, à structurer les pratiques DevOps et à accompagner une transformation culturelle. Le rôle comporte deux dimensions essentielles : - Technique : expertise DevOps (Kubernetes, CI/CD, GitHub, automatisation…). - Coaching : accompagnement, transmission des bonnes pratiques, montée en maturité des équipes. Responsabilités et livrables - Structuration et amélioration des pratiques de développement - Définir, déployer et améliorer les bonnes pratiques : CI/CD, tests automatisés, observabilité, sécurité, backup/restore… - Évaluer régulièrement la maturité des pratiques et piloter les évolutions vers des standards plus exigeants. - Mettre en place des rituels d’amélioration continue et des revues de code structurées. - Accompagnement et adoption des pratiques DevOps - Sensibiliser et accompagner des équipes non-développeuses dans l’adoption du mindset DevOps. - Coacher les équipes au quotidien : revue du code, qualité, automatisation, sécurité by design. - Contribuer à la transformation Agile de l’environnement. - Intégration continue, automatisation et outillage - Concevoir, optimiser et opérer les pipelines CI/CD. - Intégrer ou améliorer les outils DevOps : GitHub, GitOps, IaC, automatisation, APIs self-service. - Travailler en binôme avec un Release Manager pour définir les cycles et processus de release. Expertise souhaitée Expertises techniques attendues - Bon niveau dans un langage de scripting : Python, PowerShell. - Maîtrise de Kubernetes / OpenShift. - Expérience en Infrastructure as Code : Terraform, ArgoCD… - Compétences en .NET ou Java. - Connaissance des projets liés à la sécurité informatique. - Bonus selon les profils : Saviynt, Ping Identity, Active Directory. - Solides bases infrastructure (Linux, Windows, réseau). - Connaissance de l’approche ITIL. Compétences non techniques - Aisance dans un environnement international et multiculturel. - Capacité à accompagner, fédérer et influencer. - Gestion des priorités, des dépendances et des situations complexes. - Sens du service et de la qualité. - Capacité analytique pour soutenir l’amélioration continue. Anglais courant obligatoire ; français apprécié. Profil recherché - Au moins 3 ans d’expérience, si la personne est fortement motivée par la dimension coaching et prête à s’impliquer dans l’accompagnement des équipes. - Alternativement, un profil plus senior peut être attendu si l’appétence pour le coaching est plus faible ou si l’environnement technique nécessite un niveau d’expertise supérieur. - Le poste exige une combinaison d’expertise technique solide et de leadership d’influence. - Une attitude proactive, structurée et orientée amélioration continue est indispensable.
CDI

Offre d'emploi
Data Engineer Expert Elastic Stack - F/H

Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Data Engineer Expert Elastic Stack au sein de nos équipes pour l'un de nos clients. Le contexte ? La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l'essor de nos infrastructures et l'évolution des technologies associées, ou encore l'automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l'organisation de la société et de ses Clients (équipes applicatives et socles multiples et dispersées). Au sein de la société, dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l'équipe « Data4Ops », au sein du Domaine d'Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » à savoir les données utiles à l'ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data de l'entreprise (basée sur les principes/concepts Data Mesh) et en relation avec le PM (Product Manager) Observabilité Vos missions ? - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d'automatiser les pipelines d'ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, ...) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l'entreprise (flux : collecte, traitement, stockage et leur cycle de vie) -Rédiger les documents fonctionnels et techniques, d'exploitation, en veillant au respect des normes existantes - Mettre en oeuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l'entreprise pour prise en compte des flux de données - Développer les cas d'usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Stack Elastic OpenSource
CDI

Offre d'emploi
System Engineer / Virtualization | Secteur Finance (H/F)

Publiée le
VMware

Paris, France
Télétravail partiel
Missions principales 1. Gestion des incidents et support (1/3 du temps) * Gérer les incidents de niveau 2 et 3 dans tous les domaines techniques. * Documenter les procédures et anciens partenaires de support local de niveau 1. * Fournir un support de niveau 1 aux utilisateurs si nécessaire. * Collaborer avec les prestataires externes pour garantir la qualité du service. 2. Maintenance et opérations quotidiennes (1/3 du temps) * Mettre à jour et gérer les environnements serveurs Windows et Linux. * Superviser et administrer l'infrastructure de stockage (VSAN Ready Node). * Administrer les solutions de visioconférence (Zoom Room). * Maintenir et mettre à jour la documentation technique. * Soutenir la gestion opérationnelle des contrats de maintenance et de support (renouvellements, mises à jour, fin de vie, etc.). 3. Projets techniques et évolution de l'infrastructure (1/3 du temps) * Participer et diriger des projets de transformation et d'évolution de l'infrastructure. * Assurer la continuité de service dans les domaines Workplace/Collaboration et Réseau pendant les périodes de congés de l'équipe. 4. Responsabilités transversales : * * Gestion des fournisseurs * Négociation des contrats * Gestion de projet
312 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous