Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 890 résultats.
Freelance

Mission freelance
Expert SAP BC - S/4HANA & RISE

Zenith Rh
Publiée le

12 mois
Ille-et-Vilaine, France
Nous recherchons pour notre client, un(e) Consultant Expert SAP BC - S/4HANA & RISE, pour une mission en freelance de longue durée. Au sein d'un acteur majeur de son marché, vous rejoindrez une équipe dynamique de 8 experts rattachée au pôle SAP Cloud Hosting. Dans un contexte de transformation digitale d'envergure, votre rôle sera d'apporter une expertise de haut niveau sur les solutions S/4HANA et RISE avec SAP pour soutenir la modernisation des infrastructures du groupe. Les enjeux de la mission sont multiples : assurer la continuité de service, piloter des migrations complexes vers le cloud et garantir la performance globale d'un environnement technologique de pointe. Vous interviendrez sur l'ensemble du cycle de vie des solutions, du diagnostic technique à la coordination des partenaires externes. Les principales responsabilités incluent : 🔹 Le pilotage technique des projets de migration et d'intégration S/4HANA et RISE. 🔹 Le diagnostic et la résolution de problématiques complexes liées aux environnements cloud. 🔹 Le suivi de la performance des partenaires via le respect des engagements contractuels (SLA). 🔹 L'installation, la configuration et l'optimisation des infrastructures (Core SAP, VTOM). 🔹 L'animation d'une communauté d'experts et la coordination des équipes sécurité, réseau et applicatives.
CDI

Offre d'emploi
[Ingénieur FLUX CFT Secure Transport] H/F

CONSORT GROUP
Publiée le

75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Depuis plus de 30 ans, Consort Group accompagne les entreprises dans la valorisation de leurs données et infrastructures. À travers ses pôles Consortis et Consortia, le groupe place l’expertise technique, l’humain et la responsabilité sociétale au cœur de ses engagements. Vous rejoignez les équipes Consortis , au cœur des enjeux de Cybersécurité, Systèmes, Cloud, Réseaux, Digital Workplace , renforcés par des expertises DevOps & RPA pour accélérer l’agilité et la performance opérationnelle. C’est votre mission Vous êtes passionné·e par les flux de données sécurisés et les environnements middleware critiques ? Ce poste est fait pour vous. En tant qu’ Ingénieur Middleware Flux CFT / Secure Transport , vous êtes responsable de la mise en place, de la sécurisation et du bon fonctionnement des échanges de fichiers au sein du système d’information et avec les partenaires externes. Vous intervenez aussi bien sur le Build que sur le Run dans un environnement à forts enjeux métiers. Côté Build Vous contribuez à la construction et à l’évolution des plateformes d’échanges de flux : Mise en place de nouveaux flux de transferts de fichiers Intégration de nouveaux partenaires techniques et métiers Participation aux projets de migration vers les solutions cibles Définition et application des règles de sécurité et de conformité Contribution à l’architecture et à la standardisation des flux Côté Run Vous garantissez la continuité et la qualité de service des flux en production : Supervision et maintien en condition opérationnelle des flux Traitement des incidents et demandes des équipes applicatives Suivi de la disponibilité des partenaires Reprise et relance des flux en cas d’incident Support technique auprès des équipes métiers et IT Mise à jour de la documentation et capitalisation C’est votre parcours Vous justifiez d’au moins 6 ans d’expérience dans des environnements middleware, d’échanges de fichiers et d’infrastructures critiques. Vous aimez les environnements exigeants où la fiabilité, la sécurité et la rigueur sont essentielles, tout en restant force de proposition. Un anglais technique est requis pour interagir avec les équipes et partenaires internationaux. C’est votre expertise Vous maîtrisez les environnements suivants : Axway : CFT, XFB Gateway, Secure Transport, Sentinel Systèmes : Windows, Linux, AIX Scripting : Shell, Perl, Python Environnements sécurisés, multi-partenaires, orientés production C’est votre manière de faire équipe Sens du service et du support Rigueur et fiabilité Esprit d’analyse et de résolution de problèmes Capacité à travailler avec des équipes techniques et métiers Communication claire, y compris avec des partenaires externes C’est notre engagement Chez Consort Group, vous êtes un·e expert·e que l’on accompagne pour que chaque mission compte : Un onboarding humain et structuré Une proximité managériale réelle Des formations continues Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets à fort impact C’est clair Processus de recrutement : Premier échange avec l’équipe recrutement Entretien RH et échange métier Test ou échange technique Rencontre avec le manager de mission Démarrage 🚀 C’est bon à savoir Lieu : Paris (75) Contrat : CDI Télétravail : 2 jours par semaine Salaire : jusqu’à 59 000€ brut/an Famille métier : Middleware / Flux / Systèmes Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance
CDI

Offre d'emploi
Consultant DevOps Automation

KLETA
Publiée le
Ansible
Terraform

3 ans
Paris, France
Dans le cadre d’un programme de transformation technologique, nous recherchons un Consultant DevOps Automation pour concevoir, optimiser et industrialiser les chaînes d’automatisation des plateformes IT et cloud. Vous analyserez les processus existants, identifierez les points de friction et proposerez des trajectoires d’amélioration basées sur les meilleures pratiques DevOps. Vous guiderez la mise en place et l’optimisation de pipelines CI/CD, en intégrant des outils tels que GitLab CI, Jenkins, GitHub Actions ou équivalents. Vous serez responsable de l’automatisation des déploiements d’infrastructures et d’applications via des outils d’Infrastructure as Code (Terraform, Ansible, Pulumi ou équivalent). Vous travaillerez étroitement avec les équipes Cloud, SRE et applicatives pour garantir des déploiements reproductibles, sécurisés et traçables. Vous participerez également à l’intégration de mécanismes de tests automatisés, de validation continue et de rollback afin de renforcer la fiabilité opérationnelle. Enfin, vous aurez un rôle clé dans la diffusion de la culture DevOps et l’accompagnement des équipes vers une plus grande maturité en automatisation.
Freelance

Mission freelance
DBA Oracle Junior - 79

Mindquest
Publiée le
Oracle Database
PostgreSQL

3 mois
450-550 €
Niort, Nouvelle-Aquitaine
Mon client recherche un DBA Oracle junior pour une mission freelance à Niort (79). Mission : Au sein du département Infrastructure & cloud à la DDSI, nous recherchons un administrateur de bases de données sur les SGBD suivants : Oracle MySQL PostgreSQL SQL Server Vous travaillerez au sein d'une petite équipe soudée et dynamique, dans le contexte d'un vaste écosystème de Production à dominance Linux. Des astreintes et/ou des interventions en dehors des heures ouvrées sont à prévoir de manière régulière. Une bonne connaissance d'Oracle et de PostGreSQL est impérative, y compris leurs mécanismes de haute disponibilité (cluster/réplication). Objectifs et livrables : Expertise N2 & N3 et accompagnement des utilisateurs Traitement des incidents N2 & N3 dans le respect des SLA Assurer la disponibilité, l'intégrité et la résilience des données Assurer le MCO continu et évolutif Participer aux choix d'architecture Automatiser tous les actes manuels (ansible, python, shell linux)
Freelance

Mission freelance
243568/DevSecOps confirmé / senior - secteur énergie - Lyon

WorldWide People
Publiée le
AWS Cloud
DevOps

6 mois
400 £GB
Lyon, Auvergne-Rhône-Alpes
DevSecOps confirmé / senior - secteur énergie - Lyon Contexte de la mission : Dans le cadre d'un projet (mode build) dans le domaine de l'énergie à Lyon. Missions : Mettre en place et maintenir des pipelines CI/CD pour automatiser le processus d'intégration, de test et de déploiement. S'assurer que le code est continuellement testé, intégré et déployé de manière automatisée. Intégrer des outils d'analyse de sécurité du code dans les pipelines CI/CD Mettre en place des solutions d'analyse de logs et de surveillance des applications pour les environnements de production et hors production Travailler en étroite collaboration avec les équipes agiles de développement, d'exploitation et de sécurité Sensibiliser les développeurs de l'équipe agile à la mise en œuvre de l'Infrastructure as Code afin de les rendre autonomes pour réaliser les changements les plus fréquents Surveiller la consommation des services Cloud utilisé par le produit afin de détecter rapidement toute dérive, et proposer des améliorations en continu pour optimiser les coûts et les impacts environnementaux Accompagner les actions d’acculturation à la sécurité des SI à la maille des équipes agiles, s'’assurer du respect et de la mise en œuvre des principes directeurs cyber pour Vision 2035, de la PSSI et de leurs déclinaisons (RSIS...) et aider à la mise en place de bonnes pratiques de sécurités (chiffrement à l’état de l’art, authentification des flux, …) Objectifs et livrables Profil souhaité : 5 ans d'expériences ou plus Statut ingénieur (bac +5) A déjà une expérience sur un projet de développement porté par AWS A déjà une expériences réussi dans le secteur de l'énergie
Freelance

Mission freelance
Consultant DEVOPS INFRA AS CODE

PROPULSE IT
Publiée le
DevOps

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un consultant senior en IAC (Infrastructure As code) Dans le cadre d' un projet « IaC », cette équipe souhaite se renforcer avec une prestation d'expert technique sur des technologies typées « Cloud » afin de mettre en place une chaine CI/CD de delivery d'infrastructure OnPremise sur le principe de l'« Infrastructure as Code » La chaîne CI/CD sera composée entre autre des éléments suivants : Gitlab-CI , Ansible, Packer, Terraform Vsphere7, Awx, Kubernetes, Pythn/YAML/Bash. Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». - Réaliser et modifier différents rôles et playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaîne CI/CD.
CDI
Freelance

Offre d'emploi
Tech Lead Infra (H/F)

WINSIDE Technology
Publiée le
Gestion de projet
ITSM

1 an
Lille, Hauts-de-France
Mission Le / la Tech Lead Infra est l’expert(e) technique référent(e) sur un périmètre d’infrastructures stratégiques et de services associés. Il/elle assure : la conception technique et la validation des solutions de son domaine, le maintien en conditions opérationnelles et l’amélioration continue (réduction de la dette technique, résilience, exploitation), l’expertise de dernier recours (N3/N4) pour les incidents majeurs, le pilotage opérationnel des activités Hosting. Sa mission principale est de garantir la stabilité, la performance et la sécurité des services informatiques. Responsabilités principales 1. Gouvernance & Expertise technique Assurer la cohérence, la performance et la sécurité des architectures du domaine. Participer à la conception et à la validation des évolutions majeures et nouveaux services. Assurer la veille technologique. Définir et maintenir les standards, bonnes pratiques et procédures d’exploitation. Apporter un support architectural aux équipes projets. Valider techniquement les solutions proposées par les partenaires (gatekeeper). 2. Qualité & Amélioration continue Contribuer au Plan d’Amélioration Continue (CSI). Transférer l’expertise aux équipes Run (N1/N2/N3). Identifier et automatiser les tâches récurrentes. Garantir l’application des processus ITIL (gestion des changements, capacité…). 3. Support & Opérations critiques Intervenir en expertise ultime (N4) sur les incidents majeurs. Superviser et valider les analyses de causes racines (RCA). Garantir la conformité technique des opérations MCO. Évaluer les risques techniques liés aux changements et vulnérabilités. Piloter opérationnellement les activités Hosting. Contribuer aux dispositifs de sauvegarde et PRA. Compétences requises Compétences techniques Architecture IT : conception, rétro-conception, sécurité Veille technologique : analyse et proposition d’innovations Support au changement : évaluation d’impacts, migration, modernisation Documentation technique Gestion des risques ITSM : gestion des incidents, problèmes et changements Expertises Hosting Cloud IaaS/PaaS : AWS, Azure, GCP ; automatisation (Terraform, Ansible) ; conteneurs (Docker, Kubernetes) OS : Windows Server, Linux/Unix, sécurité, patching Virtualisation & hyperconvergence : VMware, Hyper-V Stockage & sauvegarde : SAN/NAS, PRA, sauvegardes isolées Services d'annuaire : Active Directory, LDAP, IAM Compétences comportementales Orientation client & service Leadership transversal Communication claire Capacité d’analyse et de synthèse Autonomie et prise de décision Transmission et pédagogie Rigueur, respect des processus Orientation qualité et performance Langues Anglais (courant) Expérience Bac+4/5 (informatique ou équivalent) 5 à 8 ans minimum d’expérience en infrastructures on-premise et Cloud Une première expérience en management (hiérarchique ou fonctionnel) est appréciée Très bonne maîtrise des environnements ITSM et méthodes projet Livrables attendus Feuille de route des services et budget annuel Tableau de bord de performance opérationnelle Dossiers de cadrage / business case Bilan annuel d’optimisation des coûts (FinOps) Plan d’amélioration continue (CSI) Rapports de qualité des actifs Cahier des charges et documentation PRA / sauvegardes isolées Indicateurs de performance Satisfaction métiers Time-to-Market des évolutions Contribution à la réduction des coûts (TCO) Disponibilité réelle vs SLA Taux d’obsolescence technique Niveau de conformité aux bonnes pratiques et standards Taux de résolution des problèmes (CSI) Avancement du plan d’amélioration continue
Freelance

Mission freelance
SITE RELIABILITY ENGINEER (SRE) MONITORING (h/f)

emagine Consulting SARL
Publiée le

1 mois
600-630 €
92800, Puteaux, Île-de-France
Localisation: La Défense 2 jours de télétravail par semaine (lundi et vendredi) Durée: 3 ans Anglais courant obligatoire Contexte : Le Site Reliability Engineer (SRE) spécialisé dans le monitoring est responsable de la mise en place et de l’optimisation des solutions de monitoring pour assurer la performance, la disponibilité et la fiabilité des systèmes et applications au sein de l'organisation. Livrables : Assurer la coordination et l’adoption de l’outil DYNATRACE. Piloter l’intégration de nouveaux services/applications dans Dynatrace. Intégrer le monitoring dans les pipelines CI/CD via GitHub et Terraform. Automatiser les déploiements et configurations de monitoring des applications dans Azure. Collaborer avec les équipes de développement et d’exploitation pour identifier et résoudre les problèmes de performance. Conception et déploiement de solutions de monitoring et d’alerting avec Dynatrace. Configuration et optimisation des dashboards, alertes et métriques. Suivi des incidents majeurs et mise en place d’actions correctives. Participer à la gouvernance de l’équipe cloud IT Operations et de l’outil d’observabilité. Produire les KPIs de gouvernance du S.I. Coordination des incidents complexes entre acteurs N1, N2, N3 jusqu’à résolution. Compétences : Diplôme supérieur Bac +5 en informatique ou équivalent. 5 ans d'expérience en tant que SRE, DevOps Engineer ou équivalent. Expertise en monitoring avec Dynatrace. Connaissance de Microsoft Azure. Compétence en Infrastructure as Code via Terraform. Maîtrise de l’anglais.
CDI
Freelance

Offre d'emploi
Ingénieur OPS

VISIAN
Publiée le
Dynatrace
XL Release

1 an
40k-45k €
400-530 €
Île-de-France, France
Descriptif du poste Prestation d'Ingénierie OPS afin de participation à des projets métier en mode équipage. La mission requiert une très forte capacité à maitriser les aspects techniques et en garantissant le respect des exigences de la Production et la bonne exploitabilité des produits mis en œuvre. L'automatisation via les toolchain et les outils XL Release sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative / technique à gérer dans une équipe produit Cloud. HNO et astreinte demandée. Anglais courant. Missions principales Réalisation les installations sur les différents environnements (Réaliser passage en production (mep, cab ...)) Facilité de déploiement des solutions Intégration dans l'équipe, en mobilisant les bonnes expertises / services de Production : le monitoring des services et Les environnements techniques (Prod et hors Prod) Conduction ou vérification des revues de sécurité de l'équipe Évolution des infras et les outils Remonte les propositions d'amélioration des services de production applicative dans une démarche d'amélioration continue Représentant de la Production dans l'équipe projet (Squad) (TOOLCHAIN - Ansible A/R) Promotion des solutions basées sur les produits et services existants, intégrant par nature les exigences de production et de sécurité (résilience, monitoring, …) afin de réduire le délai de mise en œuvre Définir, piloter et garantir les SLOs (Gestion des problèmes (récurrence incidents)) Assemblage des produits et services de production et d'infrastructure au profit des applications, en conseillant sur l'adoption des technologies en ligne avec les besoins applicatifs Support des équipes de développement pour sécuriser et accélérer la livraison des projets Implémentation des user stories techniques Suivi de l'Exploitabilité du Delivery - (PACT, PCR, Exigence de prod, normes et standards) Identification des points de blocage d'exploitation (flux, sécurité, réseau…) puis alerter et proposer des plans d'action Contribution à la définition des niveaux de service et des indicateurs de Production Veille à l'existence et au test d'un plan de bascule en backup (ICP) Définition de l'architecture Technique (SATS/CASA) - Participation aux réunions de définition de l'architecture Contrôle de la traçabilité des accès aux machines (OS, Espace de stockage, routeurs…) et remédier si nécessaire Vérification de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Anticipation des problématiques de conformité aux règles et standards d'architecture, de sécurité, de délais de livraisons et de mise à l'échelle des solutions proposées Veille à l'ajout des exigences d'infrastructures et d'exploitation dans le Product Backlog, ainsi que toute User story technique jugée nécessaire (industrialisation, gestion de l'obsolescence, …) Définition et mettre en place/faire évoluer le Monitoring Mise en place de la surveillance et la supervision de la Solution mise en production Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : Le monitoring des services et Les environnements techniques (Production et hors Production) Mise en place des consignes (Pilotage applicatif) et AEL Référentiel Documentation & GED Veille de la disponibilité d'une documentation Expertise et avis De par son expertise et son rôle il donne son avis : Le manuel utilisateur (fonctionnel) Gestion des incidents – Assistance en cas de blocage ou d'incident sur les versions mises en production La continuité applicative (ICP/Backup Restore/DR) - Restauration des bases de données La guilde technique
Freelance
CDI

Offre d'emploi
EXPERT Snowflake

EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake

1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
CDI
CDD
Freelance

Offre d'emploi
DATA  Engineer GCP

KEONI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
Scrum

18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Développeur / DevOps Senior

ALLEGIS GROUP
Publiée le
CI/CD
CMDB
Python

4 mois
Seclin, Hauts-de-France
Mon client recherche un Développeur/DevOps expérimenté pour mener la refonte complète d’un outil interne utilisé pour calculer les coûts d’infrastructure technique, dans un contexte Cloud Services, Finance et Operations. Le consultant devra concevoir, développer, industrialiser et documenter un nouvel outil robuste, moderne, maintenable et conforme aux standards internes. Compétences techniques requises Python (maîtrise solide) Développement d’API (design + implémentation) Bonnes pratiques : tests unitaires , versioning, code review Culture DevOps : CI/CD, monitoring, gestion de configuration Connaissance CMDB appréciée Sensibilité finance IT (coûts, budgets, chargeback) Compétences fonctionnelles & soft skills Capacité à analyser un besoin et rédiger des specs fonctionnelles & techniques Autonomie forte, proactivité, sens de l’organisation Communication FR/EN (écrit + oral) Capacité à travailler avec plusieurs équipes : finance, ITSM, cloud, architecture… Livrables attendus Spécifications fonctionnelles et techniques Maquettes/API mocks Versions successives du nouvel outil Documentation utilisateur + guide de maintenance Suivi hebdomadaire de l’avancement
CDI

Offre d'emploi
Chef de Projet Expert DevOps / OpenShift H/F

CONSORT GROUP
Publiée le

60k-68k €
Île-de-France, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Chef de Projet Expert DevOps / OpenShift H/F C’est votre mission Vous êtes passionné·e par les environnements cloud native, les plateformes OpenShift et les projets d’infrastructure à forts enjeux ? Ce poste est fait pour vous. En tant que Chef de Projet Expert DevOps OpenShift , vous êtes responsable du pilotage du stream Recette et de la coordination des activités de test, de validation et d’industrialisation de notre écosystème cloud, dans le cadre du programme stratégique OpenShift NextGen. Périmètre de responsabilités Définir le périmètre de recette (technique et fonctionnel) Élaborer la stratégie de recette et le planning associé Mettre en place et maintenir les environnements de test Coordonner les travaux avec les équipes MCO / MCS Piloter les campagnes de recette, y compris celles réalisées avec les clients Assurer le suivi des anomalies et la coordination des actions correctives Garantir l’alignement avec les autres streams du programme Activités principales Rédaction des plans de test et des scénarios de recette Organisation et animation des comités de suivi et de pilotage Suivi opérationnel des tests (exécution, automatisation, couverture) Reporting régulier sur l’avancement, les risques et les plans d’actions Coordination transverse avec les équipes DevOps, Infra, Sécurité et Métiers C’est votre expertise : Solide expérience sur des projets infrastructure / cloud Expertise des environnements OpenShift, Kubernetes, PaaS Bonne maîtrise des processus MCO / MCS Expérience dans l’industrialisation et la mise en production de plateformes cloud Sensibilité aux enjeux de sécurité, de performance et de résilience C’est votre manière de faire équipe : Chef de projet confirmé, à l’aise dans des environnements complexes et multi-acteurs Excellentes capacités de communication et de coordination Esprit analytique, rigueur et sens de l’organisation Autonomie, leadership et capacité à piloter des sujets stratégiques À l’aise dans un contexte international (anglais opérationnel) C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est bon à savoir Lieu : Saint-Quentin-en-Yvelines (78) / Paris Montparnasse Contrat : CDI Télétravail : 2jours par semaine Salaire : De 60 K€ à 68 K€ brut annuel Famille métier : [DevOps / Recette / Infrastructure] Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance
CDI

Offre d'emploi
devops

5COM Consulting
Publiée le
Azure
DevOps
Terraform

12 mois
40k-46k €
280-410 €
Bordeaux, Nouvelle-Aquitaine
ngénieur SRE/DEVOPS dans une équipe Agile pour construire les infras dans le cloud Azure grâce à TerraForm, construire les pipelines via GITLAB CI, gérer la bonne conduite de tous les process en suivant les exigences de production de l'équipe DEVOPS (30 personnes). Objectifs et livrables  Conception, participation à la définition de l’architecture et déploiement de l'infrastructure onPremise et Cloud  Conception & développement de scripts et APIs techniques  Configuration de middlewares  Analyser les anomalies sur les environnements de pré-production/ staging et de production  Définition des critères d’exploitabilité d’un applicatif  S’assurer de la mise en place des critères de sécurité définis  Être garant, de la mise en place de l'exploitabilité des applicatifs déployés en production (smokeTest, supervision, alerting, fiches consignes, KPI…), en suivant les critères d’exploitabilité définis par la communauté devops  Effectue le suivi de la qualité de la production (performances, incidents) conformément au contrat de service  Accompagne les projets d’un domaine d’activité en tant que spécialiste de la production : vérification du respect des critères d’exploitabilité  Élabore, réalise et fiabilise les plans d’ordonnancement des traitements de production  Automatiser les tâches manuelles automatisables, répétables et sans valeur ajoutée  Conception et construction des usines de déploiement logiciels  Maintien en condition opérationnelle des usines de déploiement logiciels existantes et des APIs associées, des outillages et infrastructures transverses  Réaliser de l'astreinte, notamment lors d'alertes en HNO  Travailler en mode agile dans les squads de développement (le mode agile ne doit pas empêcher le ticket JIRA)  Diffuser la connaissance et les bonnes pratiques devops, notamment en participant et en animant des communautés de pratiques Devops.  Documenter  Être force de proposition dans l'amélioration des techniques d'industrialisation et d’automatisation, grâce à de la veille technologique  Communication avec les autres équipes IT du groupe Support aux équipes de développement et d'exploitation Compétences demandées Compétences Niveau de compétence ANSIBLE Élémentaire Hashicorp VAULT Avancé Gitlab CI/CD Avancé LINUX Confirmé Cloud AZURE Confirmé Python Confirmé SQL Azure Avancé Bases DE données NoSQL Avancé terraform Confirmé BASH Shell Avancé Langues Niveau de langue Anglais Élémentaire
Freelance

Mission freelance
Chef de Projet Digital / Product Owner – Platform Engineering

Axysse
Publiée le
Grafana
Prometheus
Terraform

1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme stratégique autour de l’ expérience développeur et de l’industrialisation des plateformes techniques , nous recherchons un Chef de Projet Digital / Product Owner expérimenté pour piloter des initiatives structurantes autour d’un Internal Developer Portal et de l’orchestration de la delivery infrastructure . Le rôle s’inscrit au cœur d’un environnement DevOps / Cloud Native , avec un fort enjeu d’amélioration de la Developer Experience (DX) et d’optimisation des pratiques de delivery. 📍 Localisation : Paris (mode hybride – télétravail possible) 📅 Démarrage : ASAP 🎯 Vos responsabilitésPilotage du portail développeur (Internal Developer Portal – Backstage) Définir la vision produit et la roadmap du portail développeur. Construire et prioriser le backlog produit (epics, user stories, critères d’acceptation). Piloter les rituels Agile : sprint planning, daily, review, rétrospective. Coordonner les contributions des équipes techniques impliquées. Favoriser l’ adoption du portail : onboarding des équipes, communication interne et accompagnement. Suivre les KPIs d’adoption et de qualité de la Developer Experience . fiche_de_poste_cdp_po_platform … Orchestration des projets d’infrastructure Piloter un portefeuille de projets techniques autour de la delivery infrastructure. Coordonner les initiatives liées à : CI/CD Infrastructure as Code Kubernetes Observabilité Sécurité plateforme Identifier les dépendances inter-projets et gérer les risques. Produire des reportings clairs et structurés pour les parties prenantes. Animation et amélioration continue Animer les rituels de gouvernance et de delivery Agile . Contribuer à l’évolution des processus DevOps et Platform Engineering . Participer à la diffusion d’une culture plateforme et developer-centric au sein de l’organisation. Méthodologie Maîtrise des frameworks Agile (Scrum, Kanban, SAFe) . Capacité à rédiger des user stories structurées et animer des ateliers de discovery. Expérience en priorisation produit (RICE, MoSCoW, Kano) . Soft skills Leadership transversal et capacité à fédérer des équipes techniques. Excellentes capacités de communication. Autonomie, rigueur et orientation résultats. Curiosité pour l’écosystème Cloud Native / CNCF . 💡 Pourquoi rejoindre cette mission ? Un rôle stratégique au cœur de la transformation Platform Engineering. Un environnement technologique Cloud Native moderne . Un impact direct sur la Developer Experience et la productivité des équipes d’ingénierie . Des projets visibles et structurants à l’échelle de l’organisation.
Freelance

Mission freelance
DATA ENGINEER GCP

BEEZEN
Publiée le
Google Cloud Platform (GCP)

1 an
Paris, France
EXPERIENCE DANS LES MEDIAS IMPERATIF Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestation de cette équipe : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
890 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous