Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 501 résultats.
Freelance
CDI

Offre d'emploi
Cloud Migration Partner

adbi
Publiée le
Amazon S3
Ansible
Bash

5 mois
Île-de-France, France

Objectif de la mission Dans le cadre d’un programme de transformation vers le cloud de confiance, le Cloud Migration Partner jouera un rôle clé dans la définition de stratégies de migration, l’analyse des applications existantes, et la conception des architectures cibles cloud-native. L’objectif est de faciliter l’adoption du cloud en intégrant les meilleures pratiques DevOps, CI/CD et de modernisation logicielle. Responsabilités principales Réaliser des audits techniques des applications existantes (code source, infrastructure, flux de données, stockage, dépendances). Lire et analyser du code fullstack (Java, Python, JavaScript, SQL…) afin d’identifier les patterns techniques et les difficultés de migration. Identifier les obstacles potentiels et proposer des stratégies de migration adaptées (6Rs : Rehost, Refactor, Replatform, etc.). Co-concevoir les architectures cibles sur GCP/S3NS en collaboration avec les équipes produit, infrastructure et sécurité. Intégrer les bonnes pratiques CI/CD dans les recommandations de migration (Git, pipelines, tests automatisés). Produire une documentation claire et structurée (évaluations techniques, roadmaps de migration, architectures cibles). Accompagner et former les équipes IT à l’adoption des outils et pratiques cloud-native.

Freelance

Mission freelance
Lead DATA DATABASE - DATA Engineer Bases de Données

Cherry Pick
Publiée le
Data analysis
Database
ETL (Extract-transform-load)

1 an
550-600 €
64000, Pau, Nouvelle-Aquitaine

Dans le cadre d’un projet de développement visant à construire une base de données interne intégrant des workflows opérationnels, le Tech Lead Data Base interviendra au sein d’une équipe projets de données . Il aura pour rôle d’assurer la coordination technique , la conception data et l’ intégration de la base dans l’environnement SI de l’entreprise. Responsabilités principales Cadrer les besoins et proposer des évolutions techniques et fonctionnelles du produit existant. Assurer la liaison avec des sociétés de développement externalisées : suivi des exigences, respect des délais, qualité des livraisons. Piloter les scripts de développement et définir la stratégie de déploiement (intégration continue, automatisation, mise en production). Concevoir et intégrer la base de données dans l’architecture SI et la stratégie globale de données. Produire la documentation et les rapports, assurer une communication régulière auprès des parties prenantes. Profil recherché Compétences techniques Ingénierie de données (Data Engineering) : pipelines de données, modélisation, intégration ETL/ELT. Architecture de données (Data Architecture) : modèles de données, urbanisation SI, intégration dans un écosystème complexe. Solide maîtrise des bases de données relationnelles (PostgreSQL, Oracle, SQL Server). Connaissances en gouvernance des données : qualité, sécurité, conformité. Familiarité avec le Cloud (Azure, AWS, GCP) appréciée. Compétences fonctionnelles & méthodologiques Expérience en gestion de projets Data/IT et coordination de prestataires externes. Bonne compréhension des rôles Data Owner / Data Steward et des enjeux de data management . Capacité à documenter et produire des rapports clairs et synthétiques. Pratique des méthodes Agile / Scrum . Expérience & formation 5 à 10 ans d’expérience en ingénierie et architecture de données dans des environnements SI complexes. Expérience confirmée en pilotage technique et coordination multi-acteurs. Formation supérieure en informatique, data engineering ou équivalent . Anglais professionnel. Qualités personnelles Leadership technique, autonomie et rigueur. Excellentes capacités de communication et de coordination. Esprit d’analyse, de synthèse et orientation résultats. Conditions Poste basé à Pau , avec 2 jours maximum de télétravail par semaine .

Freelance

Mission freelance
Architecte API Management Google APIGEE - GCP

KEONI CONSULTING
Publiée le
Openshift
Pilotage
Reporting

18 mois
150-600 €
Paris, France

CONTEXTE Dans le cadre du déploiement de la plateforme API Management, le client souhaite déployer la solution Google APIGEE. MISSIONS : Mission d'architecture technique et design de la plateforme API Management, basée sur Google APIGEE Hybrid, GCP et Openshift - Pilotage de projet : Assurer la planification, le suivi et le reporting des projets de déploiement d’APIs sur APIGEE Coordonner les équipes impliquées dans le projet Gérer les risques et les enjeux liés aux délais et la qualité - Analyse et conception : Participer à la conception fonctionnelle des APIs business Être en soutien des équipes sur les problématiques techniques - Formation : Capitaliser sur la conception et la mise en œuvre des APIs pour diffuser la connaissance aux équipes

Freelance

Mission freelance
Consultant ERP Cloud

ESENCA
Publiée le
Agile Scrum
Enterprise Service Bus (ESB)
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France

LE CONTEXTE : - Produit : ERPC Oracle - Le candidat intégrera la guilde AR/CE du projet ERPC Oracle sur le processus O2C. - Le candidat sera sous la responsabilité du Digital Component Manager (DPM) de la guilde AR/CE. - Enjeu Finance & Performance SA MISSION : - Au sein de l'équipe projet, il contribue aux différentes activités de l'équipe (RUN, évolutions, amélioration continue de la solution, création de BU). SON ACTIVITE : - Participer au RUN de l'équipe (niveau L2, activité limitée). Pour ce faire, il faudra gérer les tickets via Service Now, en apportant le bon niveau de réponse tout en respectant les SLA. - FitGap : Participer à des ateliers pour identifier le besoin des BU - Setup applicatif : Formaliser le besoin, communiquer et faire le suivi avec les équipes en charge du setup - Setup technique : Spécifier et mettre en place des interfaces pour communiquer avec des composants externes - UAT : Participer aux phases de recette de l'applicatif (tests unitaires, BAB, BR) - RDD : Participer aux reprises de données lors des déploiements - Participer à l'amélioration continue de l'équipe - Mettre en place des évolutions de l'application (spécifiques) - Etre force de proposition pour identifier des gains de productivité au sein de l'équipe SES LIVRABLES : - Un système applicatif opérable et documenté - Un suivi opérationnel via le Kanban de l'équipe

Freelance

Mission freelance
[FBO] Senior Cloud & DevOps Engineer (AWS/GCP) - 836

ISUPPLIER
Publiée le

3 mois
1-420 €
Toulouse, Occitanie

Constat actuel • Équipe plateforme jugée trop junior. • Besoin équipe de sortir du lead technique. • Pas de possibilité de scaler à la demande sur la plateforme actuelle. • Maintien de l’infrastructure GCP sous responsabilité de l’équipe plateforme. Besoins identifiés • Renfort avec un profil confirmé • Capacité à traduire les besoins business en exigences techniques. • Aller au-delà de l’infrastructure GCP actuelle. • Industrialisation des features Gen AI (GenR - DMZ). Profil Dev avec vernis architecture applicative • Anglais obligatoire (collaboration internationale). Cibles techniques • Plateforme multi-cloud : AWS & GCP. • AWS : IaaS, infra traditionnelle, PCP Landing Zone. • GCP : microservices, usage avancé du cloud. • Environnements automatisés : Terraform, Terragrunt. • Pratiques DevOps : Jenkins, GitHub, Cloud Build, SSM (Enterprise DevOps). • API Framework Python. • Certification GCP souhaitée. • Pas de Kubernetes actuellement. • Démarrage : ASAP → courant septembre. Type de projet (support / maintenance / implementation /…) : Implementation Type de prestation (Client / Hybrid / Remote) : Hybrid Nombre de jours/semaine ou par mois chez le client : 3J/semaine Les astreintes (HNO, etc.) : Non La possibilité de renouvellement (oui/non) : Oui

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

CDI
Freelance

Offre d'emploi
DevSecOps Multi-Cloud - LYON

KLETA
Publiée le
AWS Cloud
Azure
DevSecOps

3 ans
Lyon, Auvergne-Rhône-Alpes

Missions principales Mettre en place et maintenir des pipelines CI/CD sécurisés pour des environnements multicloud (AWS, GCP, Azure). Définir et implémenter les standards DevSecOps (SAST, DAST, IAST, Secret Scanning, compliance). Intégrer la sécurité dans toutes les étapes du cycle de delivery (SecDevOps). Assurer le monitoring, l’observabilité et la gestion des vulnérabilités sur les environnements Cloud. Développer et maintenir des modules Terraform standardisés et réutilisables. Collaborer avec les équipes SRE et Cloud Architects pour industrialiser les environnements.

CDI

Offre d'emploi
Data engineer H/F

OPEN GROUPE
Publiée le
BigQuery
Data Lake
Data Warehouse

Lille, Hauts-de-France

🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Freelance
CDI

Offre d'emploi
Devops Senior KAFKA (H/F)

WINSIDE Technology
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes

2 ans
48k-55k €
400-550 €
Lyon, Auvergne-Rhône-Alpes

Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Freelance
CDI
CDD

Offre d'emploi
Administrateur OpenShift

FIRST CONSEIL
Publiée le
AWS Cloud
Azure
CI/CD

1 an
40k-45k €
400-550 €
Île-de-France, France

La plateforme OpenShift est déjà installée et opérationnelle dans les environnements de production, de préproduction et de développement. La priorité est de renforcer les opérations, d'améliorer la fiabilité et de faire évoluer la plateforme vers des niveaux supérieurs d'automatisation, d'observabilité et de sécurité. L'administrateur jouera un rôle clé dans : La stabilisation et l'optimisation des clusters existants La définition et la mise en œuvre des meilleures pratiques La migration vers un environnement Bare Metal La conduite des améliorations et des mises à niveau de la plateforme La garantie de la conformité aux exigences organisationnelles et réglementaires. L'expérience du profil doit répondre aux exigences minimales suivantes : Expérience en administration de systèmes Linux et en environnements conteneurisés Solide expertise pratique de l'exécution et de la gestion de clusters Kubernetes/OpenShift Forte expérience des environnements de production critiques Attentes Assurer la disponibilité, la stabilité et les performances des clusters OpenShift Gérer les accès utilisateurs, les quotas, les espaces de noms et les ressources associées Diriger et accompagner la migration vers un environnement Bare Metal Mettre en œuvre et maintenir des solutions de surveillance, d'observabilité et de journalisation Appliquer et améliorer les politiques de sécurité Contribuer au cluster Mises à niveau, améliorations et gestion du cycle de vie

Freelance

Mission freelance
DevOps Full remote Azure DevOps, GitLab CI, GitHub Actions, Jenkins Terraform/ma

WorldWide People
Publiée le
DevOps

6 mois
370-400 €
Montpellier, Occitanie

DevOps Full remote Azure DevOps, GitLab CI, GitHub Actions, Jenkins Terraform, ARM, Bicep, Ansible Compétences techniques clés : Azure DevOps, GitLab CI, GitHub Actions, Jenkins Terraform, ARM, Bicep, Ansible Docker, Kubernetes, Helm Azure (App Services, AKS, Key Vault, Storage), AWS ou GCP (selon contexte) PowerShell, Bash, YAML Prometheus, Grafana, ELK, Azure Monitor Gestion des secrets, scans de vulnérabilité, durcissement d’images ASAP Responsabilités principales : Concevoir, maintenir et optimiser les pipelines CI/CD. Automatiser le déploiement des applications et des infrastructures (IaC). Assurer la supervision, l’observabilité et la gestion des incidents. Travailler avec les équipes de développement pour améliorer les performances et la fiabilité. Sécuriser les environnements (droits, secrets, configurations). Compétences techniques clés : Azure DevOps, GitLab CI, GitHub Actions, Jenkins Terraform, ARM, Bicep, Ansible Docker, Kubernetes, Helm Azure (App Services, AKS, Key Vault, Storage), AWS ou GCP (selon contexte) PowerShell, Bash, YAML Prometheus, Grafana, ELK, Azure Monitor Gestion des secrets, scans de vulnérabilité, durcissement d’images

CDI

Offre d'emploi
Data Architecte - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
DevOps (Terraform, Cloud, K8S) - H/F

LeHibou
Publiée le
Kubernetes

1 an
400-650 €
Nantes, Pays de la Loire

🎯 Contexte & Missions Vous rejoindrez l’ équipe Plateforme Cloud en charge du Build et du Run , dans un environnement multi-compétences où chacun intervient sur l’ensemble des sujets, épaulé par des spécialistes. Votre rôle sera d’assurer : La conception, le déploiement et l’exploitation d’environnements Cloud Public (GCP principalement, mais également AWS / Azure) La participation aux projets de migration et de déploiement des plateformes legacy L’automatisation des processus via Terraform et Python La contribution aux activités de sécurisation (IAM GCP, Vault) et à l’optimisation continue de la plateforme Les activités de Run et la gestion d’astreintes tournantes

Freelance

Mission freelance
INGENIEUR RESEAU

Groupe Aptenia
Publiée le
Azure
Cloud
Fortinet

6 mois
400-550 €
Paris, France

🎯 Missions principales : - Administrer et maintenir les infrastructures réseaux (switchs, Wifi, sécurité, IPAM/DHCP) - Diagnostiquer et résoudre les incidents de niveau 2 et 3 - Participer à la mise en œuvre et à l’évolution des projets réseaux et sécurité - Contribuer au renforcement des politiques de sécurité et à leur application - Collaborer avec les différentes équipes IT pour assurer la disponibilité et la performance des services - Être force de proposition dans l’amélioration et l’optimisation des infrastructures

Freelance

Mission freelance
Business Analyst

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
PL/SQL

1 an
400-480 €
Lille, Hauts-de-France

Business analyst confirmé avec au moins 3 ans d'expérience, sensible à un processus de qualité. Dans un contexte de responsabilisation, nous recherchons des ressources autonomes, orientées aux résultats, polyvalentes, capables de s'adapter au contexte et pouvant intervenir dans différents domaines. La mission aura pour objectif principal de contribuer à la mise en place d'un nouvel EPM (Enterprise Performance Management) et d'une nouvelle solution de gestion du plan d'assortiment international. Ces deux projets sont basés sur une solution logicielle unique : Board (). Activité principale : analyste (spécifications fonctionnelles et techniques), coordination avec toutes les parties prenantes des projets (notamment les éditeurs), gestion d'un backlog en fonction des priorités, entretien et renouvellement de l'agilité au sein de l'équipe. Activités complémentaires : recette fonctionnelle, traitement des incidents et demandes de service de niveau 3 Langues : français et anglais Activité principale : Analyse / Test / Spécifications fonctionnelles et techniques / Agile (Scrum) Profil : organisé, curieux, polyvalence, sérieux Technique (très fortement souhaité) : Board Technique (optionnel) : GCP, PL/SQL, Java, Talend

Freelance
CDI
CDD

Offre d'emploi
TECH LEAD DevOps

Freelance.com
Publiée le
Ansible
DevOps
Docker

1 jour
40k-80k €
400-650 €
Paris, France

Client : PUBLIC Postes : TECH LEAD DevOps Expérience : +8 ans Localisation : Paris Deadline réponse : ASAP Démarrage : ASAP Durée : Longue Nous recherchons un Tech Lead DevOps expérimenté pour accompagner la transformation et l’industrialisation de nos équipes. Vous serez le référent technique de l’équipe DevOps et aurez un rôle clé dans la définition de l’architecture, la mise en place des bonnes pratiques et le pilotage des projets stratégiques Vos missions principales En tant que Tech Lead DevOps, vous serez en charge de : Définir et faire évoluer l’architecture CI/CD, du design à l’industrialisation. Piloter et encadrer une équipe DevOps (mentorat, code review, accompagnement technique). Déployer et administrer des infrastructures Cloud (AWS, Azure, GCP) et On-Premise (VMware, Kubernetes, OpenShift). Automatiser les déploiements et la configuration via Terraform, Ansible, Helm, Puppet, Chef. Superviser la sécurité des pipelines (secrets management, scans de vulnérabilités, compliance). Garantir la disponibilité, la performance et la scalabilité des environnements. Participer aux choix technologiques et à la veille sur les solutions DevOps/Cloud. Collaborer avec les équipes de développement, sécurité et infrastructure. Stack technique recherchée CI/CD : GitLab CI, Jenkins, GitHub Actions, ArgoCD Conteneurs & Orchestration : Docker, Kubernetes, OpenShift, Rancher Cloud : AWS, Azure, GCP Infrastructure as Code (IaC) : Terraform, Ansible, Helm, Pulumi Systèmes : Linux (Debian, RedHat), Windows Server Monitoring & Observabilité : Prometheus, Grafana, ELK, Datadog Sécurité : Vault, SonarQube, Snyk, Trivy Langages & Scripting : Python, Bash, Go, Groovy Profil recherché Minimum +8 ans d’expérience en DevOps dont au moins 2 ans en tant que Tech Lead / Référent technique Forte expertise sur CI/CD, conteneurisation, cloud et automatisation Leadership technique : capacité à fédérer, mentorat d’équipe Bonne communication et sens du service Capacité à travailler dans des environnements Agile/Scrum

2501 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous