Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 945 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)

K-Lagan
Publiée le
Big Data
BigQuery
Dataiku

1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
Freelance

Mission freelance
Ingénieur Cloud Devops H/F

TIBCO
Publiée le
Azure
Cloud

12 mois
600-650 €
Paris, France
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission : 1\. Gestion des pipelines CI/CD : \- Conception et implémentation : Création et maintenance de pipelines CI/CD pour automatiser les processus de compilation, de test et de déploiement des partages de fichiers de stockage. \- Optimisation : Amélioration continue de l'efficacité et de la fiabilité des pipelines. 2\. Infrastructure as Code (IaC) : \- Automatisation : Utilisation d'outils tels que Terraform ou CloudFormation pour gérer l'infrastructure par le code. \- Scalabilité : Garantir une infrastructure capable de s'adapter efficacement à la demande. 3\. Surveillance et journalisation : \- Configuration : Mise en œuvre d'outils de surveillance pour suivre les performances du système. \- Analyse : Analyse des journaux pour identifier et résoudre les problèmes de manière proactive. 4\. Sécurité : \- Bonnes pratiques : Mise en œuvre de mesures de sécurité et de contrôles de conformité au sein des pipelines CI/CD. \- Gestion des incidents : Élaboration et maintenance des plans de gestion des incidents. 5\. Collaboration : \- Équipes transversales : Collaboration étroite avec les équipes de développement, d'assurance qualité et d'exploitation pour garantir des flux de travail fluides. \- Communication : Facilitation des échanges entre les équipes pour une résolution rapide des problèmes. \- Documentation : Création de plans de test ou de documentation de transfert pour permettre aux experts ou aux équipes QA d'utiliser l'automatisation.
Freelance

Mission freelance
Data Engineer Cloud Google

Mindquest
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-500 €
Boulogne-Billancourt, Île-de-France
Développement de pipelines de données via Cloud Composer / Airflow. Optimisation des performances et des coûts des traitements sur Google Cloud Platform (GCP). Participation aux choix d’outils et aux décisions d’architecture technique sur GCP. Développement de nouveaux traitements et applications data (BigQuery, DBT, Cloud Functions). Modélisation et structuration des données dans BigQuery. Maintien en condition opérationnelle des pipelines et traitements existants. Mise en œuvre de l’interopérabilité avec de nouveaux systèmes opérationnels. Proposition d’optimisations et simplifications techniques. Respect des standards de qualité et des bonnes pratiques data engineering de l’entreprise.
Freelance

Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt

CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Freelance
CDI

Offre d'emploi
Data Engineer Python / Scala / Cloud

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST

12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Freelance

Mission freelance
Techlead Data - GCP (H/F)

LeHibou
Publiée le
ETL (Extract-transform-load)
PowerBI
SQL

12 mois
400-520 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Data Engineer (H/F) Description de la mission : Dans le cadre d'un besoin de renfort sur ses activités, notre client va rechercher un freelance expérimenté sur la partie Data. Rattaché aux équipes Data en charge de la transformation de la donnée de notre client (8 personnes), vous interviendrez en tant que Techlead data. Ainsi, vous contribuerez aux projets actuels et futurs incluant le chargement des données le DWH : – Données de billetterie et de réservation – Données financières – Données opérationnelles Une bonne communication, autonomie, capacité d’adaptation sont attendues ainsi qu'une capacité à analyser des besoins complexes et à faciliter la coordination au sein de l’équipe ainsi qu’avec les autres parties prenantes (architecte, OPS, métier). Environnement technique : ETL : Powercenter : 20% SQL ( Teradata ) and scripting (BTEQ, shell…) : 50 % Linux : 10% Outils de reporting : SAP BI4 & PowerBI : 20%
CDI

Offre d'emploi
Ingénieur DevOps (/Intégrateur) AWS & Kubernetes

CELAD
Publiée le

38k-52k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un Ingénieur DevOps / Intégrateur Cloud (AWS, Kubernetes, scripting) pour l’un de nos clients situé à La Ciotat. Au sein de l’équipe Cloud, vos missions seront les suivantes : - Concevoir, développer et maintenir une infrastructure hybride exigeante (AWS, GCP, Datacenters privés) à haute disponibilité et évolutivité - Développer et maintenir le déploiement continu en automatisant également le déploiement du code vers les environnements de test, de préproduction et de production - Mettre en place des pratiques et des outils pour permettre une intégration continue du code source dans le référentiel principal, facilitant des déploiements plus fréquents et plus fiables - Mettre en œuvre une surveillance, sauvegarde, restauration et mise à l'échelle rapide et sécurisée - Intégrer les solutions applicatives dans l’écosystème existant - Rédiger de la documentation technique (spécification, conception, description de l'API, guide de l'utilisateur, etc.) - Développer, maintenir et automatiser toutes les opérations : alerte, information client, monitoring, etc. - Fournir une visibilité à la direction et au responsable de l'architecture sur l'avancement des missions - Contribuer au partage des connaissances Vous n’êtes pas uniquement “build”, vous êtes aussi facilitateur, capable d’expliquer, coordonner et faire avancer les sujets.
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Lyon

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance

Mission freelance
Data Engineer Azure / IA

Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks

12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
CDI
Freelance

Offre d'emploi
Ingénieur Cloud DevOps F/H Montpellier

Deodis
Publiée le
AWS Cloud
DevOps
Docker

12 mois
55k-62k €
520-580 €
Montpellier, Occitanie
Nous recherche pour le compte d'un client un Ingénieur Cloud DevOps Senior orienté Data capable de concevoir, d’implémenter et d’administrer une infrastructure Cloud hybride. Missions : Piloter la conception technique, la mise en oeuvre et l’optimisation de la plateforme Cloud pour permettre une bonne exploitabilité. Accompagner les ingénieurs Cloud dans l’implémentation de la solution choisie Développer et maintenir l’infrastructure as code (IaC) avec Terraform/Terragrunt Automatiser et maintenir les pipelines CI/CD des projets Cloud (GitLab) Etre garant de la qualité du code de l’équipe (peer programming, revue de code, ...) Collaborer avec les équipes applicatives, infrastructure et DevOps pour définir et implémenter les bonnes pratiques GROUPE. En collaboration avec l’architecte du projet, assurer la conformité et la sécurité GROUPE des architectures cloud (authentification, gestion des secrets, réseau, ...) Documenter les procédures d’implémentation, d’utilisation et d’exploitation. Mettre en place des solutions d’alerting et de monitoring avancées (Prometheus, Grafana, ELK, Google Cloud Observability) Support et RUN : Assurer le maintien en conditions opérationnelles en mode GitOps.
Freelance
CDI

Offre d'emploi
Senior DevOps S3NS

KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation vers des environnements S3NS, nous recherchons un Senior DevOps capable d’accompagner nos clients dans l’industrialisation de leurs plateformes souveraines. Vous interviendrez sur des missions d’audit technique, d’analyse des architectures existantes et de définition de trajectoires d’évolution adaptées aux contraintes S3NS. Vous participerez à la mise en place de pipelines CI/CD conformes aux exigences de sécurité et de gouvernance, ainsi qu’à l’automatisation des déploiements via Infrastructure as Code. Vous contribuerez à la structuration des processus DevOps, à la documentation des standards techniques et à la montée en compétence des équipes client. Votre rôle combinera une forte expertise technique et une dimension conseil, avec la capacité d’expliquer des concepts complexes à des interlocuteurs variés (techniques, sécurité, exploitation et métiers).
CDI

Offre d'emploi
(H/F) Ingénieur·e Cloud AWS

QUALIS ESN
Publiée le

Vincennes, Île-de-France
V - Surveiller la performance, la sécurité et la résilience de l'environnement cloud - Contribuer à la gestion de l'infrastructure on-premise (VMware, serveurs physiques, réseau, etc.) - Rédiger et maintenir la documentation technique Vos compétence et appétences : - AWS, maîtrise des bonnes pratiques de sécurité cloud - Pratique des outils d'IaC (Terraform) Vous êtes diplômé·e d'une école d'ingénieur ou d'une université en informatique (bac+ 5), vous êtes passionné·e par les nouvelles technologies, vous avez minimum 6 années d'expérience en ingénierie système après votre diplôme dont 3 années sur le cloud AWS et vous souhaitez intégrer une structure à taille humaine où votre expérience et vos compétences seront pleinement valorisées ? Rejoignez notre service Infrastructure et Production (rattaché à la DSI), au sein d'une équipe expérimentée de 8 personnes, en charge de notre infrastructure hybride : un socle on-premise robuste et un environnement cloud AWS en pleine expansion. Dans le cadre de notre transformation cloud, nous recherchons un·e Ingénieur·e AWS qui interviendra sur l'évolution, le maintien et la sécurisation de notre infrastructure cloud, tout en contribuant ponctuellement à l'administration de nos infrastructures on-premise. Vos futures missions et responsabilités - Participer à la conception, l'évolution et l'administration de notre infrastructure AWS - Automatiser les déploiements (Infrastructure as Code - Terraform) - Surveiller la performance, la sécurité et la résilience de l'environnement cloud - Contribuer à la gestion de l'infrastructure on-premise (VMware, serveurs physiques, réseau, etc.) - Rédiger et maintenir la documentation technique - Collaborer avec les autres membres de l'équipe et les équipes projets internes - Piloter des projets techniques Vos compétence et appétences : - AWS, maîtrise des bonnes pratiques de sécurité cloud - Pratique des outils d'IaC (Terraform) - Connaissance des outils devops (GitLAB) - Connaissance des environnements virtualisés (VMware) et du réseau (switches, routage, etc.) - Autonomie, rigueur et sens des responsabilités. - Bon relationnel et goût du travail en équipe. - Curiosité technique et envie d'évoluer dans un environnement hybride (cloud / on-premise). - Connaissance des fondamentaux de la gestion de projets Vous évoluerez dans une équipe à l'ambiance conviviale, où l'entraide et la transmission des savoirs sont au coeur du quotidien. Nous accordons une réelle importance à l'autonomie de chacun, tout en favorisant la collaboration et l'échange. Vous aurez l'opportunité de contribuer à des projets stimulants mêlant modernisation cloud et gestion d'infrastructures traditionnelles, dans un environnement technique riche et évolutif. N
Freelance

Mission freelance
EXPERT CYBERSECURITE

SKILL EXPERT
Publiée le
CI/CD
Cloud
Gitlab

1 an
500 €
Guyancourt, Île-de-France
Description Vous travaillerez en lien étroit avec l’équipe d’expertise Cyber et les équipes qui gèrent les offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Ceci afin d’accompagnerez la révolution #devops #Cloud des entreprises du groupe avec la mise en place sécurisée de briques technologiques innovantes autour des patterns d'architecture #Container, #Hybridation, #Cloudpublic. Vous participez à la mise en place de mesures et de pratiques de cybersécurité liées aux évolutions du système d’information ou à sa règlementation. Compétences obligatoires Outils de protection des applications cloud natives (EXPERT) AWS (EXPERT) GCP (EXPERT)
Freelance
CDI

Offre d'emploi
Developpeur Fullstack JAVA/ANGULAR/GCP h/f

NITROLABZ By SYNC-DIGITALS SAS
Publiée le
Apache Kafka
Cloud
Git

3 ans
40k-45k €
360-390 €
Annecy, Auvergne-Rhône-Alpes
🚀 Nous renforçons nos équipes en Île-de-France ! Nous recherchons 2 profils seniors passionnés pour travailler sur un projet stratégique pour notre client, avec possibilité de télétravail partiel. 📌 Profils recherchés : 1️⃣ Développeur / / 2️⃣ Développeur / 🎯 Séniorité : Minimum 3 ans d’expérience ⌚ Démarrage : ASAP 📍 Localisation : Île-de-France Compétences communes exigées : 👉Maîtrise d‹e , , et principes 👉Maîtrise des bases de données / NoSQL 👉Expérience sur projets / Event-driven / Streaming data 👉Connaissances sur , Storage, , ou 👉Anglais opérationnel 👉La maîtrise du cloud est impérative 💡 Vous êtes passionné par le développement cloud et les architectures modernes ? Rejoignez-nous et participez à un projet à fort impact ! N'hesitez pas à nous envoyer votre candidature sur 📩
Freelance

Mission freelance
Architecte d’Intégration Expert (H/F) – SAP BTP / Azure / Event-Driven Architecture

HOXTON PARTNERS
Publiée le
SAP
Solace

12 mois
400-550 €
France
Dans le cadre d’un programme de transformation SAP de grande ampleur, nous recherchons un Architecte d’Intégration Expert afin d’intervenir au sein d’un Integration Hub centralisé chargé de concevoir et piloter l’ensemble des flux d’intégration du programme. La mission consiste à définir et mettre en œuvre les architectures d’intégration permettant de connecter les différents systèmes applicatifs dans un environnement complexe et hybride. Le consultant interviendra au niveau High Level Design afin de garantir la cohérence globale des flux et leur réutilisabilité. Vous travaillerez en étroite collaboration avec les architectes d’entreprise du client , les équipes techniques et les différentes parties prenantes du programme afin de concevoir des solutions d’intégration robustes, scalables et alignées avec les processus métier. Le projet s’inscrit dans une approche Event-Driven Architecture , avec un objectif fort d’optimisation du re-use des flux et des patterns d’intégration . L’architecte jouera un rôle clé dans la définition des standards, des patterns d’architecture et des bonnes pratiques à mettre en œuvre au sein de l’Integration Hub.
4945 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous