Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 280 résultats.
Freelance

Mission freelance
Data engineer

Comet
Publiée le
Azure Data Factory
Databricks
Scala

12 mois
400-560 €
Île-de-France, France
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
Développeur Fullstack (Python)

AIS
Publiée le
AWS Cloud
DevOps
Python

6 mois
290-390 €
Angers, Pays de la Loire
Missions principales Concevoir, développer et maintenir des applications web full stack Développer des API back-end performantes et sécurisées en Python Concevoir et intégrer des interfaces front-end modernes et ergonomiques Participer aux choix d’architecture technique et aux revues de code Optimiser les performances, la scalabilité et la sécurité des applications Rédiger une documentation technique claire et maintenable Participer aux phases de tests, déploiement et maintenance Assurer une veille technologique continue
Freelance

Mission freelance
Ingénieur cloud réseau - Azure (H/F)

Insitoo Freelances
Publiée le
Administration réseaux
Azure
Cloud

2 ans
380-500 €
Charleroi, Hainaut, Belgique
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur cloud réseau - Azure (H/F) à Charleroi, Belgique. Les missions attendues par le Ingénieur cloud réseau - Azure (H/F) : Politique télétravail : 2 jours / semaine sur site - 3 jours en télétravail Modalités : la mission peut être effectuée à temps partiel (minimum 3 jours) ou à temps plein Rôle et objectifs : - Revoir toute la configuration technique « Network » du Cloud Azure - Rendre notre DNS Azure compliant au niveau sécurité et best practices (en vue de l’amélioration au niveau automatisation)
CDI
Freelance

Offre d'emploi
DBA PostgreSQL / MySQL / Oracle – AWS – DevOps (H/F)

YAZ IT
Publiée le
AWS Cloud
MySQL
Oracle

3 ans
40k-50k €
400-550 €
Hauts-de-Seine, France
Dans le cadre d’une mission longue au sein d’un grand compte basé dans les Hauts-de-Seine (92), nous recherchons un DBA confirmé / senior disposant d’au moins 5 ans d’expérience pour intervenir sur des environnements critiques et à forte volumétrie. Le consultant interviendra sur l’administration et l’exploitation de bases de données PostgreSQL, MySQL et Oracle , dans un contexte Cloud AWS et DevOps . Les missions couvrent le RUN (supervision, gestion des incidents et problèmes, capacity planning), la mise en œuvre des sauvegardes et restaurations, la gestion des patchs, upgrades et mises à jour de sécurité, ainsi que la gestion des environnements haute disponibilité et PRA. Le DBA participera également à l’analyse et à l’optimisation des performances (I/O, CPU, mémoire, contention) et aux revues de conception applicative côté base de données. Mission basée dans le 92 , avec 4 jours sur site et 1 jour en télétravail .
Freelance

Mission freelance
AI Native Software Engineer H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
IA Générative
Java

6 mois
Hauts-de-Seine, France
Poste IA Native Software engineer Localisation Hauts de Seine TT: 2 jours Dans un contexte de forte accélération de l’innovation digitale, nous recherchons un AI-Native Software Engineer capable d’accompagner la transformation des pratiques de développement et d’intégrer l’IA générative au cœur des usages technologiques. Rattaché(e) à la direction Innovation & Stratégie Digitale, le/la prestataire interviendra en tant que référent technique et coach IA, avec une approche résolument orientée delivery, qualité et montée en compétence des équipes. Missions principales Agir comme coach technique des équipes de développement, en diffusant les bonnes pratiques liées à l’IA générative et aux approches AI-Native Accompagner la montée en compétence des équipes via l’intégration d’assistants IA (ex. Copilot, Claude Code) pour accélérer le développement, la revue de code et la documentation Concevoir, développer et maintenir des applications performantes et scalables (Java / Spring Boot, React ou Angular, Node.js), enrichies par des assistants IA intégrés au cycle de vie du développement Mettre en œuvre des automatisations avancées (tests, CI/CD, observabilité, monitoring) afin d’optimiser la productivité et la fiabilité des livraisons Contribuer à des architectures modernes orientées APIs et Cloud (PaaS / IaaS), incluant infrastructure as code (Terraform) Garantir la qualité, la sécurité et la robustesse des développements, en veillant au respect des standards techniques, des bonnes pratiques de sécurité et des contraintes de l’environnement SI Collaborer étroitement avec les équipes produit, design et architecture, dans une logique agile et transverse Accompagner les équipes sur l’ensemble du cycle de vie des solutions, de la conception technique assistée par IA jusqu’au monitoring en production
CDI

Offre d'emploi
Consultant DevOps

SII
Publiée le
Ansible
AWS Cloud
DevOps

40k-52k €
Marseille, Provence-Alpes-Côte d'Azur
SII Aix Méditerranée, accompagne ses clients dans l’intégration des nouvelles technologies, procédés et méthodes de management de l’innovation pour contribuer au développement de leurs futurs produits ou services et faire évoluer leurs systèmes d’information. Nous conjuguons de manière durable et vertueuse la satisfaction de nos clients avec le bien-être et l’épanouissement de nos collaborateurs tout en délivrant un haut niveau de performance. Au travers de notre entité composée de quatre-vingts consultants et de leurs expertises liées au développement logiciel, au test et à la chefferie de projet, nous intervenons aujourd’hui sur des projets à forte valeur ajoutée, ambitieux et à l’international autour des secteurs du numérique, de l’industrie et des services en assistance technique et/ou en engagement. Nous couvrons un vaste secteur vous permettant de trouver une opportunité proche de chez vous : nous disposons d’opportunités sur Aix-en-Provence, Venelles, Marseille, Gémenos ou encore Avignon. Vous aurez le choix de rejoindre une équipe ambitieuse, talentueuse et engagée sur des sujets tels que : la conception d’une carte à puce implantée dans des documents biométriques, le développement d’une application de livraison de colis, l’innovation dans le suivi de cargos maritimes ou bien encore le développement d’applications de gestions d’évènements autoroutiers ou de plateforme monétique. Rencontrons-nous et valorisons ensemble les métiers de l’ingénieur et son rôle de « Changeur de Monde ». Nous recherchons sur Marseille et alentours plusieurs consultant(e)s DevOps / Cloud afin de rejoindre un grand client spécialisé dans l'identité et la sécurité numérique. Vos missions sont les suivantes : -> Mise en place de pipelines CICD -> Qualification, intégration, test de non régression et recette (Robot framework, Jenkins, Gitlab, Docker) -> Automatisation et scripting (Python, shell, ansible, Terraform ..) -> Développement de nouvelles features du service DevOps -> Audits techniques sur les environnements du client -> Élaboration de nouveaux process / procédures (standardisation, industrialisation), règles, normes concernant ces infrastructures. -> Gestion d'infrastructure Cloud (AWS, GCP ou Azure) -> N3 dans la résolution des incidents techniques -> Gestion des incidents et des problèmes infrastructure DevOps afin de garantir le maintien en condition opérationnelle et d'aider les équipes -> Assistance et formation des équipes support -> Contribution à la mise à jour des documents techniques
Freelance
CDI
CDD

Offre d'emploi
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F)

SMARTPOINT
Publiée le
AWS Cloud
Snowflake

1 an
40k-65k €
400-550 €
Île-de-France, France
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F) Contexte Dans le cadre de la croissance de notre pôle Data & Analytics , nous recherchons un Data Engineer pour intervenir sur des plateformes data cloud modernes chez nos clients grands comptes. Vous évoluerez dans des environnements Snowflake, AWS, Informatica et Qlik , au cœur de projets à fort impact métier. Vos missions En tant que Data Engineer / Consultant Data , vous serez amené(e) à : Concevoir et développer des architectures data cloud sur AWS Mettre en place et optimiser des data warehouses Snowflake Développer et maintenir des flux ETL/ELT avec Informatica Participer à la modélisation des données (Data Vault, étoile, snowflake) Alimenter les outils de data visualisation et BI (Qlik Sense / QlikView) Garantir la qualité, la performance et la gouvernance des données Collaborer avec les équipes BI, analytics et métiers Environnement technique Cloud : AWS (S3, Redshift, Lambda, Glue…) Data Warehouse : Snowflake ETL / Intégration : Informatica BI / Dataviz : Qlik Sense, QlikView Langages : SQL (indispensable), Python (apprécié) Méthodologie : Agile / Scrum
Freelance

Mission freelance
DÉVELOPPEUR BACKEND Kotlin / Spring Boot / AWS

Signe +
Publiée le
AWS Cloud

12 mois
450 €
Longpont, Hauts-de-France
CONTEXTE Dans le cadre de la création d’un nouvel outil backend cloud-native, nous constituons une squad backend de 4 développeurs (1 senior, 3 profils mid/junior). L’équipe est chargée de concevoir, développer et déployer une plateforme scalable, observable et sécurisée, intégrée à l’écosystème AWS. L’objectif est de livrer une première version robuste en 3 à 4 mois, avec des standards élevés de qualité, de maintenabilité et de sécurité. Vous intervenez au sein d’une équipe pluridisciplinaire composée de : 1 Architecte 1 DevOps 1 Product Owner 4 Développeurs Backend MISSIONS PRINCIPALES Conception et développement Concevoir et développer un orchestrateur et des APIs backend en Java 21 / Kotlin avec Spring Boot Implémenter une architecture cloud-native orientée microservices Développer et maintenir des services AWS Serverless (Lambda) en TypeScript, Python ou Go Assurer la gestion de la persistance des données via AWS RDS (modélisation, performances, sécurité) Participer à la mise en place et à l’exploitation des flux ETL via AWS Glue Cloud et infrastructure Déployer et exploiter les applications sur un cluster Kubernetes Configurer, maintenir et améliorer les pipelines CI/CD via GitLab Contribuer aux choix d’architecture (scalabilité, résilience, optimisation des coûts) Observabilité et reporting Mettre en place la collecte, l’analyse et l’exploitation des logs via la stack ELK (Elasticsearch, Logstash, Kibana) Intégrer et exploiter Datadog pour le monitoring applicatif et l’alerting Contribuer à la conception et à l’alimentation des dashboards de suivi et de reporting Qualité et collaboration Écrire un code propre, maintenable, testé (tests unitaires) et documenté Participer activement aux revues de code et aux décisions techniques Documenter les choix techniques et fonctionnels dans Confluence Travailler en méthodologie agile (Scrum / Kanban) avec Jira SPÉCIFICITÉS SELON LE NIVEAU Développeur Senior Forte capacité à prendre des décisions techniques et à challenger les choix d’architecture Excellente communication orale et écrite pour échanger avec les parties prenantes (PO, architecte, DevOps) Capacité à accompagner et faire monter en compétences les profils mid/junior Développeur Mid / Junior Participation active au développement et à la qualité du code Montée en compétences progressive sur l’architecture, le cloud AWS et les bonnes pratiques backend ENVIRONNEMENT TECHNIQUE Langages : Kotlin, Java 21, TypeScript, Python, Go Framework : Spring Boot Cloud : AWS (Lambda, RDS, Glue) Conteneurisation / Orchestration : Kubernetes CI/CD : GitLab Observabilité : ELK, Datadog Méthodologie : Agile (Scrum / Kanban) Outils collaboratifs : Jira, Confluence
Freelance

Mission freelance
Mission Freelance – Analytics Engineer / Data Engineer (H/F)

SKILLWISE
Publiée le
Azure Data Factory
Databricks
Scala

3 mois
100-550 €
Paris, France
Nous recherchons un freelance Analytics Engineer / Data Engineer pour intervenir sur un projet Data transverse d’envergure , au sein d’un grand groupe français du secteur médias & digital . Le projet vise à centraliser, harmoniser et fiabiliser les données de diffusion publicitaire digitale (impressions, chiffre d’affaires, performance, etc.) afin de fournir un reporting unifié et fiable selon différentes dimensions métiers (canaux de vente, équipes commerciales, annonceurs, origines des revenus…). Au sein d’une équipe Data expérimentée, vous interviendrez sur les missions suivantes : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Spark SQL Maintenir et faire évoluer des pipelines de traitement en Scala (part marginale) Développer et maintenir des indicateurs de qualité de données (KPI data) Participer au refactoring du code existant afin d’améliorer performance et maintenabilité (réécriture en DBT ) Garantir la qualité du code et le respect des standards de développement Mettre en place des tests unitaires et contribuer à la fiabilité des traitements Participer au monitoring des solutions Data Digital Produire les livrables attendus : code source, documentation et indicateurs qualité
CDD
Freelance

Offre d'emploi
Architecte Solution (On-Premise & Cloud – SaaS / PaaS)

SMARTPOINT
Publiée le
AWS Cloud
Azure
PaaS (Platform-as-a-Service)

12 mois
55k-70k €
550-600 €
Île-de-France, France
Dans le cadre du développement et de la modernisation de notre paysage applicatif, nous recherchons un Architecte Solution capable d’intervenir sur des architectures on premise ainsi que sur des environnements Cloud (SaaS, PaaS) . La mission consiste à accompagner les projets, rationaliser notre portefeuille applicatif et garantir la cohérence technique avec les standards du groupe. Architecture & Documentation Être force de proposition pour répondre aux besoins des projets et des équipes métiers. Documenter techniquement l’existant en vue de migrations , stratégies de rationalisation et consolidation des applications. Rédiger les documents d’architecture : HLD (High Level Design) LLD (Low Level Design) Schémas de modélisation et d’architecture Alimenter et cartographier le référentiel applicatif via l’outil d’EA (LeanIX). Conformité & Best Practices Garantir le respect des bonnes pratiques du groupe , notamment en matière de sécurité , lors de la mise en place des solutions Cloud. Assurer le suivi de l’obsolescence applicative et proposer des solutions pour résorber la dette technique (système et applicative). Stratégie Cloud & Expertise Apporter son expertise dans la stratégie Move-to-Cloud des applications. Participer activement à la modernisation et à l’évolution des architectures. Interactions & Coordination Être le point de contact privilégié avec : Les équipes projets / MOA pour le build et le run des applications Les équipes IT internes (Architecture d’entreprise, IT OPS, Sécurité, etc.)
Freelance

Mission freelance
Développeur full stack senior

Mindquest
Publiée le
Angular
AWS Cloud
Docker

1 an
400-500 €
Île-de-France, France
Développer et faire évoluer des applications en : Java / Springboot / Angular Transmettre les connaissances techniques à l’équipe de développement. Développer des évolutions complexes tout en respectant les process et normes de l’organisation. Participer à la conception et au développement dans un contexte full stack. Participer à la maintenance et l'évolution du projet. Une expérience dans un contexte similaire est indispensable. Mission longue durée : 1 an renouvelable
Freelance

Mission freelance
Tech Lead (H/F) Azure | Java | Spring

Atlas Connect
Publiée le
API REST
Azure
CI/CD

12 mois
Paris, France
Dans le cadre du domaine Merchandising, Achats et Supply Chain au sein de la DSI, nous recherchons un Tech Lead (H/F) expérimenté spécialisé dans les environnements Java / Spring et Cloud Azure. Le consultant interviendra en coordination avec les équipes de développement, les chefs de projet techniques, le PO et les parties prenantes IT. Missions : • Pilotage de projet : planification, exécution et suivi des projets IT, coordination des équipes MOA/MOE, animation des rituels agiles (Scrum, Kanban). • Leadership technique : définition des architectures techniques, encadrement des développeurs (revue de code, bonnes pratiques), garant de la qualité et de la performance du code. • Qualité & performance : mise en place et suivi des phases de tests techniques, suivi des KPIs (taux d’erreurs, couverture de tests, performance des APIs), gestion des anomalies. • CI/CD & déploiement : supervision des chaînes CI/CD (Azure DevOps), gestion des environnements de développement, test et production. • Documentation & traçabilité : rédaction et mise à jour des documentations techniques et fonctionnelles (API, flux, architecture). • Collaboration transverse : communication avec PO, UX/UI, QA, DevOps et métiers. • Innovation & amélioration continue : veille technologique, propositions d’optimisation, animation des rétrospectives.
Freelance

Mission freelance
Ingénieur DevSecOps

Phaidon London- Glocomms
Publiée le
Azure DevOps
Azure Kubernetes Service (AKS)
DevOps

12 mois
450-600 €
Lyon, Auvergne-Rhône-Alpes
Lieu : Lyon (Télétravail avec déplacements ponctuels en France) Type de contrat : Mission de 12 mois + extensions / possibilité de CDI Date de démarrage : Janvier / Février 2026 À propos du poste Nous recherchons un(e) Ingénieur(e) DevSecOps expérimenté(e) pour rejoindre une équipe produit et technologie dynamique, travaillant sur des solutions logicielles innovantes et des projets de transformation cloud. Ce rôle stratégique vise à garantir des opérations cloud sécurisées, automatisées et évolutives dans un environnement agile. Vous collaborerez étroitement avec les équipes de développement et d’infrastructure pour mettre en œuvre les pratiques DevSecOps, automatiser les déploiements et assurer l’excellence opérationnelle sur les plateformes cloud. Responsabilités principales Accompagner les équipes de développement sur les problématiques d’hébergement cloud et proposer des solutions adaptées. Apporter une expertise sur les environnements Microsoft Azure. Automatiser les déploiements cloud via l’Infrastructure as Code (Terraform, Ansible). Maintenir et optimiser la chaîne logicielle pour la livraison continue. Contribuer à la stratégie technique et valider les solutions en cohérence avec les objectifs cloud et infrastructure. Assurer une veille technologique sur les outils, méthodes et pratiques DevSecOps. Environnement technique Cloud : Microsoft Azure (IaaS, PaaS) Automatisation : Terraform, Ansible Langages : Python, PowerShell CI/CD : Azure DevOps, Pipelines Sécurité : SAST, DAST, principes OWASP Profil recherché Expérience : 5+ ans en DevOps, DevSecOps, Cloud ou ingénierie infrastructure. Solide connaissance des services Azure et des bonnes pratiques DevSecOps. Maîtrise des outils d’automatisation et Infrastructure as Code. Familiarité avec les tests de sécurité applicative et les pipelines CI/CD. Excellentes compétences en communication et capacité à collaborer avec des équipes pluridisciplinaires. Esprit proactif, curieux et ouvert.
CDI
Freelance

Offre d'emploi
Ingénieur de production Linux RHEL (F/H)

Experis France
Publiée le
Ansible
AWS Cloud
Azure

1 an
Île-de-France, France
Nous cherchons pour le compte d'un client, grand groupe du secteur bancaire un ingénieur systèmes Linux, qui aura comme responsabilité d'assurer l’administration système avancée, la supervision, et la gestion opérationnelle d’un environnement Linux (principalement Red Hat Enterprise Linux) dans un contexte bancaire exigeant. Le rôle inclut : Production (run/ops) avec forte volumétrie, Supervision Dynatrace, Automatisation et industrialisation, Gestion des flux CFT et batchs critiques, Intégration Cloud (Azure/AWS/GCP), Respect des normes de sécurité et conformité bancaire. Compétences demandées : Administration Système Linux (RHEL) : MCO/MCS, patching, durcissement (CIS/OpenSCAP), gestion des comptes et permissions. Supervision Dynatrace : déploiement agents, configuration dashboards, alerting, RCA. Gestion CFT & Batch : configuration, surveillance, troubleshooting des flux inter-applicatifs et batchs critiques. Automatisation & Industrialisation : Ansible, Bash, Python, CI/CD (Git, Jenkins/GitLab). Cloud : interventions hybrides (Azure/AWS/GCP), IAM, bastions, intégration sécurité. Sécurité & Conformité bancaire : RGPD, ISO 27001, DORA, audits, traçabilité. Support L3 & gestion des incidents majeurs : coordination P1, RCA, post-mortem. Collaboration transverse : réseau, sécurité, applicatif, risk management. Indicateurs de performance Disponibilité des systèmes (SLA/SLO). MTTR incidents critiques. Taux de patch et conformité sécurité. Qualité des alertes Dynatrace. Taux d’automatisation des tâches récurrentes. Fiabilité des flux CFT et batchs. Astreintes et interventions HNO. Contexte bancaire régulé (audits fréquents). Coordination multi-équipes.
Freelance

Mission freelance
AI Product Owner

Codezys
Publiée le
Azure
Cloud
Data science

12 mois
Lille, Hauts-de-France
Principales missions : Vision & Stratégie Produit IA : Définir la stratégie des solutions IA en collaboration avec les équipes métier, en identifiant les opportunités dans les domaines du Risque, du Paiement, du Digital, etc., et en priorisant les projets selon leur valeur et faisabilité. Gestion du Backlog & Priorisation : Coordonner et prioriser les initiatives en Data Science et IA en traduisant les besoins métier en fonctionnalités, en maintenant le backlog et en arbitrant les priorités pour maximiser l’impact business à chaque sprint. Pilotage du Delivery Agile : Superviser la livraison des projets IA via des méthodologies agile (Scrum/Kanban), organiser les cérémonies, suivre l’avancement, lever les obstacles, et garantir le respect des délais, du budget et de la qualité, tout en communiquant avec les sponsors. Coordination Métiers–Data–IT : Servir d’interface entre les équipes Data Science, IT et métiers, en facilitant la co-construction de solutions adaptées, en intégrant les contraintes techniques et en assurant une mise en œuvre fluide. Crédit & Risque (Scoring) – Use cases « Machine Learning » classiques : Piloter l’évolution des modèles de scoring crédit (octroi, scores comportementaux), en concevant, expérimentant, déployant et en monitorant les modèles en collaboration avec Risque et Validation, en s’assurant qu’ils respectent les normes réglementaires et qu’ils améliorent la stabilité du coût du risque. IA Générative & Agents : Explorer et déployer des cas d’usage liés à l’IA générative, tels que chatbots, assistants cognitifs ou systèmes avec LLM/RAG, pour automatiser l’analyse de documents, soutenir les équipes internes ou enrichir le support client, en définissant objectifs et indicateurs de performance.
CDI
Freelance

Offre d'emploi
Senior Cloud Data Engineer

adbi
Publiée le
Apache Airflow
Apache Spark
AWS Cloud

6 mois
45k-60k €
550-600 €
Île-de-France, France
Les Systèmes de Données du Groupe recherchent un(e) Senior Cloud Data Engineer passionné(e) basé(e) à Paris afin d’accompagner la forte croissance de nos activités. En rejoignant notre équipe, vous ferez partie d’une équipe autonome et serez affecté(e) à un programme de transformation , en travaillant sur des projets de Data Engineering . Vous apporterez des conseils en stratégie data , participerez à la conception de l’architecture et à sa mise en œuvre , et aurez l’opportunité d’expérimenter de nouvelles technologies et solutions . Au sein de notre équipe, vous serez accompagné(e) par des collègues dynamiques, toujours prêts à partager leurs connaissances . Nous attendrons de vous que vous apportiez des recommandations sur les meilleures pratiques . Vous serez un point central , mettant à profit vos compétences et votre état d’esprit pour contribuer au développement des compétences professionnelles de l’équipe, avec un accent particulier sur la fiabilité , la maintenabilité et la scalabilité des solutions que nous fournissons à nos clients. Compétences et expériences requises 3 à 5 ans d’expérience pratique dans la construction de pipelines de données sur des services et plateformes cloud publics , de préférence Amazon Web Services (notre principal fournisseur cloud) et/ou Azure , Google Cloud Platform Plus de 3 ans d’expérience dans l’ architecture , la conception , le développement , l’ implémentation et le support de solutions data Expérience dans plusieurs des domaines suivants : architecture de bases de données , ETL , business intelligence , big data , machine learning , analytique avancée Expérience dans des environnements basés sur Hadoop et Spark Expérience dans l’ orchestration de pipelines avec Airflow Expérience des architectures Lakehouse : Hudi, Iceberg, Delta Connaissance des optimisations Lakehouse : compaction , Z-Order , etc. Expérience en développement logiciel et en langages de transformation de données tels que Python , SQL , ainsi qu’avec Docker , les pipelines CI/CD et les concepts d’ automatisation pour construire des pipelines de traitement de données critiques Sensibilisation aux concepts clés du DevOps et aux principes Agile Connaissances de base des services fondamentaux du cloud (réseau, sécurité, stockage, IAM), de leur fonctionnement et de leurs options de configuration Esprit ouvert et attitude proactive en faveur de l’ apprentissage continu , du développement personnel et de l’orientation client Solides compétences relationnelles , avec une sensibilité et une compréhension des enjeux interculturels Capacité à garantir la performance , la disponibilité et la scalabilité des applications, tout en maintenant un haut niveau de qualité de code et une conception réfléchie En tant qu’ ingénieur cloud , vous livrez des solutions de haute qualité , de la conception à la mise en production, avec un fort accent sur la fiabilité , l’ automatisation , la maintenabilité et la sécurité Contribution à l’ évolution de notre offre de Cloud Data Engineering (conception, implémentation, déploiement)
2280 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous