Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow

Votre recherche renvoie 75 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur devops - data

OBJECTWARE MANAGEMENT GROUP
Publiée le
DevOps

3 ans
60k-65k €
400-550 €
Île-de-France, France

Nous recherchons pour le compte de notre client un ingénieur devops ayant des connaissances data (cassandra, Airflow,Spark,Starbust,Kafka,HDP). Vos mission seront : En BUILD : Capable de suivre les projets et de co-construire avec l’IT métier. Servir de point d’entrée OPS sur les projets. Réaliser tous les gestes techniques de mise en production (installation, mises à jour, création/mise à jour des environnements). Mettre en place l’exploitation applicative avant le passage en RUN. Conseiller et accompagner techniquement, tout en respectant les standards du groupe . En RUN : Gérer les incidents et les changements sur tout le périmètre de la squad. Identifier et mettre en œuvre des axes d’optimisation et d’industrialisation . Améliorer continuellement le monitoring et l’exploitation des applications . 2. Un état d’esprit Agile & DevOps Travailler en mode Agile (Scrum, SAFe) . Être dans une démarche DevOps (automatisation, CI/CD, monitoring, culture produit) Profil : Nous recherchons un profil capable de : Intervenir sur le cycle complet : de la construction (BUILD) à l’exploitation (RUN). S’intégrer dans une squad Agile. Automatiser, sécuriser et optimiser les déploiements/applications. Maîtriser les environnements hybrides : Cloud, Data, On-Prem. S’appuyer sur des outils DevOps modernes (CI/CD, Ansible, ArgoCD, Kubernetes, Docker, etc.) Technologie à maîtriser : Outils DevOps : Ansible, ArgoCD (ou GITOPS) Cloud / IaaS : Linux, Websphere, Autosys, CFT. Cloud / PaaS : Kubernetes, Docker, OpenShift, PostgreSQL, ExaCC. Cloud / Data : Spark, Starburst, Airflow. Data On Prem : HDP, Cassandra, Kafka. Outils de suivi : ServiceNow (SNOW), JIRA.

Freelance

Mission freelance
Ingénieur de données GCP (H/F)

SMARTPOINT
Publiée le
Apache Spark
BigQuery
CI/CD

4 mois
400-460 €
Paris, France

Au sein de l'équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d'un productowner, d'un data steward et d'un data ingénieur. Notre technique de stack est principalement constituée de Python, Spark, SQL, dbt, BigQuery, Airflow pour l'orchestration des traitements et Terraform ainsi que Terragrunt pour l'industrialisation. Le stack inclut également d'autres services de la Google Cloud Platform. En interaction avec les membres de l'équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe • Construire et maintenir des pipelines de données robustes et évolutifs • Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures évolutives capables de répondre aux besoins et à l'évolution rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l'évolutivité, la fiabilité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Livrables attendus : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets Expertises demandées pour la réalisation de la prestation.

Freelance

Mission freelance
Ingénieur DBA & DevOps (h/f)

emagine Consulting SARL
Publiée le

1 mois
570-600 €
92200, Neuilly-sur-Seine, Île-de-France

Résumé Ce poste vise à moderniser et optimiser nos systèmes de données en intégrant une expertise en administration de bases de données et en culture DevOps/Cloud. Responsabilités : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift) – Maîtrise AWS = pré-requis. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD – pré-requis. Gestion de schémas BDD : Liquibase (pré-requis). Détails : Localisation: Neuilly sur Seine (92) Télétravail: 2 jours par semaine

Freelance
CDI

Offre d'emploi
Data Analyst

R&S TELECOM
Publiée le
Pandas
PySpark

1 an
Île-de-France, France

Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.

Freelance

Mission freelance
[LFR] Expertise BigData / Cloud Data Engineering, Senior à Guyancourt - 1005

ISUPPLIER
Publiée le

10 mois
400-750 €
Guyancourt, Île-de-France

Une grande organisation internationale du secteur bancaire est responsable de la production informatique à l’échelle mondiale. L’équipe DATA/IA conçoit, opère et porte l’expertise des plateformes DATA facilitant la mise en place d’architectures modernes, distribuées et hautement résilientes, tant sur site que dans le cloud. Le Data Engineering/ Expertise Big Data rejoindra l’équipe DATA/IA, actuellement composée d’une vingtaine de personnes réparties entre Paris et Singapour, et évoluera dans un environnement technique et fonctionnel riche. Les principales missions sont: Accompagner les projets dans leur migration vers des infrastructures modernes on prem et sur le cloud public : • Intervenir en assistance/expertises auprès de nos clients, obtenir leurs retours et comprendre leurs exigences • Réaliser l'étude détaillée des besoins clients en lien avec les architectes • Construire avec les CloudOps les infrastructures DATA pour le projet • Accompagnement des projets dans l'adoption de ces technologies via des workshops, formation, documentation • Paramétrer / configurer les services afin de répondre aux exigences projets • Définir la stratégies de backup et restauration • Réaliser les tests de performances, de résilience et de reprise d'activité • Implémenter le monitoring et l'alerting • Rédiger les documents d'exploitation Participer au RUN de nos services : • Gestion des demandes et incidents • Patching / Upgrade • Participation à l'astreinte de l'équipe • Amélioration continue de nos procédures/documentation Compétences recherchées : • Connaissance approfondie sur les technologies Data suivantes: Cloudera, Kafka, Spark, Flink, Nifi, AirFlow, Starburst/trino • Connaissance des Cloud Public AWS et GCP et Terraform • Connaissance des solutions Data sur le Cloud Public : AWS EMR, MSK, GCP DataProc, BigQuery, Cloud Storage, Cloud Dataflow, etc. • Connaissance approfondie linux et kubernetes • Connaissance approfondie des solutions CI/CD (Gitlab, GitOps, ArgoCD, etc) • Maîtrise de langages de programmation (Scala, Java, Python…) • Travail en Agile • Anglais • Certification ITIL V4 obligatoire 3J/Semaine sur site SQY au minimum Les astreintes (HNO, etc…) : Oui La possibilité de renouvellement : Oui Type de projet (support / maintenance / implementation /…) : Implémentation

Freelance

Mission freelance
Data Engineer - GCP

Orcan Intelligence
Publiée le
Google Cloud Platform (GCP)

6 mois
500-650 €
Paris, France

Nous recherchons un Data Engineer GCP expérimenté pour rejoindre une équipe dynamique en freelance afin de soutenir des projets critiques de migration de données et d'infrastructure. Il s'agit d'une opportunité entièrement à distance, idéale pour des professionnels pratiques passionnés par la construction de pipelines ETL/ELT évolutifs et de solutions de stockage de données dans un environnement rapide. Responsabilités: Concevoir, construire et maintenir des pipelines ETL/ELT pour l'ingestion, la transformation et le chargement de données dans des entrepôts de données cloud, en traitant efficacement de grands volumes de données. Implémenter et gérer des solutions de stockage de données, en garantissant des performances élevées, une évolutivité et une fiabilité dans des environnements de production. Déployer l'infrastructure en tant que code (IaC) à l'aide de Terraform pour provisionner et gérer les ressources GCP. Développer et orchestrer des workflows à l'aide de Cloud Composer ou Apache Airflow pour la planification et l'automatisation. Exploiter Apache Beam/Dataflow ou Spark/Dataproc pour le traitement distribué de données, y compris les architectures batch, micro-batch et streaming en temps réel. Rédiger des requêtes SQL avancées et optimiser les interactions avec les bases de données relationnelles, en intégrant la capture de changements de données (CDC) le cas échéant. Collaborer sur des migrations de données, en assurant des transitions fluides avec un accent sur la qualité des données, les tests et les pratiques modernes de DataOps (par exemple, déploiements de pipelines, ingénierie de qualité). Intégrer avec l'écosystème plus large de l'ingénierie de données, en recommandant et adoptant des outils au besoin pour améliorer l'efficacité. Communiquer efficacement avec les parties prenantes internes et les partenaires externes pour aligner sur les exigences et livrer des solutions à fort impact.

Freelance

Mission freelance
Développeur / Data Engineer Observabilité

Signe +
Publiée le
Python

6 mois
540-630 €
Levallois-Perret, Île-de-France

Contexte Nous recherchons un Développeur Senior possédant une double expertise en Développement Backend et en Ingénierie des Données, pour intégrer une équipe dédiée à l’Observabilité. Le consultant interviendra dans un environnement Azure et DevOps, avec un fort enjeu de fiabilité, performance et gouvernance des données. Localisation et modalités Lieu : Levallois-Perret Hybridation : 2 à 3 jours sur site / semaine Durée : engagement long terme (jusqu’à 3 ans) Démarrage : 13/10/2025 Fin prévue : 12/10/2026 Seniorité : +8 ans d’expérience minimum Missions et Responsabilités Développement Backend Concevoir, développer et maintenir des services backend (Python, PySpark). Exposer des APIs et intégrations orientées Observabilité. Data Engineering Construire et orchestrer des pipelines ELT/ETL robustes (Airflow, Spark, Python). Assurer la qualité, le lineage, la sécurité et l’observabilité des données. Stockage & Visualisation Gérer les données via PostgreSQL, Azure Blob Storage et ADLS. Créer des dashboards avancés avec Grafana pour la supervision des performances. Collaboration & Méthodologie Travailler avec les équipes de développement et le Product Owner (Agile/Scrum). Intégrer les pratiques d’observabilité dans les cycles de développement pour améliorer résilience et visibilité. Compétences techniques requises Langages : Python, PySpark, SQL, NoSQL (ElasticSearch). Data & orchestration : Spark, Airflow, PostgreSQL, ADLS, Azure Blob Storage. Observabilité : ELK Stack, Logstash, Azure Log Analytics (KQL), Grafana. Cloud & Infrastructure : Azure (AKS, Azure Functions, Event Hub, Delta Lake). CI/CD : GitHub Actions, intégration et déploiement continus. Bonus : Kafka, Spark Structured Streaming. Qualifications & Profil Diplôme en informatique/ingénierie ou équivalent. Expérience : 6+ ans en Data Engineering / Développement backend (dont plusieurs en environnement Azure & DevOps). Langues : Français et Anglais courants (écrit et oral). Résumé Mission longue (1 à 3 ans) sur Levallois-Perret, orientée sur le développement backend et l’ingénierie de données pour renforcer l’observabilité des systèmes critiques.

Freelance

Mission freelance
Lead Data Engineer Streaming

STHREE SAS pour HUXLEY
Publiée le
Apache Kafka
Apache Spark

12 mois
700-850 €
75013, Paris, Île-de-France

Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack

Freelance

Mission freelance
Data Engineer GCP – Freelance (H/F)

Comet
Publiée le
Google Cloud Platform (GCP)

1 an
400-630 €
Île-de-France, France

Missions Concevoir, développer et industrialiser des pipelines (batch/near-real-time) robustes et scalables. Modéliser les données et déployer des datasets normés (ex. utilisateurs, comportements, référentiels). Mettre en place le contrôle qualité (tests, règles, SLA, observabilité) et la gouvernance/catalogue . Orchestration, CI/CD et Infra as Code pour des déploiements reproductibles. Garantir sécurité, stabilité et performance des traitements. Documenter (technique & runbooks) et accompagner les équipes utilisatrices (vulgarisation, bonnes pratiques). Assurer la veille et la standardisation des patterns/outils data. Livrables Pipelines production-ready avec documentation et monitoring. Framework qualité (règles, tests, dashboards). Datasets normés publiés et référencés dans le catalogue. Guides d’exploitation / transfert de compétences. Stack & outils Langages : Python, SQL. Traitements : dbt , Spark (selon besoins). Data Warehouse : BigQuery . Gouvernance/Catalogue : Dataplex (Universal Catalog) . Orchestration : Airflow . CI/CD : GitLab & GitLab CI/CD . Infra as Code : Terraform & Terragrunt . Cloud : GCP .

Freelance
CDI

Offre d'emploi
Data Engineer

1G-LINK CONSULTING
Publiée le
Azure
DevOps
Microsoft Fabric

6 mois
Paris, France

Mission Data Engineer Client: Secteur Minéraux Localisation : Paris, Aix-en-Provence, Strasbourg ou Lyon Télétravail : 1 à 2 jours par semaine Durée : 6 mois minimum (renouvelable) Démarrage : Dès que possible Équipe à taille humaine Contexte de la mission Dans le cadre d’un vaste programme de transformation data, notre client – un acteur international du secteur des minéraux – déploie une Data Factory structurée autour de trois volets : Program Management : pilotage global et coordination du programme, Tech Enablers : mise en place des briques techniques de la plateforme, Data Use Cases : livraison de cas d’usage métiers concrets à forte valeur ajoutée. L’objectif est double : Livrer 2 à 3 cas d’usage prioritaires , Implémenter une plateforme data moderne , basée sur Microsoft Fabric et intégrée à l’écosystème Azure , tout en instaurant une gouvernance agile (Scrum, PI Planning). Rôle : Data Engineer Vous interviendrez au sein de l’équipe Data pour : Concevoir et développer les pipelines d’ingestion, de transformation et de mise en qualité des données , Gérer les flux de données batch et streaming , Optimiser les performances et la robustesse des traitements, Collaborer avec les équipes architecture , delivery et use cases pour assurer la cohérence de bout en bout, Contribuer à la mise en place des bonnes pratiques DevOps / DataOps dans un environnement agile. Compétences recherchées Techniques : Développement de pipelines de données (batch & streaming), Formats : Parquet, JSON, Delta, Maîtrise de l’écosystème Azure / Microsoft Fabric , Bon niveau en SQL et Python , Outils : Spark , Databricks , Azure Data Factory , Git , Docker , Airflow , Méthodologiques : Environnement Agile / Scrum , avec participation aux cérémonies PI Planning , Connaissance des pratiques DevOps / DataOps , Langues : Anglais courant obligatoire (environnement international). Profil recherché Data Engineer confirmé , avec 3 à 5 ans d’expérience dans des environnements cloud et data modernes, Esprit d’équipe, sens de l’organisation, autonomie et rigueur.

Freelance
CDI

Offre d'emploi
Ingénieur(e) OPS / DevOps (Build & Run)

OBJECTWARE MANAGEMENT GROUP
Publiée le
Administration linux
Ansible

3 ans
Île-de-France, France

Missions & ActivitésEn BUILD : Suivi de projet et co-construction avec l’IT Métier Rôle de point d’entrée OPS dans le cadre des projets confiés Réalisation des gestes techniques liés aux mises en production (installation, mises à jour, déploiements) Création ou mise à jour des environnements applicatifs Mise en place de l’exploitation avant le passage en RUN Accompagnement technique, conseil et bonnes pratiques Respect et diffusion des standards du Groupe En RUN : Gestion des incidents et des changements sur l’ensemble du périmètre de la squad Proposition d’axes d’optimisation et d’industrialisation Amélioration continue du monitoring et de l’exploitation des applications 🛠️ Écosystème technologiqueOutils DevOps Ansible, ArgoCD Applications & Infrastructures Cloud / IaaS : Linux, Websphere, Autosys, CFT Cloud / PaaS : Kubernetes, Docker, OpenShift, PostgreSQL, ExaCC Cloud Data : Spark, Starburst, Airflow Data On-Prem : HDP, Cassandra, Kafka Outils de suivi ServiceNow, JIRA

Freelance

Mission freelance
Data Scientist GCP adtech

Cherry Pick
Publiée le
Data science
Google Cloud Platform (GCP)

3 mois
520-540 €
75000, Paris, Île-de-France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.

Freelance

Mission freelance
Consultant (H/F) Senior Big Data & Cloud Architect Telecom

HOXTON PARTNERS
Publiée le
Data governance
Telecom

56 jours
Île de Clipperton, France

Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).

Freelance

Mission freelance
Data Engineer – Solution Data

Signe +
Publiée le
Snowflake

6 mois
400-610 €
Lavaur, Occitanie

🎯 Objectif de la mission : Définir, développer, mettre en place et maintenir les outils et projets Analytics. 🛠️ Outils & Technologies : Python, Java, Shell Snowflake Matillion, Azure Data Factory Jenkins, Git, GitLab, CI/CD, Docker, Ansible, Kubernetes Power BI Tableau Software, Alteryx, Airflow, Denodo 📌 Responsabilités : Implémentation et industrialisation des pipelines de données Monitoring et amélioration continue Opération des projets Data & Analytics sur Data Platform Support en second niveau Veille technologique et contribution à la roadmap ✅ Compétences requises : Maîtrise des langages et outils cités Très bon niveau d’anglais Capacité à formaliser des solutions techniques Esprit collaboratif, rigueur, autonomie Pilotage de prestataires Aisance en environnement international

Freelance

Mission freelance
POT8704 - Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense

Almatek
Publiée le
AWS Cloud

6 mois
300-460 €
La Défense, Île-de-France

Almatek recherche pour un de ses clients, Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense Contexte : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Profil recherché : DBA / DevOps / AWS Confirmé > à 5 ans d’expérience dans la fonction Expérience confirmée en DBA/administration de bases de données OnPrem. Maîtrise des environnements AWS Data Services (RDS, Aurora, Glue, Redshift). Expérience en optimisation et migration de systèmes de données. Appétence forte pour les environnements DevOps / IaC. Une expérience sur d’autres Cloud (Azure, GCP) est un plus Missions principales : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences techniques recherchées : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift). ? Maîtrise AWS = pré-requis. Azure, GCP = un plus apprécié. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD ? pré-requis. Kubernetes = un plus apprécié. Monitoring : Prometheus, Grafana, ELK = un plus apprécié. Sécurité & conformité : IAM, chiffrement, RGPD, sauvegardes/restaurations. Gestion de schémas BDD : Liquibase (pré-requis). Soft skills clés : Vision transverse : relier la technique aux besoins métier. Communication claire : expliquer simplement les choix techniques. Esprit d’analyse et optimisation : détecter les points de blocage et proposer des solutions efficaces. Autonomie et proactivité : anticiper, être force de proposition. Collaboration : travailler en équipe pluridisciplinaire (Data, BI, IT, Cloud). Curiosité : veille permanente sur les innovations Cloud et Data. Orientation résultat : recherche de valeur ajoutée, pas uniquement de solution technique.

Freelance

Mission freelance
Architecte Technique

Signe +
Publiée le
Snowflake

6 mois
400-740 €
Lavaur, Occitanie

🎯 Objectif de la mission : Définir une solution technique orientée data, administrer la plateforme sous-jacente et la mettre en œuvre. 🛠️ Outils & Technologies : Tableau Software Alteryx Snowflake Matillion Azure Data Factory Airflow MS Fabric – Power BI Denodo 📌 Responsabilités : Conception de solutions techniques pour la gestion de gros volumes de données Industrialisation et amélioration continue des traitements Implémentation et opération des projets Data & Analytics Assurer le run en second niveau Veille technologique et contribution à la roadmap Data & Analytics ✅ Compétences requises : Maîtrise des outils cités Très bon niveau d’anglais Capacité à formaliser des solutions techniques Esprit collaboratif, rigueur, autonomie Pilotage de prestataires Aisance en environnement international

75 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous