Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow

Votre recherche renvoie 104 résultats.
Freelance
CDI

Offre d'emploi
SRE Data et IA

VISIAN
Publiée le
DevOps
Site Reliability Engineering (SRE)

1 an
40k-45k €
400-650 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement afin de garantir la disponibilité, la performance et la résilience des services en production. Le/La SRE anticipe les risques, accompagne les équipes Dev/Prod et développe l'automatisation nécessaire pour assurer un fonctionnement optimal des plateformes, avec une spécificité sur la gestion des applications Data et IA. Responsabilités principales Suivi de la fiabilité, l'intégrité et la qualité de la plateforme en production Définition et suivi des SLO/SLI ; rétablissement du service en cas d'incident Participation aux projets dès le cadrage et anticipation des impacts sur la production Automatisation des opérations et réduction du travail manuel Mise en place d'un monitoring, de l'alerting et des dashboards pertinents Pilotage de l'obsolescence et contribution à la sécurité opérationnelle Contribution à la communauté SRE : bonnes pratiques, partage d'expérience Compétences clés Techniques : Connaissances des solutions Data & AI (ex : Airflow, Spark, Starburst, Domino AI …) Linux (RHEL), Docker, Kubernetes / OpenShift Automatisation & IaC : Git, Jenkins (CI/CD), Ansible, Terraform Scripting : Python, Shell, YAML Observabilité & Monitoring : ELK, SysDig, Dynatrace, Grafana Supervision / Scheduling : Control-M Cloud : IBM Cloud
Freelance

Mission freelance
Business Analyst R, Python, SQL client banque basé à Paris/s

WorldWide People
Publiée le
Business Analyst
Python

12 mois
Paris, France
Business Analyst R, Python, SQL client banque basé à Paris, un profil Analyse Business de niveau expert et niveau confirmé. Compétences requises : Prestation : Analyse Business Connaissance des outils analytiques R, Python est indispensable Bonne connaissance des aspects modélisation des bases de données décisionnelles, et du langage SQL Expertise probante dans la mise en place de système décisionnels relevant du domaine de la stabilité financière, données prudentielles Compétences complémentaires (techniques, etc.) SQL, Hive SAS VIYA, Visual Analytics R/Python AirFlow Démarrage ASAP Localisation Paris / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Projet : Assister le product owner et le proxy product owner dans les travaux de préparation de la réalisation ainsi que la conception dans le cadre de la maintenance et des évolutions en mode projet Préparer, co-animer les ateliers d’affinage et de priorisation des besoins métier avec les Utilisateurs métiers, et leur retranscription sous forme de spécifications en épopées/récits utilisateurs, dans la méthodologie Scrum Collecter et participer à la validation des différents documents projets attendus Contribuer aux différents ateliers avec l’ensemble des parties prenantes du projet tant fonctionnel que technique dans la phase de réalisation Contribuer à la conception fonctionnelle des cas d’usage métiers avec les référents Métiers pour la réalisation et leur formalisation sous forme de récits utilisateurs ; réalisation de la recette fonctionnelle à l’appui de cas de tests qui auront été préalablement formalisés ; formalisation de la communication aux utilisateurs métiers et appui à la formation des Utilisateurs Participer aux travaux de l’escouade en mode agile Participer à la remise et à la validation des différents livrables du projet Contribuer aux activités de support à la production Contribuer aux activités de conduite de changement des utilisateurs métiers Compétences requises : Prestation : Analyse Business Connaissance des outils analytiques R, Python est indispensable Bonne connaissance des aspects modélisation des bases de données décisionnelles, et du langage SQL Expertise probante dans la mise en place de système décisionnels relevant du domaine de la stabilité financière, données prudentielles Compétences complémentaires (techniques, etc.) SQL, Hive SAS VIYA, Visual Analytics R/Python AirFlow
Freelance

Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Freelance

Mission freelance
AI Agent Engineer e-commerce (Paris, Bordeaux, remote France) H/F

Pickmeup
Publiée le
LangChain
LangGraph
Large Language Model (LLM)

3 ans
550-650 €
France
Concevoir et développer des AI agents (LangChain, LangGraph, LangFlow ou équivalent) Mettre en œuvre des solutions basées sur LLMs et RAG Concevoir des architectures scalables (évaluation, monitoring, testing, déploiement) Participer au cycle complet : design, MVP, itérations et industrialisation Mettre en place des frameworks réutilisables pour accélérer les développements Assurer une veille active sur les nouvelles approches IA Environnement technique Python, PyTorch / TensorFlow, Spark, Databricks, AWS, SQL, Airflow, Delta Lake
Freelance
CDI

Offre d'emploi
Architecte / Tech Lead IA Python

TS-CONSULT
Publiée le
Azure
Tensorflow

1 an
Île-de-France, France
Bonjour a tous, Profil recherché : Solution Architecte expérimenté avec une double compétence Python/IA et maîtrise du vibe coding, capable de concevoir des architectures innovantes tout en accompagnant une équipe de développeurs dans un contexte agile et international. Hard Skills : • 10 ans d'expérience minimum en développement Python avec une expérience confirmée en architecture de solutions IA/ML • Expérience significative en tant que Tech Lead IA avec accompagnement et montée en compétences d'équipes de développement • Expérience démontrée et expertise reconnue en vibe coding avec utilisation avancée d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Capacité à former et coacher les équipes sur les meilleures pratiques de développement assisté par IA • Expertise confirmée en architecture de solutions IA/ML et intégration de modèles d'intelligence artificielle en production • Maîtrise avancée de Python 3.8+ et des bonnes pratiques de développement • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face Transformers • Expérience confirmée avec les LLMs (fine-tuning, RAG, prompt engineering, agents IA, orchestration) • Maîtrise des frameworks modernes : FastAPI, LangChain/LlamaIndex, Streamlit/Gradio • Connaissance des architectures microservices, API REST/GraphQL, event-driven, architectures orientées données • Expérience des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud (SageMaker, Azure ML, Vertex AI, Bedrock) • Connaissance approfondie des technologies MLOps et pipelines CI/CD pour modèles IA • Maîtrise SQL et NoSQL, Vector Databases (Pinecone, Weaviate, Milvus) • Expertise en DevOps, automatisation des tests, conteneurisation (Docker/Kubernetes) • Expérience en data engineering et pipelines de données (Airflow, Spark, Kafka) • Connaissance des outils de versioning et collaboration (Git, GitLab/GitHub) • Un plus : Connaissance Java/Spring pour interactions avec legacy systems Soft Skills : • Excellentes capacités de leadership technique et de mentorat • Esprit critique développé face au code généré par IA et capacité à valider la qualité • Pédagogie et capacité à transmettre les bonnes pratiques du vibe coding à l'équipe • Esprit d'innovation et de veille technologique active sur l'IA • Rigueur dans la conception architecturale et les bonnes pratiques • Autonomie et force de proposition • Initiative dans la résolution de problèmes complexes • Très bon relationnel et capacité à communiquer avec différents interlocuteurs (techniques et métiers) • Esprit agile et pragmatique : équilibre entre vitesse et qualité • Capacité à fédérer une équipe autour d'une vision technique Anglais Courant.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
Docker
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
Freelance

Mission freelance
Senior Data Engineer – Data Platform Enabler

Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps

12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Freelance

Mission freelance
Ingénieur DevOps (H/F)

Insitoo Freelances
Publiée le
Administration linux
Ansible
Gitlab

2 ans
420-480 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur DevOps (H/F) à Lyon, France. Contexte : Une équipe DevOps en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les Data Scientists et développeurs du département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : - des IDE complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions - des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience -de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus. Les missions attendues par le Ingénieur DevOps (H/F) : Activité principale Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les data analystes / data scientists Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du SI (Développeurs, Sécurité, Architectes, Exploitants, etc…) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participation aux cérémonies d’équipe Activité secondaire Etudier l'accostage vers la data analyse de demain en lien avec le pôle SI DATA (cloud / on prime) pour assurer aux équipes analytiques d'IML une continuité d'activité dans une nouveau contexte DSI Stack technique de l'équipe · Système : Infrastructure 100% linux : RedHat, CentOS, Alpine · Middleware : Apache, Proftpd, JupyterLab, node, Shiny-server, VSCode server · Scripting/dev : Shell, Python, R, groovy, yaml, HCL (Terraform) · Bases de données : PostGreSQL (offre PGaaS notamment), espace produit sur B4ALL · CI/CD : Git, GitLab CI, Ansible, Jenkins, HELM, Artifactory, Vault, Terraform · Conteneurisation : Docker, Kubernetes, Podman · Métrologie : Grafana · Ordonnancement : Control-M / Airflow · Gestion de projet : Jira, Confluence
Freelance
CDI

Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)

CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
MySQL

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Freelance

Mission freelance
Data Engineer Snowflake (Migration SAP / BW)

VISIAN
Publiée le
Snowflake

3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
Freelance

Mission freelance
Senior Data Engineer AWS

SILAMIR
Publiée le
AWS Cloud

12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Freelance

Mission freelance
Data scientist IA + Python + GCP

emagine Consulting SARL
Publiée le
AI
BigQuery
Google Cloud Platform (GCP)

3 ans
Île-de-France, France
Descriptif mission : En coordination avec les différents acteurs du pôle Payment et du Groupe • contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • Exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs Connaissances techniques : Maîtrise des architectures et plateforme de l’IA ainsi que du Cloud. • Environnements et outils de Google Cloud Platform : - BigQuery, - Airflow, - Vertex Ai/Notebook Jupyter • Maîtrise des algos ML (notamment classification et NLP) • Langages : SQL, Python (Pandas, Scikit learn, Tensor Flow) • Delivery : Git, Jenkins / Cloud Build • Connaissance du Data Engineering fortement appréciée • Bonne connaissance générale des logiques décisionnelles Connaissances fonctionnelles : Comprendre l’environnement et les métiers de Paiements. Une connaissance préalable des paiements serait un plus.
Freelance

Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa

WorldWide People
Publiée le
DBT
Informatica
Snowflake

6 mois
400-500 £GB
France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Freelance
CDI
CDD

Offre d'emploi
INTEGRATEUR TECH-OPS

KEONI CONSULTING
Publiée le
Mongodb
PostgreSQL
YAML

18 mois
20k-60k €
100-500 €
Paris, France
Contexte : Nous recherchons un TechOps, un référent transversal garant de la qualité d’intégration, de la fiabilité opérationnelle, et de l’exploitabilité by design des solutions déployées au sein de l’équipe Infrastructure. Il participera à renforcer la fiabilité opérationnelle (RUN), l’amélioration continue, la standardisation, l’automatisation des processus d’exploitation et la montée en maturité vers les pratiques modernes de Platform Engineering. La ressource devra s’impliquer pour devenir un référent technique transverse, capitalisant sur les périmètres applicatifs et les solutions techniques. La répartition indicative des activités sera de 60 % au sein du Bureau Technique et 40 % en contributions techniques transverses (documentation, automatisation, amélioration continue, outillage). MISSIONS OBJET DE LA PRESTATION Préparation, coordination et suivi des mises en production. Contrôle et validation des livrables techniques. Intégration et paramétrage des solutions logicielles. Réalisation des tests techniques : unitaires, intégration, validation d’exploitabilité. Installation des nouveaux modules et des évolutions applicatives. Participation aux analyses d’impacts techniques. Contribution à l’évaluation des risques techniques. Vérification de la conformité aux normes de sécurité, d’architecture et d’exploitation. Respect strict des normes, standards, architectures, procédures et bonnes pratiques d’exploitation. Participation active à l’évolution des standards techniques du TechOps. - - - - - - - - - - - - Déploiement et maintien de solutions techniques et d’automatisations (scripts, pipelines CI/CD, supervision, IaC lorsque applicable). Standardisation des outils, patterns et bonnes pratiques. Contribution aux services et solutions opérées par l’équipe Platform Engineering. Production et mise à jour de la documentation technique (DEX, référentiels, procédures…). Reporting régulier auprès du responsable Infrastructure et des ISM (Integration Service Managers). Accompagnement, vulgarisation et partage de connaissances auprès des équipes internes. Participation à l’acculturation DevOps au sein du Bureau Technique. Solide rigueur technique et capacité d’analyse. Aisance rédactionnelle et esprit de synthèse. Excellente communication orale et écrite. Aptitude à vulgariser et à accompagner les équipes dans la montée en compétences. Capacité à être force de proposition et à mener une veille technologique régulière. PROFIL & ENVIRONNEMENT TECHNIQUE L’environnement technique de l’équipe d’Infrastructure est composé des éléments ci Compréhension limitée des concepts de production et DevOps, capacité à exécuter des tâches simples sous supervision (par exemple, exécution de scripts ou suivi des indicateurs de performance). Capacité à configurer des environnements de développement et de production, à utiliser des outils de gestion de version (comme Git) et à exécuter des tâches de maintenance préventive. Maîtrise des outils d'intégration et de déploiement continu (CI/CD), capacité à gérer des conteneurs (Docker, Kubernetes), et à optimiser les processus de production tout en surveillant les performances. Compétences expertes Expertise dans la gestion d'infrastructures cloud (AWS, Azure, GCP), capacité à concevoir des architectures résilientes, à implémenter des pratiques de sécurité, et à diriger des initiatives d'amélioration continue. Systèmes & Architecture Infrastructure Unix, Linux ,Windows Server ,Orchestration & Scheduling,Control-M ,supervision / Observabilité, Zabbix, Instana, Prometheus,Grafana, Kibana ,Scripting & Programmation, Shell, Python (scripting), powerShell, Python (dev),YAML,SQL,Java, NodeJS, ReactJS, Réseau & Équilibrage, HAProxy, Nginx3, API & Intégration, API REST, gestion & Analyse des Logs, Loki, Elasticsearch, Workflows & Traitements techniques, Apache Airflow ,Gestion de code (VCS) Compétences techniques essentielles (obligatoires) - - - - - - - - Systèmes & Architecture Infrastructure o Très bonne maîtrise des systèmes d’exploitation Linux et Windows Server (niveau expert). o Compréhension des environnements Unix/AIX et des mécanismes de haute disponibilité (HACMP, VCS, Windows Cluster). o Bonne compréhension des architectures d’infrastructure toutes couches (OS, réseau, middleware, API, stockage, supervision). Cloud & Modernisation o Connaissance solide des concepts Cloud (public, privé, hybride). o Compréhension des principes d’architecture Cloud (scalabilité, résilience, sécurité, patterns d’intégration). o Savoir travailler dans des environnements Cloud et accompagner la migration de solutions legacy. Automatisation & Infrastructure-as-Code o Maîtrise d’Ansible pour l’automatisation des configurations et des déploiements. o Connaissance de Terraform (IaC) pour comprendre ou valider les modèles d’infrastructure automatisée. o Connaissance de Vault pour la gestion sécurisée des secrets. o Capacité à intégrer et à standardiser les outils DevOps dans la chaîne d’exploitation. Orchestration & Traitements o Maîtrise d’Apache Airflow pour l’orchestration de workflows techniques et applicatifs. CI/CD & DevOps o Bonne connaissance des chaînes CI/CD (GitLab CI, GitHub Actions, Jenkins). o Capacité à valider l’exploitabilité d’un pipeline et à définir les prérequis techniques. o Capacité à intégrer des solutions DevOps, sans nécessairement développer des pipelines complexes. Langages & Scripting o Maîtrise d’un langage de programmation tel que Java ou Python (lecture, compréhension, validation technique). o Très bonne maîtrise du Shell (niveau expert), Python scripting et PowerShell. o Bonne maîtrise de YAML pour la lecture des configurations modernes (CI/CD, Kubernetes, Airflow). o Connaissances de base en SQL (lecture, diagnostic simple). Observabilité / Supervision / Logs o Connaissance des outils de supervision (Zabbix, Instana). o Capacité à lire et interpréter des logs via Loki, Elasticsearch, Kibana, Grafana, Prometheus. o Savoir identifier des incohérences, anomalies ou points d'amélioration sur la chaîne d’exploitabilité. Réseau, API & Équilibrage - - o Bonne compréhension du fonctionnement des API REST (consommation, contrats, validations). o Connaissance des équilibreurs de charge (HAProxy, Nginx). o Comprendre les mécanismes de SLB/GSLB (Load Balancing global/local). Écosystème applicatif & composants techniques o Compréhension des serveurs d’applications (Apache, Tomcat, JBoss). o Connaissance des systèmes de messagerie (Kafka, RabbitMQ, IBM MQ Series). o Connaissance des solutions de transferts (TOM/CFT/PeSIT). o Familiarité avec les bases de données (MS SQL, Redis, MongoDB, PostgreSQL) et leurs outils (DBeaver/SQL Manager). Les compétences optionnelles apportant un plus sont : - - - - - Maîtrise supplémentaire de langages : YAML avancé, C++, C#, HTML/CSS. Connaissance des solutions de virtualisation (VMWare, Hyper-V…). Connaissance de PostgreSQL et MongoDB (niveau opérationnel). Familiarité avec la gestion de projet et les méthodologies agiles. Compréhension plus avancée des solutions de coffre-fort (Vault, CyberArk…).
Freelance
CDI

Offre d'emploi
EXPERT Snowflake

EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake

1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
104 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous