Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 769 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer Snowflake Sénior (H/F)

Panda Services
Publiée le
Apache Airflow
Azure
CI/CD

6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
CDI

Offre d'emploi
ALTERNANCE - Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Expert Data Engineer / DevOps

R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes

6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Freelance

Mission freelance
Data Engineer - Niort

Signe +
Publiée le
Azure
CI/CD
Data Lake

6 mois
350 €
Niort, Nouvelle-Aquitaine
Je cherche un profil Data ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d’une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d’erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d’amélioration continue -Participation active aux rituels agiles
CDI

Offre d'emploi
DATA ENGINEER CONFIRMÉ DATABRICKS / SPARK (H/F)

GROUPE ALLIANCE
Publiée le

55k-58k €
Paris
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la conception, à la mise en place et à l’optimisation d’architectures data robustes et évolutives au service de la valorisation de la donnée : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 8 ans minimum en ingénierie de la donnée ou en développement data Expert(e) en AZURE, DATABRICKS, SPARK, PYTHON, SQL Habile avec les outils CI/CD, AZURE DEVOPS, AGILE, JIRA AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Freelance

Mission freelance
DevOps / ETL Data Engineee - Banque

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site / semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Votre mission Au sein d'une équipe Agile, vous intervenez sur des projets data à forts enjeux. Votre rôle consiste à concevoir, développer et maintenir des chaînes de traitement de données fiables, performantes et sécurisées. Vous participez à l'ensemble du cycle de vie : analyse fonctionnelle et technique, développement ETL, tests et contrôles qualité, livraison et support aux équipes de production. 🛠️ Vos responsabilités Développer et paramétrer des traitements ETL Rédiger des scripts SQL et Shell Produire les livrables : code, documentation, jeux de tests Participer aux cérémonies Agile (backlog, grooming, démos) Collaborer avec les équipes IT et métiers Garantir la qualité, la performance et la conformité des solutions Contribuer à l'amélioration continue de l'équipe ✅ Profil recherché Expérience confirmée en ETL (Datastage ou équivalent) Bonne maîtrise du SQL Connaissances en Shell scripting À l'aise dans un environnement Agile Rigueur, sens des responsabilités, esprit d'équipe Anglais professionnel requis ⭐ Pourquoi rejoindre cette mission ? Environnement international et structuré Projets data critiques à forte valeur Équipe Agile mature Bon équilibre présentiel / télétravail
Freelance

Mission freelance
Data Analyst DATAIKU / MARKETING

BEEZEN
Publiée le
Dataiku
Python
SQL

24 mois
400-530 €
Rueil-Malmaison, Île-de-France
Je recherche un Data Analyst Dataiku Tableau ayant un excellent niveau d' anglais connaissant si possible le Marketing Au sein de la direction Data Office & RPA / Reporting&Analytics nouvellement créée chez Arval, nous recrutons pour un poste d’analyste Data et Reporting dédié à la direction marketing d'ARVAL. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Sur 2026 : Reprendre et finaliser la Refonte des projets data marketing DMK Securiser et stabiliser le run Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) Construire des modèles prédictifs/scorings simples Automatiser le production de reportings mensuels pour direction Marketing Documentation Réunions de cadrage avec les métiers afin de définir les règles de gestion : Identification d'architecture et modélisation data Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés Scénarisation des flows DATAIKU Recettage des projets, correction de bugs Mise en production Analyses ad hocs Maintenance du run Analyses ad hocs Sécuriser la cohérence des KPIs produits et la qualité des données exploitées Communication auprès des métiers Responsable de la relation Marketing avec l'IT
CDI

Offre d'emploi
CDD Data Analyst Junior F/H (H/F)

█ █ █ █ █ █ █
Publiée le
eFront
Python
SQL

Croix, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer AI / LLM Snowflake (H/F) – Expérimenté H/F

Comet
Publiée le
Agent IA
Python
RAG

12 mois
400-550 €
Île-de-France, France
Contexte Au sein de la division Global Beauty Tech, l’équipe Data & Analytics Corporate IT Global de L'Oréal pilote des plateformes data stratégiques à l’échelle mondiale (RH, Finance, Campus). L’environnement technologique repose sur : Snowflake (plateforme analytique centrale) Google Cloud Platform (GCP) (BigQuery, Cloud Composer, GCS) Dans le cadre de son ambition 2026, l’équipe accélère fortement sur l’ IA générative et agentique , notamment via Snowflake Cortex et l’écosystème Snowflake Intelligence. 👉 Objectif : passer de PoC prometteurs à des solutions industrialisées, robustes et scalables . Votre mission Vous interviendrez sur un projet stratégique : “Talk to My HR Data” – une plateforme permettant aux métiers RH d’interroger leurs données en langage naturel via des agents IA. Vos responsabilités : 🏗️ Conception du framework IA Définir une architecture agentique sur Snowflake (LLM, orchestration, mémoire) Concevoir des patterns réutilisables (agents, tools, prompts) Formaliser les bonnes pratiques et standards 🤖 Développement d’agents IA Développer des agents Cortex pour des cas RH complexes Implémenter des solutions RAG et outils métiers (SQL sémantique, agrégations) Optimiser la fiabilité (ReAct, Chain-of-Thought) 🔌 Mise en place de serveurs MCP Concevoir des serveurs Model Context Protocol Exposer les données Snowflake aux LLMs Garantir sécurité & conformité (RGPD, données RH) 💬 Développement d’interfaces Créer des apps conversationnelles avec Streamlit in Snowflake Intégrer les agents dans des dashboards analytiques Améliorer l’expérience utilisateur (historique, feedback, erreurs) 📊 Gouvernance & performance IA Monitorer les usages LLM (coûts, latence, qualité) Optimiser les performances et coûts GenAI Mesurer le ROI des cas d’usage
CDI

Offre d'emploi
Alternance - Data & Outillage H/F F/H

█ █ █ █ █ █ █
Publiée le
Grafana
Python
SQL

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data ingénieur / Software ingénieur

SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark

1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Freelance
CDI

Offre d'emploi
Consultant(e) DATA OFFICER SENIOR (DATA GOVERNANCE / DATA MANAGEMENT / RGPD)

CELAD
Publiée le
Data governance
IA
RGPD

1 an
70k-90k €
600-700 €
Paris, France
1. CONTEXTE Au sein du Data Office rattaché à la Direction Data , vous intervenez dans un environnement structuré en tribus et squads sur des enjeux stratégiques liés à la gouvernance, la qualité et la protection des données . L’objectif est d’ industrialiser la gestion de la donnée dans la fabrication des cas d’usage (data, analytics, IA), tout en garantissant leur conformité réglementaire et leur performance business. Vous travaillez en étroite collaboration avec le Référent Data, les équipes métiers, IT, juridiques (DPO) ainsi que les différentes squads contributrices. 2. OBJECTIFS DU POSTE Structurer et déployer le cadre de gouvernance data à l’échelle de l’entreprise Garantir la qualité, la traçabilité et la protection des données critiques Accompagner les squads dans la mise en conformité RGPD et IA Act Assurer une vision transverse et pilotée des enjeux data (KPI, risques, qualité) Contribuer à la réussite des initiatives stratégiques data (Data Platform, projets IA, etc.) 3. MISSIONS PRINCIPALES3.1 Cadrage des initiatives data Accompagner les projets métiers et IT dans la phase de cadrage Identifier les données critiques (business / réglementaires) Définir les exigences en matière de : qualité des données gouvernance protection (RGPD, IA) 3.2 Gouvernance & Data Management Déployer et faire appliquer le framework de Data Governance Structurer les éléments suivants : Data catalog (Nectarine / AB Initio) dictionnaire de données glossaire métier data lineage Définir et suivre les rôles : Data Owners Data Stewards Garantir la cohérence du modèle data entre les différentes squads 3.3 Qualité des données Définir les règles de Data Quality (complétude, cohérence, unicité, etc.) Mettre en place les indicateurs de suivi Piloter les plans de remédiation avec les équipes IT et métiers Évaluer l’impact de la qualité des données sur la performance business 3.4 Data Protection & conformité Accompagner les équipes dans les analyses de risques RGPD (DPIA) Garantir le respect des principes de protection des données (privacy by design) Contribuer aux sujets liés à l’ IA Act Collaborer avec les équipes juridiques / DPO 3.5 Pilotage transverse & hypervision Mettre en place et suivre des KPI de gouvernance data Assurer une vision consolidée : des risques de la qualité de l’avancement des travaux Préparer et présenter les éléments dans les instances : comités de suivi comités data COMEX Produits 3.6 Accompagnement des équipes Former et accompagner les équipes : Data Stewards Data Designers équipes produit Diffuser les bonnes pratiques de gouvernance data Faciliter l’adoption des outils et processus 3.7 Contribution aux initiatives stratégiques Participation aux projets structurants (Data Platform, HALO…) Contribution aux ARM sur les volets data Support à la transformation data globale de l’entreprise
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
CDI

Offre d'emploi
Alternance - Data Analyst H/F

█ █ █ █ █ █ █
Publiée le
Python
SQL

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Product Manager/Environnement anglophone

Comet
Publiée le
Data governance

1 an
400-550 €
Île-de-France, France
Dans le cadre de la structuration de ses activités data à l’échelle mondiale, notre client recherche un Data Product Manager Senior pour piloter la conception et la mise en œuvre de modèles de données industriels et de solutions de reporting. Vous interviendrez sur un périmètre stratégique couvrant plusieurs applications déployées dans des usines à l’international, avec un objectif clair : standardiser, fiabiliser et valoriser la donnée au service de la performance industrielle. Vos responsabilités En tant que Data Product Manager, vous serez au cœur de l’interaction entre les équipes métiers et techniques. Vos missions principales : Comprendre les enjeux business liés à la performance industrielle Recueillir et structurer les besoins métiers Animer des ateliers avec les différentes parties prenantes Concevoir et formaliser les modèles de données (data modeling, business layer) Définir l’architecture fonctionnelle des solutions data Coordonner les équipes data (Data Engineers, BI, Architectes) Organiser les contributions autour du modèle "Data as a Service" Documenter les solutions et démontrer leur valeur Préparer les phases de mise en œuvre (budget, planning, roadmap) Formaliser les recommandations finales pour le lancement des projets
CDI

Offre d'emploi
Chef de projet Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

La Garde, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

769 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous