Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 63 résultats.
Freelance
CDD

Offre d'emploi
Ingénieur Big Data Production - Cloudera / Kafka (H/F)

Publiée le
Apache Kafka
Cloudera
Production

1 an
65k-70k €
450-500 €
Gironde, France
Télétravail partiel
Il s’agit d’un poste d’ingénierie d’exploitation Data senior , orienté support N2/N3, performance et fiabilité , et non d’un rôle projet, Data Engineering ou DevOps cloud généraliste. VOS MISSION PRINCIPALES Le poste est fortement hands-on , centré sur l’exploitation avancée de la plateforme Data : Assurer le support N2/N3 d’une plateforme Big Data Cloudera en production Diagnostiquer et résoudre des incidents critiques complexes (performance, disponibilité, latence) Garantir la stabilité et la performance des clusters Hadoop / Spark Administrer et optimiser Kafka : performance, gestion des offsets, scalabilité, haute disponibilité, sécurité Superviser et optimiser les composants annexes (dont Elasticsearch ) Réaliser le tuning, le dimensionnement et l’optimisation des ressources Automatiser les opérations récurrentes : scripts Shell et Python, industrialisation via Ansible, pipelines CI/CD orientés exploitation Participer à l’ évolution de l’architecture Data en lien avec les architectes Documenter, transmettre et accompagner les équipes N1 / N2 Être point de contact technique avec l’ éditeur Cloudera en cas d’escalade
Freelance

Mission freelance
Expert Dataiku

Publiée le
Dataiku

1 an
370-480 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous accompagnons l’un de nos clients grands comptes dans la structuration et l’industrialisation de sa plateforme Data. Dans ce cadre, nous recherchons un Expert Dataiku capable de prendre en main la plateforme, d’industrialiser les workflows et d’accompagner les équipes Data & Métier. Vos missions Concevoir, développer et industrialiser des workflows sur Dataiku (DSS) Mettre en place des pipelines de data préparation, data cleaning, automatisation Structurer la plateforme : bonnes pratiques, naming, organisation des projets Accompagner les équipes Data/Metier dans l’adoption des features DSS Assurer le monitoring, la performance et la qualité des pipelines Contribuer à l’industrialisation et au passage en production des use cases Profil recherché 4+ ans d’expérience en Data Engineering / Data Analytics Maîtrise avancée de Dataiku DSS : recettes, scénarios, automations, API Node, plugins… Très bonnes compétences en Python, SQL, Git Connaissance d’un environnement cloud (Azure / GCP / AWS) appréciée Capacité à vulgariser et à accompagner les équipes métier
CDI

Offre d'emploi
Recrutement CDI – Data Engineers (CDI) | GCP / AWS / Azure

Publiée le
AWS Glue
Azure Data Factory
Google Cloud Platform (GCP)

Paris, France
Télétravail partiel
Recrutement – Data Engineers (CDI) | GCP / AWS / Azure Dans le cadre de nos ambitions de croissance pour l’année 2026 , nous renforçons activement nos équipes Data afin d’accompagner le développement de projets stratégiques auprès de nos clients grands comptes. Cette dynamique nous conduit à recruter plusieurs Data Engineers en CDI , intervenant sur des environnements cloud modernes et à forte volumétrie de données. Nous focalisons aujourd’hui nos efforts sur le recrutement de consultants correspondant au profil type suivant : Data Engineer disposant de 3 à 7 ans d’expérience , avec une expertise sur GCP, AWS ou Azure . Le candidat devra maîtriser les fondamentaux du Data Engineering : conception et mise en œuvre de pipelines de données, ingestion et transformation des données, modélisation, optimisation des performances, ainsi que les langages SQL et Python . Une capacité à intervenir sur des environnements complexes et à forte volumétrie est attendue, tout comme une aisance dans les échanges avec les équipes métiers et IT.
CDI
Freelance

Offre d'emploi
Data scientist IA gen

Publiée le
Deep Learning
Large Language Model (LLM)
Natural Language Processing (NLP)

1 an
Courbevoie, Île-de-France
StarClay recherche un Data Scientist spécialisé en Intelligence Artificielle pour une mission auprès de son client, leader de l'information juridique. La mission s'inscrit dans un contexte de développement et d'industrialisation de solutions d'IA avancées visant à enrichir les contenus et les produits juridiques du client à l'international. Le consultant interviendra sur l'ensemble du cycle de vie des solutions data et IA. Sa mission principale consistera à concevoir, développer et mettre en production des modèles et solutions basées sur l'IA (Agentic, LLM, Deep Learning). Les responsabilités clés incluent : - Définir et implémenter des solutions basées sur : - le prompt engineering - des modèles de deep learning (NLP, classification, ranking) - des workflows agentiques - Exploiter des données textuelles complexes (juridiques, doctrinales) pour concevoir des solutions innovantes - Mettre en oeuvre des mécanismes garantissant la qualité, la robustesse et le monitoring des modèles en production - Collaborer étroitement avec les équipes Produit, Data Engineering et les experts métiers
CDI

Offre d'emploi
Développeur Full-Stack / Azure( EXP 5 Ans)

Publiée le
API
Azure
Docker

50k-55k €
Paris, France
Télétravail partiel
Au sein de la Direction des Systèmes d'Information (DSI), l’équipe Data & Integration est responsable du développement de flux de données sur la plateforme Azure. Dans le cadre d’un nouveau projet, nous recherchons un développeur Full-Stack pour assurer le développement et le déploiement sécurisé d’une application web, en collaboration étroite avec l’équipe data. Ce poste requiert une expertise approfondie en développement front-end et back-end, ainsi qu’une capacité à gérer l’intégralité du cycle de vie du projet, depuis la conception jusqu’à la mise en production. Missions Concevoir et développer l’interface front-end de l’application web Participer au développement des fonctionnalités back-end Déployer l’application sur Azure en utilisant des processus CI/CD et mettre en place une authentification sécurisée via Azure AD / Entra ID Concevoir et implémenter la base de données applicative Collaborer avec l’équipe data engineering pour intégrer l’application aux flux de données existants Participer à la création et à la gestion des pipelines de données Rédiger une documentation technique claire, structurée et facilement maintenable Stack technique Frontend : React JS, Next JS Backend : Python, FastAPI, Flask Cloud : Azure (App Services, Functions, Logic Apps, Service Bus, Key Vault, API Management) DevOps & Infra : Azure DevOps (CI/CD), Git, Bicep, Terraform Base de données : SQL Server
Freelance
CDI

Offre d'emploi
DATA ENGINEER AZURE DATABRICKS

Publiée le
Azure
Databricks

3 ans
40k-45k €
450-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un data engineer Azure databtricks. Contexte Vous intervenez sur des plateformes Big Data à forte volumétrie , orientées Lakehouse, nécessitant des traitements distribués, performants et hautement scalables. Missions principales Concevoir et maintenir une architecture Lakehouse Databricks Développer des pipelines de données distribués avec Spark Mettre en place des tables fiables et gouvernées via Delta Lake Construire et maintenir des pipelines automatisés avec Delta Live Tables Exposer les données via SQL Warehouse pour les usages BI et analytiques Optimiser les performances, la qualité et la scalabilité des traitements Travailler en étroite collaboration avec les équipes Data Science et BI Stack technique Databricks : Lakehouse, Delta Lake, Delta Live Tables, SQL Warehouse Azure : ADLS Gen2, services d’intégration Azure Langages : Python, SQL, Spark DataOps / MLOps : CI/CD, orchestration, monitoring Architecture : Big Data distribué, streaming et batch Compétences requises Solide expertise Spark / Databricks Maîtrise des concepts Big Data et des environnements à forte volumétrie Très bonne connaissance de Python et SQL Capacité à concevoir des architectures complexes et robustes Profil recherché Formation en informatique / data 4+ ans d’expérience en Data Engineering Big Data Forte capacité d’analyse et de résolution de problèmes À l’aise dans des environnements complexes et exigeants
Freelance

Mission freelance
Data Engineer (H/F) - 75

Publiée le
Apache Airflow
Apache Spark
BigQuery

3 mois
Paris, France
Télétravail partiel
Contexte: Dans un environnement numérique à forte volumétrie de données, une direction technique transverse renforce sa plateforme Data afin de faire de la donnée un levier stratégique de pilotage, de connaissance utilisateur et d’aide à la décision. La mission s’inscrit au cœur d’une organisation Data structurée, en interaction étroite avec les équipes produit, techniques et métiers. L’objectif est de centraliser, fiabiliser et gouverner des données hétérogènes tout en garantissant leur conformité réglementaire, leur sécurité et leur exploitabilité à grande échelle. Le consultant interviendra au sein d’une équipe Data Engineering intégrée à la plateforme centrale, composée de profils complémentaires (Product Owner, Data Steward, Data Engineers). Missions: Le Data Engineer interviendra sur l’ensemble de la chaîne de valeur data, avec un fort enjeu de robustesse, scalabilité et gouvernance. Responsabilités principales : Collecter, centraliser et structurer des sources de données multiples et non homogènes Concevoir, développer et maintenir des pipelines data fiables et performants Organiser et optimiser le stockage des données (lakes, tables, catalogage) Mettre en place et maintenir des infrastructures cloud scalables Développer et maintenir les workflows CI/CD Garantir la sécurité, la conformité et l’évolutivité des environnements data Participer aux initiatives de gouvernance des données Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer activement à la documentation et aux bonnes pratiques Assurer une veille technologique continue
Freelance

Mission freelance
Ingénieur IA Générative & MLOps H/F

Publiée le
IA Générative
MLOps

110 jours
400-450 €
Toulouse, Occitanie
Télétravail 100%
Dans le cadre de l’accélération de nos initiatives IA en 2026, nous développons une capacité avancée autour de l’IA générative, de la gestion des modèles, de la contextualisation métier et de l’optimisation des opérations. Nous recherchons un expert IA Générative capable d’accompagner les équipes techniques, OPS, Data et Métier dans la conception, l’industrialisation et la sécurisation de nos solutions IA. Missions principales 1. Conception et déploiement de solutions IA Générative Concevoir, entraîner, ajuster et déployer des modèles IA générative (LLM, agents, RAG…). Définir et mettre en œuvre l’architecture IA sur les plateformes internes : Mistral , Ferme GPU , environnements containers. Concevoir des composants IA réutilisables : pipelines modèles, agents, microservices IA. 2. MLOps & industrialisation Mettre en place et optimiser les pipelines MLOps : entraînement, évaluation, CI/CD, monitoring, governance. Participer à l’automatisation et l’augmentation des rôles existants (UC concepteur, testeur, OPS augmentés). Garantir la qualité, la robustesse et la reproductibilité des modèles. 3. Analyse, transformation et contextualisation de données Exploiter et transformer la donnée existante pour optimiser la contextualisation LBP (RAG, embeddings, features). Superviser les phases de data cleansing, normalisation et structuration. Proposer des stratégies pour enrichir et exploiter les données métiers. 4. Optimisation, tuning et amélioration continue Analyser et corriger les résultats obtenus par les modèles. Réaliser du tuning , prompting avancé, réglage hyperparamétrique, distillation, pruning. Suivre en continu les performances et proposer des améliorations. 5. Sécurité, conformité, RSE & FinOps Appliquer les exigences de sécurité IA, privacy by design, gestion des risques. Optimiser les coûts GPU / calcul / stockage dans une logique FinOps . Contribuer à la démarche RSE IA responsable : transparence, biais, sobriété. Compétences recherchées: Techniques Très bonne maîtrise des modèles IA générative (LLM, diffusion, agents). Compétences solides en MLOps : CI/CD, monitoring, orchestration de pipelines. Maîtrise Python, frameworks IA (PyTorch, Transformers, LangChain, vLLM…). Connaissance des architectures GPU (Nvidia, CUDA, quantization…). Expérience avec des plateformes IA : Mistral, HuggingFace, Azure ML, Kubeflow… Bonne compréhension des enjeux sécurité, éthique, RSE, FinOps. Expertise en data engineering et data transformation. Méthodologiques & humaines Vision architecturale, approche solution et capacité à structurer. Travail en transversal : Dev, OPS, Data, Sécurité, Métiers. Pédagogie, vulgarisation, leadership technique. Sens de l’innovation, veille permanente, autonomie forte.
Freelance

Mission freelance
Lead Python Developer Gen AI - Banking Environment (Paris)(h/f)

Publiée le

12 mois
550-650 €
75008, Paris, Île-de-France
Télétravail partiel
Développeur Python senior / chef de projet - Environnement bancaire (Paris) Vous êtes un développeur Python senior expérimenté et possédez une expertise approfondie en ingénierie de données à haut volume ? emagine vous offre l'opportunité de participer à la conception et à la mise en œuvre de nouvelles applications bancaires à fort impact et de solutions basées sur l'IA dans un environnement technologique mondial. Basé à Paris, ce poste nécessite une présence sur site d'au moins 3 jours par semaine. Vous travaillerez dans un environnement complexe de niveau entreprise où de solides connaissances en ingénierie et une grande autonomie sont essentielles. Senior / Lead Python Developer - Banking Environment (Paris) Are you an experienced Senior Python Developer with deep expertise in high‑volume data engineering? emagine has an opportunity for you to support the design and delivery of new, high‑impact banking applications and AI‑driven solutions within a global technology environment. This role is based in Paris with minimum 3 days per week onsite , working in a complex, enterprise-grade environment where strong engineering fundamentals and autonomy are essential. Skills & Experience 10+ years of hands-on Python development with strong OOP and software design principles. Expert-level SQL skills (PostgreSQL, MySQL, or SQL Server), with proven experience in very high-volume transactional systems . Strong background in data engineering , pipelines, and large-scale data handling. Solid understanding of core engineering fundamentals — no gaps in basics. Strong Linux experience (bash scripting, automation, deployments). Experience with Autosys , GIT , and Agile / JIRA workflows. Experience using Ansible for configuration or deployment (highly desirable). Prior investment banking or financial services experience is essential Must be comfortable navigating complex, process-heavy environments. Able to work autonomously and lead small technical groups effectively. Fluent English communication skills. Key Tasks & Deliverables Design, develop, and optimise Python-based applications using clean, scalable, and maintainable code. Work with very large SQL databases (hundreds of millions of records), including schema design, complex queries, and performance tuning. Build and maintain data pipelines , ensuring efficient ingestion, transformation, and persistence of large datasets. Manage deployments and automation within Linux environments , including bash scripting and tooling. Implement job scheduling and workflow automation using Autosys . Contribute to branching strategies, code reviews, and version control using GIT . Support Agile delivery using JIRA for sprint planning and task tracking. Ensure rigorous engineering practices through TDD, BDD (Behave), and PyTest-based unit testing . Troubleshoot performance bottlenecks, data inconsistencies, and system issues across complex banking platforms. Lead and mentor junior developers, including guiding engineering best practices and architectural decisions. Contribute to AI‑related project components following completion of VAT‑related workstreams. Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Data Engineer Azure Synapse / Databricks / dbt

Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
CDI

Offre d'emploi
Data Engineer (4+ ans d'exp)

Publiée le
Google Cloud Platform (GCP)

40k-54k €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer confirmé.e ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle en tant que Data Engineer . Tu as de l'expérience professionnelle avec AWS ou GCP . Tu parles anglais à un niveau professionnel. Tu as déjà travaillé avec Airflow et Spark . Missions: Concevoir, développer et maintenir des pipelines de données robustes, scalables et sécurisés Collecter, transformer et intégrer des données issues de sources hétérogènes (APIs, bases SQL/NoSQL, fichiers, etc.) Mettre en place des architectures data (data lake, data warehouse, data mesh) adaptées aux besoins métiers Optimiser les performances des traitements et garantir la qualité, la traçabilité et la gouvernance des données Collaborer avec les Data Scientists, Analysts et Product Managers pour répondre aux cas d’usage data Industrialiser les modèles et les flux de données dans des environnements cloud ou on-premise Assurer la surveillance, le monitoring et le support des plateformes data Participer à la veille technologique et à l’amélioration continue des outils et pratiques data engineering Contrat: CDI, statut cadre. Démarrage: fin avril 2026. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance

Mission freelance
Data Architect Azure (h/f)

Publiée le

1 mois
500-580 €
13000, Marseille, Provence-Alpes-Côte d'Azur
Télétravail 100%
Résumé Vous rejoignez notre client pour concevoir, sécuriser et faire évoluer l’architecture Data sur Azure, en assurant l’intégration On-prem/Cloud, la gouvernance des données (Unity Catalog), l’optimisation des performances/coûts, et l’aide à la décision Cloud vs On-prem pour les usages data/ML. Responsabilités : A ce titre vous interviendrez en priorité sur l’Architecture Data pour : Concevoir l’architecture cloud pour le stockage, le processions, la consommation de données pour modélisation, l’entraînement et le déploiement de modèles ML et IA, l’exposition de données reporting, etc. Mettre en œuvre de l’architecture médaillon Optimiser les performances et les coûts cloud Travailler en étroite collaboration avec les équipes architectures du Groupe basées à l’étranger Faire monter en compétences l’équipe Data sur Azure En parallèle, vous interviendrez sur des activités de Data Engineering et d’IA pour : Industrialiser les flux entre NiFi (on-prem) et ADLS (gestion de la volumétrie et reprise sur incident, supervision, etc.) Développer des traitements sur DataBricks. Gérer des schémas et la qualité des données. Publier des tables et vues gouvernées via Unity Catalog Participer à la réflexion autour de la mise en place d’une plateforme d’IA générative. Key Requirements : 10 ans d’expérience minimum dans la mise en oeuvre d’une Architecture Data Cloud sur Azure Maîtrise d’Azure ADLS, Databricks, Python, SQL et Spark Nice to Have : Capacité à échanger en anglais à l’écrit et à l’oral Connaissances en IA et ML Connaissances d’Apache NiFi. D'autres détails : Localisation : Full remote avec des déplacements ponctuels à prévoir près de Marseille (13) Être titulaire du Permis B est impératif pour vos déplacements sur site Durée de la mission : 4 mois minimum, avec possibilité de prolongation. Démarrage souhaité ASAP
Freelance

Mission freelance
Data Engineer - LYON

Publiée le
Azure
Databricks
Python

1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Intitulé du poste : Data Engineer Localisation : Lyon Expérience souhaitée : 5 à 7 ans en Data Engineering, idéalement avec une expérience en analyse de données Rôle et responsabilités du consultant recherché : Data Engineer confirmé Garantir l’intégration des sources de données nécessaires à la continuité du reporting interne et externe Assurer la continuité et le développement des flux de données entre les sources et les rapports Contribuer au plan de convergence des méthodes de mesure de la performance via les KPI Contribuer à la cartographie des flux de données et des KPI utilisés dans les deux organisations, ainsi que de leurs méthodes de calcul Être l’interface avec le Data Office afin de garantir les meilleures pratiques de développement Ce rôle sera un point de dépendance unique (Single Point of Dependency) Compétences techniques requises SQL / Python Databricks Data Lake & DataMart Développement de cubes Environnement Microsoft Gestion de projets techniques Qlik Autres compétences attendues Anglais niveau B2 / C1 Compétences interpersonnelles Travail en équipe Parcours et expérience Expérience dans des projets complexes en environnement international Description de la mission Support de l’équipe Data locale dans le cadre de la migration d’une plateforme de téléphonie Livrables attendus Ingestion des données dans le Data Lake Développement du DataMart Automatisation des flux de données avec Pegasus Développement de cubes Environnement technique Microsoft, AVAYA, GENESYS
Freelance

Mission freelance
Data Architect GCP

Publiée le
Apache
Apache Airflow
Apache Spark

12 mois
540-600 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP , basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg , avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles. Missions principalesArchitecture & Data Platform Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition) Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles Contribuer à l’ internalisation de la plateforme data (design, outillage, bonnes pratiques) Data Engineering Développer des pipelines d’ingestion pour : Données capteurs issues de drones Données tabulaires associées Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément) Garantir la disponibilité rapide des données après les vols d’essai Mettre en place des contrôles de qualité, traçabilité et gouvernance des données Data & Analytics Préparer les données pour des cas d’usage de maintenance prédictive Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning) Collaborer avec les équipes data science / métier Sécurité & conformité Travailler dans un contexte habilitable (données sensibles, clients spécifiques) Appliquer les contraintes de sécurité et de cloisonnement des données
Freelance
CDI

Offre d'emploi
Administrateur(trice) Dataiku DSS - LUXEMBOURG

Publiée le
Dataiku
Python
Scripting

6 mois
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Proposition de l'architecture a mettre en place Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

50k-60k €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons notre futur.e Data Engineer confirmé.e sur Clermont Ferrand ! Allez, on vous en dit plus... En lien avec notre manager Sébastien, voici les missions qui vous seront confiées : - Récupérer et mettre à disposition des bases de données internes et externes. - Construire de nouvelles bases : - En nettoyant les données (identifier les données aberrantes et les supprimer) - En formatant les données (unités...) - En synchronisant les données (qui ne sont pas synchrones, ni à la même fréquence) - en calculant à partir des données brutes des quantités agrégées (pour l'usage, typiquement pente, courbure...) validant la cohérence des données brutes entre elles - En calculant des données complémentaires (construire des \"engineering features\") Vous serez également présent.e aux réunions projet pour assurer la coordination avec l'équipeEt si on parlait de vous ? De formation informatique avec une spécialité data ou équivalent, vous témoignez de minimum 3 ans en Data Engineering. Compétences techniques attendues : - Maîtrise de Databricks / Snowflake/ Snowpark - Python (PySpark, Pandas, SQL). - Expérience avec Dataiku et industrialisation de pipelines de données. - SQL, requêtage avancé. - Automatisation et industrialisation de process data. - Capacité à travailler en autonomie et à structurer un flux collaboratif. - Capacité à capitaliser et documenter son travail. Connaissances souhaitables : - Capteurs, sens physique - Dynamique véhicule - Dataiku - Requêtage base de données (SQL) - Gitlab Qualités : esprit d'équipe, autonomie, esprit de synthèse, force de proposition, hauteur de vue, capacité à délivrer. Notre processus de recrutement en 4 étapes ! Tout simplement - Dans un premier temps, vous échangerez avec l'un d'entre nous par téléphone - Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien physique ou TEAMS - Pour finir, discutez métiers avec l'un de nos managers opérationnels - Bienvenue chez nous ! Pourquoi nous rejoindre : - Paniers repas 6,30EUR net / jour travaillé - Prime de participation - Prime de vacances - Prime d'ancienneté - Comité d'entreprise - Mutuelle familiale prise en charge à 60

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Voir tous les derniers posts
63 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous