Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 114 résultats.
Offre d'emploi
Architect Data & IA ( Python, IA, API, Cloud...) - Secteur Assurance
OBJECTWARE
Publiée le
Agent IA
Cloud
Python
3 ans
40k-75k €
330-640 €
Nanterre, Île-de-France
🧩 Les responsabilités clés (traduction métier) Ce que fera concrètement le consultant : Concevoir une architecture de plateforme IA (TAS Pricing) Définir : APIs Data flows sécurité infra cloud Connecter : modèles IA (Python / Domino Datalab) data platform (CTDF) front/back (Java / Angular) Mettre en place : CI/CD environnements monitoring 👉 + rôle de référent technique / leader de squad Architecture : microservices, API-first Cloud : AWS / Azure / GCP (ou cloud interne BNP) Data : pipelines, ingestion, modelling IA : intégration de modèles (pas forcément data scientist pur) Tech : Python (IA) Java / Angular (exposition des services) DevOps : CI/CD, infra, monitoring Sécurité : IAM, chiffrement, architecture sécurisée GREAT PLACE TO WORK depuis 2019 et BEST WORKPLACE FRANCE 2023-2024 & 2025 Depuis 24 ans, le Groupe Objectware développe ses expertises et practices pour accompagner ses clients dans l’optimisation de leurs performances et leurs enjeux de transformation. Notre expertise en Management de projets, Développement applicatif, Infrastructure, Opération et Sécurité nous permet d’avoir une couverture totale sur le cycle de vie des projets de nos clients.
Mission freelance
Data Platform Engineer (H/F)
PREREQUIS
Publiée le
AWS Cloud
CI/CD
DBT
3 mois
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour un de nos clients un Data Platform Engineer sous la responsabilité d’un Teachlead, vous êtes responsable de la conception, de la mise à disposition et de l’évolution des services de plateforme Data & AI. Missions : AWS & Cloud Platform Engineering (enjeu clé) • Concevoir et opérer des architectures cloud-native et serverless sur AWS • Être garant des standards AWS : sécurité, réseau, identité, observabilité, résilience • Définir des patterns d’architecture réutilisables pour les usages data et ML • Automatiser la mise à disposition des ressources via Infrastructure as Code avec du Terraform Data Platform & Snowflake • Travailler au cœur d’une plateforme centrée sur Snowflake • Être capable de monter rapidement en expertise Snowflake (architecture, sécurité, performance, coûts) • Collaborer étroitement avec les équipes Data Engineering pour supporter les usages dbt / Airflow • Contribuer à l’industrialisation des workloads analytics, ML et GenAI Construction d’offres & services de plateforme • Concevoir et formaliser des offres de services Data Platform autour de l’ingestion de données et de déploiement de job de transformation, model ML, … • Définir le cadre d’usage : standards, responsabilités, SLA, bonnes pratiques • Structurer une approche “productisée” de la plateforme DevOps, CI/CD & Automatisation • Concevoir et maintenir des pipelines CI/CD GitLab • Automatiser les déploiements, configurations et contrôles • Promouvoir les pratiques DevOps / DataOps auprès des équipes consommatrices • Contribuer à la fiabilité opérationnelle (monitoring, alerting, runbooks) Enablement, pédagogie & évangélisation • Accompagner les Data Engineers, Data Scientists et ML Engineers dans l’adoption de la plateforme • Jouer un rôle de référent technique et pédagogue • Produire de la documentation claire et actionnable • Animer des sessions de partage, d’architecture et de bonnes pratiques • Évangéliser les standards cloud, data et sécurité FinOps & performance • Intégrer les enjeux FinOps dans la conception des services • Optimiser l’usage des ressources AWS et Snowflake • Aider les équipes à consommer la plateforme de manière responsable et efficace
Mission freelance
Data ingénieur / Software ingénieur
SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark
1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Offre d'emploi
Data Architecte - LLMOPS
VISIAN
Publiée le
Kubernetes
Large Language Model (LLM)
Machine Learning
1 an
40k-45k €
400-700 €
Paris, France
Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow
Mission freelance
Senior Finance IT Business Analyst & SAS Developer
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
**Senior Finance IT Business Analyst & SAS Developer (SAS Finance Core - Asset Management)** 📍 Paris ou Bruxelles ou Luxembourg | 🏢 Hybride (le profil peut être basé sur une des ces 3 villes, le client ayant des sites sur place) ⏳ Mission longue (6 à 10 mois renouvelables) Nous recherchons un profil senior hybride Finance / IT pour intervenir sur des outils Finance cœur de l'organisation , dans un environnement Asset Management exigeant. 🎯 Contexte La mission s'inscrit dans un double cadre : Support Business As Usual (BAU) des équipes Finance Contribution à des projets structurants Finance (Target Operating Model, évolutions d'outils) Les systèmes Finance sont basés sur SAS Financial Management et SAS Cost & Profitability Management , utilisés pour les clôtures, calculs de coûts, rentabilité et reporting Finance . ⚠️ Clarification essentielle - merci de lire avant de postuler Dans cette mission, SAS est un système Finance cœur . Ce poste ne concerne PAS la Data Science, la BI, le reporting visuel (Power BI, Tableau, etc.) ni le développement SAS générique. Il ne s'agit pas non plus d'un rôle de Business Analyst purement fonctionnel. 🧩 Responsabilités Support opérationnel des équipes Finance sur les environnements SAS Finance Analyse des processus Finance / Comptabilité et recommandations d'optimisation Recueil des besoins métiers et rédaction de spécifications fonctionnelles et techniques Participation aux phases de design, tests, déploiement et conduite du changement Rôle de point de contact Finance IT au quotidien ✅ Profil recherché Expérience confirmée en Finance / Comptabilité dans l' Asset Management Maîtrise des processus : GL, AP/AR, clôtures, reporting, budget & forecast, coûts, procurement Solide expérience SAS Finance (macros, templates, outils FM / CPM) Expérience sur des projets IT Finance (ERP, comptabilité, reporting Finance) Compréhension des cycles projets ( Agile , Azure DevOps apprécié) Forte autonomie, séniorité, capacité à challenger le métier et l'IT 🌍 Langues Français et Anglais professionnels 🎯 Les profils Data Analyst, BI, Data Scientist ou BA non techniques ne correspondent pas à cette mission.
Mission freelance
Développeur Python/Django
Root-MENU
Publiée le
Python
6 mois
550-800 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un développeur Python/Django pour contribuer à des projets orientés data et automatisation. Vous participerez à la conception et au développement d’outils dédiés au traitement et à l’exploitation des données, ainsi qu’à leur intégration dans des applications web robustes. Vous serez également impliqué dans l’optimisation et l’automatisation des processus métier. Les tâches et les livrables : ➥ Développement d’outils de traitement de données (collecte, nettoyage, structuration) en Python ➥ Intégration de modules d’analyse et d’IA dans une plateforme Django ➥ Automatisation des processus métier à l’aide de scripts, pipelines et outils internes ➥ Création d’interfaces web pour le reporting et la visualisation des données ➥ Collaboration avec les Data Scientists pour déployer les modèles en production ➥ Documentation technique et suivi de la qualité du code
Mission freelance
Ingénieur DevOps & Cloud
ematiss
Publiée le
Kubernetes
6 mois
400-550 €
Île-de-France, France
Profil recherché : Maîtrise avancée de Kubernetes (architecture, administration de clusters) Connaissance de la gestion des secrets (Vault) Solides compétences réseau :reverse proxy (Traefik) authentification (Keycloak, JWT, OIDC) Très bonne compréhension de GitLab et des pipelines CI/CD Connaissance de l’approche GitOps (ArgoCD) Compétences en observabilité dans un environnement Kubernetes : Prometheus, AlertManager, Grafana Connaissances appréciées en bases de données relationnelles (PostgreSQL) Maîtrise des environnements GNU/Linux Capacité à intervenir sur : l’évolution de frameworks data science (Python) la maintenance/optimisation des pipelines CI/CD l’amélioration du logging, monitoring et traçabilité la mise en production d’outils et solutions IA Force de proposition, curiosité technologique et participation active aux POCs Rigueur, autonomie, sens du partage et qualité documentaire Anglais obligatoire Missions : Dans le cadre de cette mission, vous interviendrez au sein d’une direction Data qui accompagne les métiers et les entités internationales dans leurs projets de data science, depuis la définition des use cases jusqu’à la mise en production des modèles. L’environnement est dynamique, international, avec un esprit « start-up » intégré à un grand groupe, regroupant des data scientists (computer vision, NLP, scoring), des ML engineers et une équipe dédiée aux projets IA. Vous contribuerez à la conception, l’évolution et la haute disponibilité d’une plateforme de data science complète, comprenant : un environnement d’exploration et de développement Python développé en interne, un framework d’industrialisation des modèles, une plateforme d’exécution des modèles, un outil de community management dédié. Votre rôle consistera à assurer l’administration, l’exploitation et l’automatisation des clusters, à optimiser les images Docker et à gérer l’exécution de plusieurs centaines de containers en production. Vous porterez également la vision technique de la plateforme, piloterez les choix d’architecture, assurerez une veille technologique continue et rédigerez la documentation technique. Vous participerez à la maintenance et à l’évolution des frameworks data science, des pipelines CI/CD, de l’observabilité des plateformes, ainsi qu’à la mise en production des solutions IA. Vous serez force de proposition et interviendrez sur des POCs. Stack technique : Infrastructure / DevOps : GitLab CI/CD, GitOps (ArgoCD), cloud privé Containers : Docker, Kubernetes Langages : Python, Golang, Bash Observabilité : Prometheus, Thanos, AlertManager, Grafana Sécurité : Vault Outils DevOps : Buildkit, Artifactory, Helm, Kustomize, CUE/Timoni Services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS Systèmes : GNU/Linux Prérequis : • 7 ans d’expériences • Anglais courant (contexte international) • Kubernetes, Docker, CI/CD • ML/OPS développement IA sur Python • Certifications un + • Scripting bash from scratch
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
SMILE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
AI Engineer - Azure
Groupe Aptenia
Publiée le
Azure
MLOps
Python
1 an
450-500 €
Grenoble, Auvergne-Rhône-Alpes
Nous sommes à la recherche d'un AI Engineer qui interviendra chez l'un de nos clients pour développer et industrialiser des modèles d’optimisation énergétique pour anticiper les besoins des bâtiments en fonction de la météo, des coûts et de l’origine de l’énergie. La phase exploratoire a déjà été réalisée, le Focus se fera sur le backend Python et l’industrialisation des modèles existants. 🎯 Vos missions clés ✅ Développer des solutions backend (Python, Azure) pour l’optimisation énergétique. ✅ Industrialiser des modèles de forecasting déjà existants. ✅ Collaborer avec une équipe de 6-7 Data Scientists.
Offre d'emploi
ML Ingénieur - Google Cloud
VISIAN
Publiée le
CI/CD
MLOps
Île-de-France, France
Contexte Afin d’améliorer la personnalisation de l’expérience utilisateurs, une équipe dédiée est créée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. La stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capables de répondre aux besoins et au volume de données
Mission freelance
Data Engineer
Root-MENU
Publiée le
Python
SQL
6 mois
500-800 €
Paris, France
En tant que Data Engineer, vous interviendrez sur la conception, la mise en place et l’évolution des pipelines de données, avec un enjeu fort autour de la fiabilité et de la performance des traitements. Au sein de l’équipe data, vos missions seront les suivantes : ⋆ Concevoir et maintenir des pipelines de données (ETL/ELT) ⋆ Assurer la collecte, le nettoyage et la transformation des données ⋆ Optimiser les performances des flux et des bases de données ⋆ Garantir la qualité et la disponibilité des données ⋆ Collaborer avec les équipes data (analystes, data scientists) pour répondre aux besoins métiers ⋆ Participer aux choix techniques liés à l’architecture data
Offre d'emploi
PRODUCT OWNER IA AGENTIC R&D
SMILE
Publiée le
Méthode Agile
1 an
Paris, France
Contexte : Dans le cadre de nos travaux IA et de notre roadmap, nous lançons plusieurs pilotes autour de l’ IA Agentic en phase d’expérimentation. Nous recherchons un Product Owner pour nous accompagner dans cette démarche de test et R&D , avec un fort rôle d’interface entre les besoins métier et la mise en œuvre technique. Missions : Le PO sera intégré aux équipes IA Client, Conseiller CRC/Opérations et pilotera la démarche avec l’ensemble des équipes : Métier, IT, Data Scientists , ainsi qu’avec des partenaires éditeurs. Ses missions incluront : Interaction forte avec le Top Management : restitution claire et synthétique des avancées, mise en avant de la valeur business générée. Orientation Business : traduire les besoins métier en cas d’usage IA Agentic concrets et mesurables, démontrer la valeur ajoutée attendue et définir comment l’IA Agentic sera déployée. Compréhension de l’Asset et de la techno : maîtrise des concepts IA Agentic pour dialoguer avec les équipes techniques, tout en s’appuyant sur le PO Asset pour la mise en œuvre technique détaillée. Travail avec des éditeurs : cadrer, suivre et évaluer les contributions des partenaires dans le cadre des pilotes IA Agentic. Analyse de la réalité opérationnelle et de la performance : mettre en place des indicateurs de suivi (KPI), analyser les résultats, proposer des ajustements. Pilotage complet : gestion du projet de bout en bout, de l’idéation à l’évaluation des pilotes, avec une autonomie totale.
Offre d'emploi
Product Owner Data
SMARTPOINT
Publiée le
Agile Scrum
6 mois
50k-55k €
400-450 €
Île-de-France, France
En tant que Product Owner Data, vous serez responsable de : Recueillir et analyser les besoins métiers en lien avec les équipes métiers et techniques Définir et prioriser le backlog produit en fonction de la valeur business Rédiger les user stories et spécifications fonctionnelles Piloter les développements en collaboration avec les équipes Data (Data Engineers, Data Analysts, Data Scientists) Garantir la qualité des livrables et leur adéquation avec les besoins utilisateurs Suivre les indicateurs de performance et proposer des axes d’amélioration Animer les rituels Agile (daily, sprint planning, review, rétrospective)
Offre d'emploi
Data Governance Manager – Stewardship & Adoption sur Bordeaux
EterniTech
Publiée le
Data governance
Data management
Microsoft Power BI
3 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes client un Data Governance Manager – Stewardship & Adoption sur Bordeaux Expérience : mini 5 ans en Data Gouvernance Localisation : Bordeaux Démarrage asap pour 5 mois contexte de la mission et l’équipe Chez mon client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents • capacité à structurer et animer une communauté de Data Stewards • capacité à embarquer des parties prenantes variées et à conduire le changement • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation • approche pragmatique et orientée adoption / impact Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Mission freelance
Senior Python Engineers orientés Data & Distributed Systems
Comet
Publiée le
AWS Cloud
Numpy
Pandas
6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
114 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois