L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 203 résultats.
Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles
PROPULSE IT
Publiée le
BI
24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Offre d'emploi
Consultant Privacy & protection des données - Environnement IT - TOULOUSE
Ewolve
Publiée le
Data privacy
DORA
IA
2 ans
40k-45k €
400-500 €
Toulouse, Occitanie
Au sein d’un acteur majeur du secteur bancaire, vous intervenez dans un environnement SI complexe, multi-plateformes et à forts enjeux réglementaires. Intégré(e) à une équipe Privacy en lien étroit avec les équipes IT, Sécurité et Métiers, vous accompagnez les projets digitaux, data et IA sur l’ensemble du périmètre Banque & Assurance. Poste basé à Toulouse, 50% de télétravail. Vos missions - Privacy by Design & Accompagnement projets IT Intervenir dès les phases de cadrage projet pour identifier les traitements de données personnelles Analyser les flux de données et architectures applicatives Identifier les données à caractère personnel et qualifier les risques associés Définir et formaliser les exigences RGPD en lien avec les architectes, RSSI et équipes sécurité Participer à la recette des exigences (durées de conservation, habilitations, traçabilité, purges…) Documenter les livrables RGPD selon les standards internes et référentiels CNIL - Analyses d’impact & gestion des risques Rédiger et piloter les AIPD / PIA en coordination avec les Métiers, DPO et filières juridiques Évaluer les risques en matière de protection des données Proposer des plans de remédiation opérationnels Assurer le support en cas de violations de données et demandes d’autorités - Projets Data & Intelligence Artificielle Accompagner les projets intégrant des solutions d’IA (chatbots, scoring, outils d’aide à la décision…) Contribuer à l’analyse des risques au regard du RGPD et du futur cadre IA (IA Act) Participer à la qualification des systèmes à risque Contribuer à la mise en place de dispositifs de transparence et de gouvernance des modèles - Cookies & outils digitaux Analyser les dispositifs de traceurs (tags, scripts tiers, outils de consentement) Vérifier la conformité des implémentations techniques Accompagner les équipes digitales dans le paramétrage et la gouvernance des outils - Veille & sensibilisation Assurer une veille active sur les évolutions réglementaires (RGPD, IA Act, DORA, eIDAS v2…) Contribuer à la diffusion des bonnes pratiques en matière de protection des données Participer à la montée en compétence des équipes projets et métiers
Offre d'emploi
Data Engineer Snowflake Sénior (H/F)
Panda Services
Publiée le
Apache Airflow
Azure
CI/CD
6 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique, présente sur le marché depuis plus de 20 ans, réalisant pour ses clients des prestations de haut niveau en assistance technique. Nous sommes à la recherche d’ un(e) Data Engineer Snowflake Sénior, pour l'un de ses clients basé à Paris. Localisation : Paris Contexte de la mission Dans le cadre du renforcement de notre équipe data, nous recherchons un Data Engineer expérimenté pour intervenir sur la conception et l’optimisation de pipelines de données au sein d’une architecture moderne orientée cloud. 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables Modéliser et structurer les données dans Snowflake Assurer l’intégration et la transformation des données via Dataiku Optimiser les performances et les coûts des traitements de données Mettre en place des bonnes pratiques de qualité, gouvernance et sécurité des données Collaborer avec les équipes Data Science, BI et métiers Participer à l’industrialisation des workflows data 🛠️ Compétences techniques requises Excellente maîtrise de Snowflake (data warehouse cloud) Expérience confirmée sur Dataiku (DSS) Bonne maîtrise de SQL et des concepts de modélisation de données Expérience avec des outils ETL / ELT Connaissance des environnements cloud (AWS, Azure ou GCP) Maîtrise de Python appréciée Expérience en CI/CD et data pipelines (Airflow, dbt est un plus) 👤 Profil recherché Minimum 7 ans d’expérience en Data Engineering Forte capacité d’analyse et de résolution de problèmes Autonomie et proactivité Bon relationnel et capacité à travailler en équipe Expérience en environnement agile
Offre d'emploi
Ingénieure ou ingénieur en Data science - ALTERNANCE
█ █ █ █ █ █ █
Publiée le
Python
SQL
Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer confirmé (H/F) - 92
Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks
3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Mission freelance
CDP Infrastructure (NF)
SKILL EXPERT
Publiée le
Master Data Management (MDM)
1 an
400 €
Paris, France
Descriptif de la mission : En tant que cheffe de projet IT, piloter plusieurs projets techniques et applicatifs, depuis la phase d’étude jusqu’au déploiement en production, dans un contexte ministériel complexe et multisite. La mission couvre la gestion complète du cycle de vie projet, l’animation des parties prenantes, et le pilotage des équipes techniques internes et externes Contexte et expression de besoin client : - Gestion de projet des postes iMac OS de la DICOM avec l'infrastructure MLDM , gestion des patch de sécurité et de l'antivirus des poste iMAC OS. - Gestion de la migration de l'outil de chiffrement Cryhod vers Bitlocker - Mise en place de l'outil de sécurisation des poste de travail WDAC sur les postes Windows 11 - Mise en place des mot de passe BIOS sur tous les postes du ministère de la justice - Compte rendu d'activité Hebdo et recap mensuel
Mission freelance
Data Engineer expérimenté (H/F) - Nantes
CAT-AMANIA
Publiée le
Ansible
Data Engineering
Data Warehouse
1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data stratégique, nous recherchons un Data Engineer expérimenté pour intervenir sur des projets à forte valeur ajoutée autour d’un socle data en constante évolution. Vous intégrerez une équipe agile composée d’experts data, d’un Scrum Master et d’un Product Owner, dans un environnement collaboratif axé sur l’innovation et l’excellence technique. La mission s’inscrit dans une dynamique combinant : Build : conception et développement de solutions data Run : maintien en conditions opérationnelles et optimisation continue Migration : accompagnement des évolutions techniques (notamment ETL → ELT) Modernisation : transformation vers des architectures data modernes Vos missions principales : Développer des traitements ELT (principalement xDI) pour alimenter un Datawarehouse Maintenir et faire évoluer les templates techniques Participer à la roadmap de migration (ETL vers ELT) Accompagner les équipes utilisatrices des solutions data Documenter les solutions mises en place Garantir la performance et la stabilité des traitements en production Identifier et proposer des optimisations dans une logique d’amélioration continue Partager vos connaissances et contribuer à la montée en compétence de l’équipe
Mission freelance
Développeur Backend Data – Elasticsearch
Codezys
Publiée le
Elasticsearch
ELK
Grafana
6 mois
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, dont certaines en phase de BUILD et d'autres en phase de RUN . Dans ce cadre, nous recherchons un profil expérimenté pour assurer la responsabilité technique d’un projet existant. Ce projet, récemment mis en production, vise à fournir des indicateurs via une interface Grafana, permettant un suivi précis des modules de télérelève et de radio-relève. Il comprend notamment une couche d'ingestion qui permet d'enregistrer les données dans une base ElasticSearch, avec un format adapté. L'ingestion est pilotée par du code Java. Les indicateurs ainsi produits permettent au métier de suivre environ 1 million de modules clients, avec des index quotidiens sur une période de 3 ans. La mission principale consiste à : Maintenir l’existant en assurant la stabilité et la performance du système Analyser et résoudre les incidents ainsi que répondre aux questions remontées par le métier, en expliquant et en corrigeant les résultats affichés Ajouter de nouveaux objets en fonction des besoins métiers Le projet "Supervision Télérelève" s’appuie sur un socle technique composé de Java, ELK (ElasticSearch, Logstash, Kibana) et Grafana, visant à fournir une solution de reporting performante pour les experts et les collectivités. Bien que le socle technique soit en place, il nécessite un maintien ainsi que le développement de nouveaux objets. Une collaboration avec d’autres équipes sera nécessaire pour travailler sur des questions d’authentification, en intégrant la solution dans d’autres projets. Par ailleurs, une migration vers Databricks peut être envisagée à moyen terme, ce qui impliquera une adaptation technique future. Le candidat retenu occupera un rôle de TechLead / Développeur : il devra analyser l’existant, assurer le débogage, suivre le backlog, et échanger avec le métier, le Product Owner (PO) et, éventuellement, avec les architectes. En tant que seul acteur technique sur ce projet, il doit faire preuve d'une grande autonomie et d’une capacité à gérer l’ensemble des sujets techniques. Profil recherché : Expérience confirmée en gestion de projets techniques similaires Maîtrise de Java, ELK Stack et Grafana Capacité à analyser, diagnostiquer et corriger les incidents Autonomie et initiative dans la gestion de projet Bonnes qualités de communication pour échanger avec différentes équipes techniques et métiers
Offre d'emploi
Chef de projet MOE DATA (Tableau)
Freelance.com
Publiée le
Python
Tableau Desktop
Tableau software
1 an
40k-70k €
400-550 €
Paris, France
Client : Public Postes : Chef de projet Data (Tableau) Expérience : 8 ans minimum Localisation : Paris Démarrage : Sous 2 semaines Durée : 6 mois renouvelable Missions principales En tant que Chef de Projet TMA DATA , vous serez responsable du : Pilotage opérationnel Coordonner la TMA avec la MOA, les équipes de développement, DevSecOps et les services DTNUM Garantir le bon fonctionnement des deux applications Prioriser et suivre les demandes de maintenance corrective et évolutive Assurer le suivi des performances et proposer des actions d’amélioration Pilotage projet Préparer et animer les comités projet Assurer un reporting régulier auprès de la hiérarchie et du métier Suivre les budgets et engagements financiers Garantir la qualité documentaire et la conformité des livrables Qualité & conformité Superviser les tests, audits, homologations et contrôles réglementaires Veiller au respect des normes RGPD, RGGA et exigences de sécurité Compétences requises : Techniques Maîtrise des architectures applicatives backend / frontend Très bonnes connaissances PostgreSQL et requêtage SQL Maîtrise du progiciel Tableau Maîtrise de GitLab et des outils de gestion de configuration Connaissance des environnements Java / React / Python (lecture, compréhension) Projet Maîtrise des méthodologies Agile et Cycle en V Maîtrise de Jira , Git, gestion d’arborescence projet, documentation Animation de comités projet, pilotage, reporting hiérarchique et métier Suivi budgétaire et financier Pilotage d’équipes de développement Qualité & Conformité Connaissance des tests et audits nécessaires à la mise en service : Métrologie Audit de sécurité RGGA Homologation SSI RGPD Profil recherché Expérience confirmée en chefferie de projet TMA Connaissance solide des environnements Data , Reporting , API , Tableau, Python, Vertica Capacité à travailler en environnement multi‑acteurs (MOA, MOE, DevSecOps, architectes) Excellentes compétences de communication, coordination et pilotage Rigueur, autonomie, sens du service et capacité d’analyse
Offre d'emploi
Data Engineer Cloud H/F
FED SAS
Publiée le
55k-65k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Mission freelance
Développeur/ Chef de Projet Data (h/f)
emagine Consulting SARL
Publiée le
Microsoft Power BI
3 ans
400-550 €
Île-de-France, France
À partir d’une liste prédéfinie d’environ 1 200 rapports Business Objects existants, l’objectif est de challenger les métiers propriétaires afin de : 1. Décommissionner et arrêter un maximum de rapports BO non utilisés ou obsolètes. 2. Orienter les métiers vers des rapports Power BI existants lorsque ceux-ci répondent déjà au besoin couvert par les rapports BO. 3. En dernier recours, lorsque les deux points précédents ne sont pas applicables, migrer le nombre limité de rapports BO restants vers de nouveaux rapports Power BI. L’objectif principal est donc de réduire significativement le parc de rapports BO, de favoriser l’usage des rapports Power BI existants, et uniquement lorsque le besoin métier est avéré, de développer de nouveaux rapports Power BI en remplacement des rapports BO concernés. EXPERIENCE PROFESSIONNELLE REQUISE • Expérience de 7 ans minimum en tant que data analyste • Experience de 5 ans minimum en tant que chef de projet data COMPETENCES REQUISES • Connaissance Business Object • Connaissance Power BI • Connaissance SSIS • Connaissance de la méthode agile Compétence – Nice to have ▪ Connaissance du monde de l’assurance/Assistance
Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)
Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Offre d'emploi
Product Owner Data H/F
JEMS
Publiée le
48k-60k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : k170vt48pi
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Mission freelance
Data Product Manager (Business Analyst / Solution Architect)
emagine Consulting SARL
Publiée le
Business Intelligence
Master Data Management (MDM)
3 ans
Île-de-France, France
Objectifs et livrables Organiser les études en impliquant l’ensemble des parties prenantes identifiées et recueillir les besoins Comprendre les enjeux, objectifs et ambitions métiers Animer et conduire des ateliers avec les équipes métiers Collecter l’ensemble des inputs nécessaires aux études Documenter l’architecture fonctionnelle et formuler des recommandations Planifier les lots de travaux en s’appuyant sur les standards de la direction Data & Analytics Coordonner les contributeurs Data-as-a-Service (architectes techniques, data engineers, BI engineers) Documenter la valeur métier et la valeur apportée par la solution Préparer les budgets et le planning build/run Formaliser les propositions finales de type « Go to project »
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3203 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois