Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 420 résultats.
Offre d'emploi
Data Quality Analyst h/f
Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)
6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
Offre d'emploi
Développeur Data industrelle/MES H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Dans le cadre de la transformation digitale de ses activités industrielles, notre client, acteur majeur du secteur pharmaceutique, renforce ses équipes en charge des systèmes de gestion de production (MES) et de la valorisation des données industrielles. La mission s'inscrit au sein d'un environnement de production exigeant, avec des enjeux forts autour de la traçabilité, de la performance industrielle et de l'exploitation de données en temps réel. Le consultant interviendra en lien avec les équipes IT, les équipes métiers (production, qualité) ainsi que les systèmes industriels.L'environnement technique repose notamment sur un historian industriel (AspenTech IP.21) permettant de collecter, historiser et exploiter les données issues des équipements de production. Des développements spécifiques sont nécessaires afin de répondre aux besoins métiers en matière de reporting, d'analyse et d'intégration avec les systèmes existants. Responsabilités : Intervenir sur des activités de développement et de gestion des données industrielles, avec un rôle clé dans leur exploitation et leur valorisation Etre en charge de la conception et du développement de requêtes et scripts permettant d'extraire, transformer et structurer les données issues du système IP.21 Contribuer à l'optimisation des performances des traitements et à la fiabilisation des flux de données Participer à la compréhension des besoins fonctionnels et à leur traduction en solutions techniques adaptées Intervenir sur des sujets d'intégration avec d'autres systèmes (MES etc.).
Offre d'emploi
Data Engineering Java / Scala Expérimenté
Espritek
Publiée le
DBT
Java
MySQL
3 ans
Paris, France
Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de concevoir, développer et maintenir des solutions de traitement de données à grande échelle, en utilisant des technologies telles que BigQuery, BigTable, Apache Kafka et Apache Spark. Mais aussi contribuer à des projets Data en apportant son expertise sur les tâches suivantes : montée en compétence sur l'ETL BigL, participation à la réalisation de projets métier dans le cadre de la solution offline ELT in-House Big Loader et BDI/DBT,[Saut de retour à la ligne]Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et de production afin de garantir la qualité et la performance des solutions mises en place.[Saut de retour à la ligne] Livrables : Accompagner techniquement les autres membres de l'équipe (juniors) Active participation aux choix d'architecture technique Livrer les composants
Mission freelance
Data Governance Manager
Codezys
Publiée le
Conduite du changement
Data governance
Data management
6 mois
330-400 €
Bordeaux, Nouvelle-Aquitaine
Objectifs de la prestation Dans le cadre de la consolidation de sa gouvernance data, l'entreprise souhaite renforcer et structurer ses pratiques en s'appuyant sur un environnement technologique avancé, comprenant les plateformes Snowflake, Power BI et Datahub. Pour cela, l'équipe Data Management, composée de 4 professionnels, recherche un expert transverse afin de piloter la structuration, le déploiement et l'animation de la gouvernance opérationnelle. Mandat confié Déploiement du modèle de Data Stewardship Clarifier les rôles, périmètres et rituels entre Data Owners, Data Stewards et équipes techniques. Créer des kits d'onboarding, des standards et des supports pour accompagner les Data Stewards dans leur mission. Lancer et animer la communauté de Data Stewards afin de promouvoir une gouvernance partagée et efficace. Adoption & Data Catalog Renforcer l'adoption du Data Catalog (Datahub) et promouvoir les bonnes pratiques de gouvernance associées. Accélérer la documentation des assets data prioritaires pour assurer une meilleure compréhension et exploitation des données. Étendre la couverture du catalogue aux traitements d'intelligence artificielle (IA), intégrant ainsi la gouvernance dès la conception. Animation & transverse Organiser des ateliers avec les utilisateurs pour favoriser l'appropriation des outils et des méthodes de gouvernance. Faire émerger les irritants et structurer un backlog transverse pour répondre aux enjeux opérationnels. Intégrer la gouvernance lors des phases de cadrage des projets, en adoptant une approche 'governance by design'. Réactiver les communautés existantes, notamment les référents Power BI, afin de maintenir une dynamique de partage et de collaboration. Profil recherché Le candidat idéal devra posséder une expertise transverse en gouvernance data, avec une capacité à intervenir à la fois au niveau stratégique et opérationnel. Il devra démontrer des compétences en animation de communautés, en structuration de processus et en animation d'ateliers, tout en étant capable de travailler en étroite collaboration avec les équipes techniques et métier. Les propositions devront détailler la méthodologie proposée pour atteindre ces objectifs, ainsi que la démonstration de capacités similaires dans des environnements complexes et structurés.
Offre d'emploi
Data Engineering Java / Scala Expérimenté
Espritek
Publiée le
Scala
3 ans
10k-12k €
100-160 €
France
Intégré(e) dans les équipes Plateforme Data le/la consultant(e) aura pour mission de concevoir, développer et maintenir des solutions de traitement de données à grande échelle, en utilisant des technologies telles que BigQuery, BigTable, Apache Kafka et Apache Spark. Mais aussi contribuer à des projets Data en apportant son expertise sur les tâches suivantes : montée en compétence sur l'ETL BigL, participation à la réalisation de projets métier dans le cadre de la solution offline ELT in-House Big Loader et BDI/DBT, Le/la consultant(e) travaillera en étroite collaboration avec les équipes de développement et de production afin de garantir la qualité et la performance des solutions mises en place. Livrables : ● Accompagner techniquement les autres membres de l'équipe (juniors) ● Active participation aux choix d'architecture technique Livrer les composants
Offre d'emploi
Candidature spontanée - Freelance Data Engineer – Cloud & Data Platform
█ █ █ █ █ █ █
Publiée le
Apache Kafka
Apache Spark
BigQuery
Île-de-France, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Directeur de projet IT - Data & SaaS
FINAX Consulting
Publiée le
Finance
7 mois
400-850 €
Paris, France
Nous recherchons un Directeur de projet IT pour le compte d’un de nos clients, une banque de développement, dans le cadre d’un projet de pilotage de la mesure d’impact et de redevabilité des financements (ODD). Dans un environnement IT structurant, vous interviendrez sur le pilotage d’une solution SaaS dédiée à la gestion des données d’impact, avec des enjeux forts de qualité de données, de coordination multi-acteurs et de delivery. 🔹 Pilotage global du projet (planning, budget, risques, reporting) 🔹 Animation des ateliers et coordination métier / DSI / intégrateurs 🔹 Mise en œuvre et animation des pratiques Agile / Scrum 🔹 Définition et pilotage de la stratégie de tests (Squash) 🔹 Suivi des sujets de reprise et qualité de données 🔹 Contribution aux sujets d’architecture et interfaces Profil recherché : Directeur de projet IT avec 10+ ans d’expérience Forte expertise en pilotage de projets complexes Maîtrise des environnements Agile, Jira, Squash, MS Project Expérience en data (qualité, reprise, tests) et solutions SaaS Capacité à challenger les enjeux techniques et métiers Paris + télétravail Démarrage : juin 2026 Mission longue durée (plusieurs tranches)
Offre d'emploi
Ingénieur Data Expert Python & Kafka
Deodis
Publiée le
Apache Kafka
Python
1 an
40k-51k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Ingénieur Data Senior expert Python pour concevoir, développer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous interviendrez sur la mise en place de pipelines batch et temps réel à grande échelle en vous appuyant sur des technologies telles qu’Apache Kafka, Flink, Airflow et la stack ELK. Vous serez responsable de la fiabilité, de la qualité et de la résilience des traitements de données, tout en collaborant étroitement avec les équipes Data et DevOps sur les sujets d’architecture, d’industrialisation et d’exploitation des infrastructures. Le poste requiert une forte expertise en développement Python en production, ainsi qu’une solide maîtrise des environnements distribués, du streaming et des problématiques de performance et d’observabilité.
Offre d'emploi
Business Analyst DATA
QUANTEAM
Publiée le
Python
SQL
3 ans
Paris, France
Le consultant doit posséder de solides compétences en Business Analysis et en Data, de très bonnes capacités de structuration et de communication, et être capable de diriger des équipes. > 5 ans d'expérience et le consultant doit être titulaire d'un diplôme d'ingénieur (obligatoire) Le ou les consultants proposés pour cette mission doivent posséder une vaste expérience dans les activités décrites ci-dessous, ainsi que d'excellentes capacités d'analyse, de la rigueur, et de bonnes aptitudes à l'écoute et à la communication. Le ou les consultants proposés pour cette mission doivent posséder une vaste expérience dans les activités décrites ci-dessous, ainsi que : Bac +5 et diplôme d’ingénieur obligatoire Solides expériences en tant que BA dans des équipes IT. Fondamentaux du métier de BA (compréhension des besoins, spécifications, tests et automatisation des tests, animation d’atelier…) Solide expérience sur des projets data : modélisation de data model, SQL, architecture data, analyse des data approfondie Dynamisme et proactivité dans la démarche d’analyse ou projet, structuré et bonne expression orale. Anglais requis. Capacité de travail avec plusieurs équipes dans un contexte de transformation multi pays 5 ans d’expérience minimum
Mission freelance
Consultant Architecte BI / Data – Boulogne-Billancourt (92)
Mon Consultant Indépendant
Publiée le
Azure
Azure Synapse
Data Lake
1 mois
350-400 €
Boulogne-Billancourt, Île-de-France
Consultant Architecte BI / Data – ERP M3 / Azure 📍 Boulogne-Billancourt (92) 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 550 € HT 🚀 Démarrage ASAP Objectif :Structurer une architecture décisionnelle robuste et fiabiliser les plateformes BI dans un environnement complexe. Mission : Définition et mise en œuvre de l’architecture BI / data Stabilisation et optimisation des environnements existants Intégration des flux ERP Movex / M3 , SQL Server, Netezza Déploiement data sur Azure (Synapse, Data Lake) Structuration du reporting ( Power BI, MicroStrategy ) À savoir Présence sur site requise. Mission technique et structurante, avec attendu fort sur delivery et stabilisation rapide.
Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)
AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake
4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
Offre d'emploi
Business Analyst Technique – Projet Data (H/F)
CELAD
Publiée le
BigQuery
Business Analyst
Google Cloud Platform (GCP)
6 mois
40k-45k €
350-490 €
Trappes, Île-de-France
Vous souhaitez intervenir sur un programme stratégique de transformation digitale à grande échelle dans un environnement industriel innovant ? Nous recherchons un.e Business Analyst Agile technique pour rejoindre une équipe travaillant sur une plateforme nouvelle génération autour de la data et du cloud. Vos missions Au sein d’une équipe Agile, vous interviendrez sur des sujets à forte dimension fonctionnelle et technique : Analyse des besoins métier et cadrage fonctionnel Rédaction des User Stories et spécifications fonctionnelles Analyse des incidents et investigations sur les flux applicatifs Participation à l’évolution de l’architecture cible de la plateforme Validation des flux et tests end-to-end Collaboration avec les équipes Produit, Data, Cloud et Développement Contribution aux bonnes pratiques projet et à l’amélioration continue Environnement technique GCP BigQuery SQL avancé APIs REST JSON GitHub / VS Code Agile / Scrum Gherkin Data Platform & systèmes industriels
Offre d'emploi
Ingénieur DataOps/ Administrateur·rice Systèmes & Data H/F
TOHTEM IT
Publiée le
35 500-40k €
Toulouse, Occitanie
Ta mission Tu assures l’administration, l’exploitation et l’optimisation des plateformes Data, des infrastructures applicatives et des environnements systèmes dans des contextes Data et Cloud. Le poste est fortement orienté autour des flux de données, des traitements ETL, de l’automatisation des chaînes de production et de la fiabilisation des plateformes techniques. Tu interviens également sur les sujets de supervision, de déploiement, d’industrialisation et de performance des environnements Data, en collaboration avec les équipes projets et métiers. Tes activités principales Administration systèmes et infrastructures Administrer et maintenir les environnements Windows et Linux Gérer les serveurs IIS et Apache Assurer l’administration des bases MSSQL Participer au maintien en condition opérationnelle des infrastructures applicatives Garantir la disponibilité, la performance et la sécurité des systèmes Supervision, exploitation et production Data Mettre en œuvre et administrer les outils de supervision des plateformes Data et infrastructures techniques (Zabbix ou équivalent) Assurer le suivi des alertes, incidents et performances des traitements applicatifs et flux de données Gérer les ordonnanceurs de traitements et chaînes batch (VTOM ou équivalent) Superviser les transferts de fichiers et échanges inter-applicatifs via CFT ou outils équivalents Assurer la gestion, la centralisation et l’analyse des logs via ELK, Splunk ou solutions similaires Garantir la continuité de service des environnements de production Data Automatisation et déploiement Développer et maintenir des scripts d’automatisation (PowerShell, Shell ou équivalent) Participer à l’industrialisation des déploiements Administrer et faire évoluer les chaînes CI/CD Utiliser des outils tels que XL Deploy, Ansible ou équivalents Participer à la conteneurisation des applications Data, ETL et middleware Administrer et exploiter les plateformes de traitement de données et environnements ETL Assurer le bon fonctionnement des flux de données, traitements batch et échanges applicatifs Intervenir sur les technologies Semarchy, Apache Tomcat, MSSQL, MongoDB et Trdata Superviser les traitements de données critiques et garantir leur disponibilité Participer à l’optimisation des performances des plateformes Data Assurer le suivi des incidents liés aux flux de données et traitements applicatifs Contribuer à l’industrialisation et à l’automatisation des pipelines Data Cloud et méthodes de travail Participer aux projets d’infrastructure Cloud Public (GCP ou équivalent) Travailler en méthodologie Agile Collaborer avec les équipes de développement, production et exploitation Participer aux réunions de suivi et aux démarches d’amélioration continu
Offre d'emploi
Data Architect (HR Data Platform)
Izyfree
Publiée le
Data Engineering
Data governance
Finance
1 an
40k-45k €
400-500 €
Lille, Hauts-de-France
Nous cherchons un data architect pour intégrer la plateforme HRDP (Ressources Humaines): Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme Chargée de recrutement en charge du besoin: Audrey Levy Chargée de recrutement 96/104, avenue Charles de Gaulle – 92200 Neuilly sur Seine Tél : 01.70.82.50.07
Offre d'emploi
📩 Data Engineer – Data Quality & Governance
Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API
1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
Mission freelance
Data Engineer Python – Data Platform & Data Governance
Deodis
Publiée le
BI
Data Engineering
Data quality
1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1420 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois