L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 599 résultats.
Mission freelance
Process & Data Analyst
Publiée le
Data analysis
Gouvernance
Master Data Management (MDM)
1 an
500-570 €
Île-de-France, France
Télétravail partiel
Nous recherchons actuellement un(e) Process & Data Analyst pour accompagner les projets et assurer le lien entre les processus métier et les données nécessaires de notre client grand compte dans la logistique. Vous devrez : - Animer les groupes de travail pour créer les Service Blueprints, identifier les Data Use Cases et comprendre les dépendances fonctionnelles, - Réaliser les gap analyses afin d'identifier les systèmes IT impactés et préparer la création des fonctionnalités nécessaires, - Garantir la production des Data Use Cases basés sur les processus métier et les intégrer dans l'outil de Data Gouvernance du groupe, - Définir, avec les Data Stewards, les Business Rules et le cycle de vie des données transactionnelles et référentielles, - Accompagner les Data Stewards dans l'implémentation des données référentielles dans le Master Data Management, - Soutenir les Business Units dans l'implémentation des flux de données transactionnelles et l'utilisation des données référentielles, - Participer à l'enrichissement du Data Catalog via des définitions claires, - Contribuer aux tests d'intégration, systèmes et UAT, ainsi qu'à la gestion des migrations, stratégies de cut-over et chargements de données, - Analyser les données existantes dans les applications pour garantir la cohérence avec les solutions proposées et identifier des améliorations proactives de qualité de données, Vous travaillerez au sein d'une équipe d'experts Data Gouvernance et MDM, et serez accompagné(e) par nos Data Stewards pour mettre en place les processus conformément aux exigences des data owners des équipes métier.
Offre premium
Mission freelance
Développeur décisionnel POWER BI/ DATASTAGE H/F
Publiée le
Data Warehouse
IBM DataStage
PowerBI
1 an
300-420 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d'un renfort d'équipe au sein du pôle décisionnel d'un acteur majeur en France, nous recherchons un développeur décisionnel Datastage/ Power BI pour une mission d'un an renouvelable. La mission se fera sur le site de Lyon (69). Nous recherchons quelqu'un qui maitrise déjà la partie alimentation (ODS, DWH, DATAMART) et la partie restitution (POWER BI) afin d'être rapidement opérationnel et soulager l'équipe en place. Cette dernière fonctionne selon une méthode agile (SCRUM) . Rattaché au responsable SI décisionnel vos missions consistent à : Développer de programme Dataware, Datamart (Datastage et SQL) Développer des dataset, dataflow et rapports sous PowerBI Réaliser des tests unitaires et assurer la livraison Optimiser les requêtes SQL Prendre en compte les anomalies et les évolutions en lien avec le BE et la qualification Respecter les normes et bonnes pratiques du SI Décisionnel
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Offre d'emploi
Directeur de Projet Senior Réversibilité Entrante - Ivry sur seine(H/F)
Publiée le
Back-end
Front-end
Pilotage
1 an
40k-45k €
400-530 €
Ivry-sur-Seine, Île-de-France
🎯 Contexte Nous recherchons un Directeur de Projet Senior pour piloter la réversibilité entrante ANAH au sein d’une Business Unit spécialisée dans les activités de back-office numérique, front-office (téléphonie, mail, live chat) et dématérialisation documentaire. Le projet inclut des évolutions techniques, organisationnelles et fonctionnelles, avec un pilotage renforcé des équipes techniques, fonctionnelles et de production. 🛠 Missions principales Piloter la réversibilité entrante ANAH et garantir la bonne exécution des engagements projet. Coordonner les équipes techniques, fonctionnelles, production et DSI . Assurer le pilotage complet des phases : conception → build → run. Gérer le planning , les risques , le budget et la facturation (interne/externe). Superviser les évolutions techniques (ex : portail Power BI, outil omnicanal). Préparer la transition vers le RUN : documentation, processus, pilotage opérationnel. Produire les reportings projet et la météo projet . Garantir l’application des méthodes et processus internes de gestion de projet. ⚙️ Compétences requisesTechniques Direction de projet – Expert (impératif) Connaissance approfondie des SI Back & Front Office – Confirmé (important) Pilotage / Méthodologie Expérience confirmée en pilotage de projets complexes (multi-équipes, multi-métiers) Gestion contractuelle, budgétaire et organisationnelle Très bon niveau en coordination transverse Soft skills Leadership transverse Excellente communication Capacité à convaincre et arbitrer Sens du relationnel développé 📄 Livrables attendus Météo projet & tableaux de bord Documentation projet & RUN Processus et procédures Suivi budgétaire & reporting direction
Offre d'emploi
Consultant Data Databricks (F/H)
Publiée le
Apache Spark
Databricks
DevOps
3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Offre d'emploi
Lead Data Engineer (H/F)
Publiée le
Apache Spark
Big Data
Data management
3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Mission freelance
Program Manager Privacy (F/H)
Publiée le
Data privacy
12 mois
93000, Bondy, Île-de-France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Program Manager / Chef de projet Privacy pour intervenir chez l’un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter un programme de maturité en matière de confidentialité et conformité (RGPD, Data Protection). - Mettre en place la gouvernance et superviser l’exécution des sous-projets. - Assurer la gestion des risques, reporting stratégique et suivi des livrables. - Coordonner les équipes projet et communiquer avec les parties prenantes. - Définir et suivre les standards qualité, gérer les changements et proposer des améliorations continues.
Mission freelance
Data Engineer Senior
Publiée le
SAS
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un profil Senior Data Engineer très opérationnel, disposant d’une bonne compréhension du métier bancaire. Notre mission principale est de fournir des solutions digitales orientées métier (tableaux de bord, reporting ad hoc) pour les utilisateurs de la banque Corporate (Sales, Métiers, Management, etc.). Après la phase de staging, les données nécessaires sont fédérées dans un environnement de préparation destiné à alimenter les différentes solutions de visualisation via des flux Alteryx. Après avoir acquis une vue complète des systèmes existants, des flux de données et des objectifs métier de l’équipe, le Data Engineer Senior devra : - Améliorer et rationaliser les workflows Alteryx existants en appliquant les principes de clean code, en centralisant la logique, en supprimant les redondances et en améliorant la maintenabilité à long terme. -Mettre en œuvre ces améliorations de manière progressive à travers les environnements, en validant les impacts, en collaborant avec les utilisateurs et en garantissant l’absence de régression sur les tableaux de bord en aval. Description de la fonction : Les principaux axes d’amélioration porteront sur : -Intégration et qualité des données : Collaborer avec l’équipe Data Engineering pour ingérer les données provenant de différents systèmes, en assurant une intégration rapide des nouvelles sources avec un haut niveau de fiabilité et d’exactitude. -Simplification de la conception (design) : Simplifier les flux de données et les processus de conception existants afin d’améliorer l’efficacité, réduire la complexité et optimiser les performances globales du système. - Nettoyage (cleanup) : Identifier les jeux de données obsolètes, les fichiers inutilisés et les workflows abandonnés ; les refactoriser ou les supprimer et contribuer à l’harmonisation des règles d’historisation et de rétention afin de maintenir un paysage data propre et durable. -Conception de macros et de composants : Concevoir et maintenir des macros Alteryx réutilisables pour centraliser les schémas de transformation récurrents, garantir une logique cohérente entre les workflows et réduire la dette technique, tout en documentant et validant les changements avec les utilisateurs impactés. -Harmonisation des processus legacy : Rationaliser la coexistence SAS et Alteryx en supprimant les composants SAS obsolètes et en migrant les transformations utiles vers une logique Alteryx cohérente et maintenable. Réduire les duplications et la complexité multi-plateformes. -Opérations de release : Soutenir et améliorer les processus de déploiement et de mise en production en augmentant l’automatisation et les contrôles qualité afin de rendre les déploiements plus sûrs, plus rapides et plus prévisibles. -Documentation : Appliquer et renforcer les standards de documentation des jeux de données et des workflows, en assurant un nommage cohérent et des descriptions claires pour une compréhension partagée, une découverte facile et une utilisation efficace par tous les membres de l’équipe. -Monitoring : Mettre en place et maintenir des systèmes de surveillance robustes pour suivre la qualité des données et les performances, permettant une identification et une résolution rapides des incidents. -Gestion multi-instances : Superviser la gestion des batchs quotidiens afin d’assurer la cohérence, la synchronisation et une utilisation efficace des ressources à travers les différents environnements.
Offre d'emploi
Développeur BI - Data
Publiée le
Business Intelligence
CI/CD
Data visualisation
1 an
Paris, France
Télétravail partiel
Nous cherchons un Développeur BI-Data Compétences indispensables : • SAP Business Objects, Spotfire • Workflows complexes de data multi-sources • Bases de données Oracle / Sybase • Business Intelligence, Reporting, Data Viz Atouts souhaités : • Expérience en migrations techniques • Maîtrise de JIRA • Connaissances DevOps & GitLab CI/CD Environnement : • Anglophone • Travail en mode Agile Compétences indispensables : • SAP Business Objects, Spotfire • Workflows complexes de data multi-sources • Bases de données Oracle / Sybase • Business Intelligence, Reporting, Data Viz Atouts souhaités : • Expérience en migrations techniques • Maîtrise de JIRA • Connaissances DevOps & GitLab CI/CD Environnement : • Anglophone • Travail en mode Agile
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Offre d'emploi
Développeur Data/Data Engineer
Publiée le
AWS Cloud
Azure
Azure Data Factory
40k-65k €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
Offre d'emploi
Data Engineer NiFi
Publiée le
Apache NiFi
40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑🚀👩🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Mission freelance
POT8761 - Des expert technico-fonctionnels SAP sur Grenoble
Publiée le
Échange de données informatisé (EDI)
6 mois
210-340 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, des expert technico-fonctionnels SAP sur Grenoble. Modules: MM/LE = Distribution EDI = Consultant EDI SD MM = Order execution QM = Quality control FICO = Gestion SCM = Supply Chain Management PEX = PP , PM = Plant Maintenance et Production Planning (attention plant maintenance pas project manager) Objectif : Garantir la mise en œuvre technique, la configuration et l’exécution du cutover dans l’ensemble de l’écosystème IT. Mission : Fournir des systèmes IT adaptés, gérer la configuration, les tests et assurer une transition et un cutover fluides. Responsabilités clés : - Définir la configuration et collaborer avec la Delivery Factory - Conseiller sur les extensions et le mapping des données - Garantir la réussite des tests et la résolution des défauts - Coordonner la préparation BoB et les adaptations des systèmes existants
Offre d'emploi
Ingénieur Big Data / Bases de Données
Publiée le
AWS Cloud
BigQuery
Cassandra
40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Offre d'emploi
Expert Infrastructure & Automatisation IA/Data
Publiée le
Linux
1 an
Paris, France
Télétravail partiel
Contexte de la mission Vous accompagnerez la modernisation des infrastructures logicielles et serveurs, tout en soutenant les projets IA/Data en production. Vous garantirez leur scalabilité, sécurité et traçabilité dans des environnements critiques du secteur financier. Vos missions • Moderniser et sécuriser les environnements applicatifs et serveurs • Automatiser les déploiements et configurations via Infrastructure as Code (IaC) • Assurer la scalabilité et la sécurité des projets IA/Data en production • Collaborer avec les équipes Data Scientists, DevOps et Sécurité • Participer aux audits et garantir la conformité réglementaire (RGPD, ISO 27001) • Mettre en place des solutions de monitoring et traçabilité des modèles IA
Mission freelance
Chef de Projet Data
Publiée le
Confluence
JIRA
Safe
1 an
600-650 €
Paris, France
Télétravail partiel
Nous sommes à la recherche d'un Chef de Projet Data pour accompagner le déploiement du domaine de la conformité réglementaire "Data Sharing" Mission Pilotage : Élaboration du plan d’évolution en réponse aux exigences réglementaires. Formalisation des modèles d’organisation et de gouvernance adaptés. Animation de groupes de travail multidisciplinaires. Production de livrables et supports d’analyse pour la prise de décision. Coordination Transverse : Sensibilisation aux enjeux réglementaires et à leur convergence. Identification et analyse des réglementations prioritaires. Alignement des actions avec les autres initiatives concernées. Capitalisation sur les Démarches Existantes : Mise en œuvre des actions de sensibilisation adaptées. Production des livrables nécessaires à la gouvernance. Accompagnement à la transformation des pratiques liées à la gestion des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2599 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois