L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 820 résultats.
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Offre d'emploi
BI / IT Specialist (H/F) - 94
MP Advertising
Publiée le
BI
Data modelling
ERP
6 mois
50k €
Val-de-Marne, France
Nous recherchons un BI / IT Specialist pour gérer et faire évoluer le système d’agrégation des factures du système à l’échelle EMEA. Ce poste se situe à l’interface entre la Business Intelligence, l’IT et la Finance, avec pour objectif de garantir la fiabilité des traitements de données, la cohérence des mappings et une intégration fluide avec les systèmes locaux et le système central du Groupe. Le candidat jouera un rôle clé dans la maintenance du système, la qualité des données et la coordination des développements techniques. Gestion du système & traitement des données Superviser les flux de données et garantir leur qualité entre les systèmes locaux et le système Groupe ; Accompagner l’intégration de nouveaux ERP / entités dans Eden. Mapping & gestion des données de référence (Master Data) Maintenir la logique de mapping (produits, clients, données financières) et assurer l’alignement avec les systèmes MES et MDM ; Gérer la création et le cycle de vie des codes produits (création, mise à jour, retrait). Clôture mensuelle & validation des données Piloter le processus de clôture mensuelle dans le système Eden : de l’intégration des factures jusqu’au traitement et à la transmission vers le MES du montant correct du chiffre d’affaires net EMEA ; Coordonner les activités de clôture mensuelle en assurant la cohérence avec le reporting financier ; Investiguer et résoudre les anomalies de données (factures manquantes ou incorrectes, incohérences de référentiel, problèmes de paramétrage produit) ; Valider les données dans les rapports définis par le management, notamment ceux de la Finance ainsi que d’autres départements (ex : reportings Marketing type MBR, planification financière (DOP), etc.) ; Collaborer avec les équipes support IT pour identifier les problèmes et proposer des solutions ; Valider les améliorations livrées dans son périmètre (validation finale sous la responsabilité du Head of Finance BI). Coordination de projets & collaboration IT Proposer de manière proactive des pistes d’amélioration et d’évolution des outils et reportings existants ; Faire le lien entre les équipes métiers et IT pour les évolutions et nouveaux développements ; Coordonner les projets, réaliser les tests (UAT) et valider les livrables ainsi que la documentation IT.
Offre d'emploi
Data Analyst (4 -7 ans) (F/H) Nantes
Argain Consulting Innovation
Publiée le
Business Object
Data analysis
Méthode Agile
6 mois
40k-45k €
400-450 €
Nantes, Pays de la Loire
Dans le cadre d’un projet stratégique au sein d’un grand acteur du secteur bancaire, nous recherchons un Business Analyst orienté Data avec une forte sensibilité à la qualité des données et aux environnements fonctionnels complexes. Vous interviendrez sur des sujets liés à la gestion, structuration et exploitation de la donnée , en lien étroit avec les équipes métiers et IT. Attendus de la mission Informer de l’avancement de l’analyse et de la résolution ou du routage des tickets d’incidents ou d’assistance (outil de ticketing) Produire et maintenir la documentation associée aux sujets traités (procédures, modes opératoires, supports) Rédiger et enrichir les éléments du backlog (user stories, tâches, documentation associée…) Contribuer à l’amélioration continue des processus et des services
Offre d'emploi
DATA ENGINEER JAVA / SCALA ( 460€ max)
BEEZEN
Publiée le
Scala
6 mois
40k-61k €
340-460 €
Île-de-France, France
Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle. Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark. Expérience significative dans le domaine de la Data et du Cloud, notamment sur Google Cloud Platform (GCP). Très bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données. Maîtrise de SQL pour la manipulation, l’analyse et la valorisation de données. Connaissance approfondie de DBT (Data Build Tool) pour la gestion et l’orchestration de pipelines de données. Expérience avec Pubsub pour la gestion de flux de données en temps réel. Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. Bonne connaissance de l’environnement Linux et des outils de ligne de commande. Expérience solide avec les systèmes de gestion de version (Git). Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires.
Mission freelance
Data Product Manager
K2 Partnering Solutions
Publiée le
Data management
1 an
Paris, France
Notre client recherche un(e) Data Product Manager afin de renforcer ses équipes. L’objectif est de concevoir, structurer et développer un portefeuille de produits et de plateformes data répondant aux besoins métiers du domaine Mobility, tout en respectant les standards et les guidelines en matière d’architecture Data & Analytics définis par le client. Priorités pour 2026 : Migration vers une plateforme data Cloud Migration de MicroStrategy vers Power BI Prise en charge des besoins métiers continus dans les domaines : Sales Finance Manufacturing Supply Chain Purchasing Compétences attendues : Excellente communication en français et en anglais Compétences en analyse de données (exploratoire) et modélisation de données Bonne compréhension du cycle de vie complet de la donnée (de la source à la visualisation) Vision globale des produits Data & BI dans leur périmètre Connaissance des données ERP (SAP) et des principes de Master Data Management Rigueur dans les méthodes d’analyse, de cadrage et d’organisation Forte orientation client Esprit d’équipe Début : Mai 2026 Location : Paris (3 jours sur site/ 2 jours télétravail) Langues : Français et Anglais
Mission freelance
Data Analyst Pricing (H/F) - 92
Mindquest
Publiée le
Microsoft Excel
Microsoft Power BI
SQL
4 mois
Puteaux, Île-de-France
Contexte : Nous recherchons un Data Analyst Pricing pour accompagner une équipe Pricing et Business Analyse Mission Les principales tâches porteront sur le développement de rapport BI et d'analyses • Création de nouveaux rapports BI complexes: de la consolidation du besoin auprès du métier à la livraison (incluant la recette) • Extension de rapports existants sur de nouveaux périmètres. • L'amélioration/ optimisation de rapports existants: optimisation de la performance technique et amélioration visuelle pour une meilleure prise en main par les utilisateurs • De manière ponctuelle, développement d'analyses ou extractions et consolidations de fichiers one-shot ad hoc en support aux équipes de business analystes à destination du marketing ou des équipes de communication
Offre d'emploi
Ingénieur(e) R&D Data Scientist expérimenté(e) (F/H)
█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow
Nantes, Pays de la Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Ingénieur - spécialisé ODM / IA
VISIAN
Publiée le
IA
1 an
Nantes, Pays de la Loire
Contexte Intégration au sein de l'IA Factory en qualité de Data Ingénieur spécialisé ODM, avec pour objectif de renforcer les capacités de modélisation et d'automatisation des règles métier. Dans le cadre de l'accélération de l'intelligence artificielle au sein de la banque commerciale en France d'une grande banque internationale. Missions Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée. Responsable de la mise en œuvre du pipeline d’ingestion des données brutes (Data Lake ou autre). Assurer l'industrialisation, la supervision et l'intégration des solutions ou des données en garantissant l'engagement de service de l'environnement de production. Rédaction et formalisation des règles métier. Test, recette et validation des règles métier développées. Maintenance et évolution des règles au sein des outils de Rule Designer et Décision Center. Analyse des besoins fonctionnels et modélisation des processus décisionnels. Assistance au PO proxy (aide pour planifier les ateliers, rédaction de certains documents projets…). Animation et structuration des ateliers de travail, rédaction des comptes rendus et livrables associés.
Offre d'emploi
Data manager sur Tours
EterniTech
Publiée le
3DEXPERIENCE (3DX)
3 mois
Tours, Centre-Val de Loire
je cherche pour un de mes clients un Data manager sur Tours Poste : Data Manager Nombre de poste : 1 Expérience : 5 ans Localisation : TOURS - 8 Rue de Boutteville (2jours de TTV par semaine) Démarrage : ASAP Le TITULAIRE s’engage à ce que ses intervenants aient, dès le début de la prestation, les connaissances suffisantes : o dans le domaine du nucléaire (en particulier dans les domaines de l’installation générale, du fonctionnement, du génie civil et de la sûreté), o sur 3DX ou a minima un PLM équivalent. data management - impératif connaissance de l’outil 3DX - impératif Connaissance de 3DX Connaissance des outils E3D et ALLPLAN ou appétence pour montée en compétence rapide sur ces outils
Offre d'emploi
Data Steward
ONSPARK
Publiée le
RGPD
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Steward pour accompagner nos clients grands comptes. Vous interviendrez dans des environnements où la qualité, la traçabilité et la conformité des données sont des enjeux majeurs, en lien avec les équipes Data et métier. Responsabilités Définir et appliquer les règles de gouvernance des données Maintenir le dictionnaire de données et les référentiels Assurer la qualité, la traçabilité et la conformité des données (RGPD) Sensibiliser et accompagner les équipes métier sur les bonnes pratiques Collaborer avec les Data Engineers et Data Architects
Offre d'emploi
DATA ENGINEER CONFIRMÉ DATABRICKS / SPARK (H/F)
GROUPE ALLIANCE
Publiée le
55k-58k €
Paris
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la conception, à la mise en place et à l’optimisation d’architectures data robustes et évolutives au service de la valorisation de la donnée : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 8 ans minimum en ingénierie de la donnée ou en développement data Expert(e) en AZURE, DATABRICKS, SPARK, PYTHON, SQL Habile avec les outils CI/CD, AZURE DEVOPS, AGILE, JIRA AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
Expert Looker Core (BI / Big Data)
Signe +
Publiée le
Looker Studio
8 mois
900 €
Paris, France
Dans le cadre d’une étude autour d’un outil de datavisualisation cloud, la mission consiste à évaluer et accompagner l’usage de Looker Core (GCP) pour des cas d’usage métier et techniques. L’objectif est de : Déployer et accompagner des POC Looker Évaluer la capacité de l’outil à répondre aux besoins de self-service analytics Explorer les usages avancés (IA / conversational analytics) Contribuer à l’architecture cible dans un contexte cloud 🧠 Mission principale Le consultant interviendra en tant qu’ expert Looker Core pour : Accompagner les équipes métiers dans la construction de POC Former et guider les utilisateurs sur Looker Apporter une expertise sur : l’architecture Looker l’intégration GCP / BigQuery la sécurité et les bonnes pratiques les enjeux FinOps Collaborer avec les équipes IT (architectes, ops, data engineers, métiers)
Offre d'emploi
Data & Platform Engineer – Microsoft Fabric
AEROW
Publiée le
Apache Spark
Azure
Azure Data Factory
1 an
40k-64k €
400-600 €
Gosselies, Hainaut, Belgique
2 JOURS NON NEGOCIABLES SUR SITE CLIENT A GOSSELIES (BEL) Dans le cadre du renforcement de sa Factory Data , CLIENT recherche un Data & Platform Engineer pour intervenir sur la gestion, l’évolution et l’industrialisation de sa plateforme data basée sur Microsoft Fabric . Le consultant rejoindra l’équipe Plateforme Data et interviendra à la fois sur les aspects Data Engineering (80%) et Platform Engineering Fabric (20%) . 🛠️ Data Engineer – 80% Développement des flux d’ingestion via Fabric Data Factory (et connaissance Azure Data Factory ) Développement des flux de transformation via Fabric Notebooks (Spark / PySpark) Optimisation des requêtes et des transformations (performance & coûts Azure) Modélisation du Lakehouse Conception et implémentation de l’ architecture médaillon (Silver / Gold) Rédaction du design technique Définition et exécution des tests unitaires (automatisables) Estimation des charges lors du cadrage des demandes Rédaction de la documentation technique Contribution aux guidelines et à l’amélioration continue Support, maintenance et gestion d’incidents en production ⚙️ Platform Engineer – 20% Administration et évolution de la plateforme Microsoft Fabric (workspaces, capacités, paramètres tenant, intégrations Azure) Suivi actif de la roadmap Microsoft Fabric (preview / GA) Gestion et optimisation des capacités Fabric (performance, priorisation, dimensionnement, coûts) Mise en place et évolution de l’ Infrastructure as Code (IaC) Monitoring et optimisation des coûts d’infrastructure Collaboration avec les équipes Infrastructure, Sécurité, IAM, FinOps Support plateforme, analyse d’incidents et fiabilisation du service
Offre d'emploi
Data Engineer Big Data/Teradata
VISIAN
Publiée le
Apache Spark
Big Data
Python
2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Offre d'emploi
Chef de projet Agile Master Confirmé
KEONI CONSULTING
Publiée le
Azure Data Factory
Backlog management
Scrum
18 mois
20k-60k €
100-500 €
Paris, France
Contexte Vous interviendrez au sein d'un projet récent, innovant en termes d'organisation et de technos. La mission s’inscrit au service du produit Editeur : - Plateforme d’api éditeur - Média autour de cette plateforme. La mission concerne l’un des deux pôles. Ce produit est en pleine transformation pour devenir un produit autonome utilisable par plusieurs clients. MISSIONS L'Agile master est un facilitateur de la vie d’une équipe de delivery et garant de son bon fonctionnement. Il est également facilitateur des démarches agiles (SCRUM/KANBAN/...), devops et des relations avec les autres équipes de l’écosystème. Il accompagne l'équipe dans un objectif d'autonomie et d'amélioration continue. Etre moteur sur la transformation agile et les pratiques au niveau de son éco système au sens très large et s'assure ainsi de la bonne cohérence de l'animation et des bonnes pratique à l'échelle de son domaine ou de sa factory ou d'un domaine de sa dimension systémique. Dans une approche lean, il promouvoit les méthodes et pratiques agiles dont il est le garant, et de faire en sorte que les équipes deviennent autonomes dans leur fonctionnement Agile. D’un point de vue méthode, il conseille aussi les acteurs pour trouver les pratiques les plus adaptées au contexte. Livrables • Mise en place des pratiques agiles. • Mener les activités préparatoires : Accompagner/coacher le Product Owner, Animer les séances d'évaluation des items du backlog et aider l'équipe à devenir autonome sur ce sujet • Mise en place des artefacts (Indicateurs, Burndown, HealthCheck, etc.) utiles, utilisés et utilisables au suivi de l’efficience de l’équipe. • Organisation des différentes cérémonies : Weekly, DSM, Rétrospective, Maturation, Démo. S'assurer que la documentation technique et fonctionnelle soit à jour et utile au partage de connaissance (intra équipe, inter équipe, nouveaux arrivants) S’assurer de l’autonomie de l’équipe pour un déploiement en continue (en recette et à venir en production) • Aider l'équipe à s'améliorer en continu : analyse des obstacles, éléments bloquants, interférences extérieures.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Reconversion professionnel sur du SAP
- Avis et/ou retours d'expériences pour situations délicates en freelance
- Cdd et passage freelance
- Ajout activité micro-entreprise en attendant de créer la société
- Mission à 600 km de chez moi - Frais de double résidence
- 3 semaines qu'on ne me donne pas de date de début de mission que dois-je faire
1820 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois