Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 422 résultats.
Mission freelance
Data Engineer
SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python
6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : • Effectuer des alimentations de données, • Travailler en binome avec un Data Analyst sur un sujet IA/Data. • Travailler autour d'agent IA pour du requetage SQL en langage naturelle • Mise à dispo d'outillage d'aide aux développement, monitoring… , • Faire une veille technologique autour des architectures data,
Offre d'emploi
Data Steward
DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL
24 mois
45k-55k €
400-550 €
Paris, France
Contexte Intervention au sein d’une équipe Data/Gouvernance, avec des enjeux forts autour de la qualité de la donnée , de la conformité et de la fiabilisation des référentiels métiers . Missions principales Assurer la qualité, la cohérence et la fiabilité des données Mettre en place et suivre les règles de gestion et de contrôle de la donnée Définir et maintenir le data catalog et les référentiels métiers Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts…) Identifier et analyser les anomalies de données Mettre en place des indicateurs de qualité (KPI Data Quality) Participer aux initiatives de gouvernance des données (politiques, standards, process) Accompagner les métiers dans la bonne utilisation des données
Offre d'emploi
Data analyst (Databricks) H/F
HAYS France
Publiée le
La Ferté-Bernard, Pays de la Loire
Vos responsabilités incluent notamment : Concevoir et développer un modèle de données global pour le périmètre France Exploiter les bases de données Corporate sous Databricks (couche Silver) Réaliser les transformations de données jusqu'à la couche Gold Consolider des données métiers variées : Finance, Comptabilité, Logistique, Qualité, Production, RH Participer à la conception des modèles analytiques, au développement des indicateurs, ratios financiers et KPI métiers Développer et maintenir des dashboards Power BI à destination des équipes opérationnelles et managériales Contribuer à la standardisation, à la fiabilité et à la gouvernance de la donnée au niveau France Collaborer étroitement avec le futur profil Contrôle de Gestion / BI
Offre d'emploi
Data Scientist - (H/F)
DAVRICOURT
Publiée le
40k-45k €
Bolbec, Normandie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans le département Seine-Maritime. À ce titre, vos missions quotidiennes seront les suivantes : - Développer en Python des algorithmes et scripts modulaires intégrables sur GCP, basés sur les modèles statistiques métiers ; - Automatiser les tâches répétitives et proposer des solutions simples, robustes et à forte valeur ajoutée ; - Mettre en place des scripts de collecte, structuration et ingestion des données issues des équipements industriels vers GCP ; - Assurer le rôle de relais technique entre les équipes métiers, l'IT et la Data Factory, tout en développant des outils de visualisation et en contribuant à l'acculturation Data des équipes locales.
Offre d'emploi
Data Engineering confirmé
AVA2I
Publiée le
DBT
Microsoft Power BI
Île-de-France, France
Concevoir, développer et maintenir les pipelines de données, les modèles analytiques et les tableaux de bord décisionnels afin de garantir une donnée fiable, exploitable et performante pour les équipes métiers. ResponsabilitésData Engineering Concevoir et maintenir les pipelines ETL/ELT. Intégrer des données depuis différentes sources (API, bases SQL, ERP, CRM, fichiers, cloud). Optimiser les traitements de données et la performance des flux. Assurer la qualité, la fiabilité et la gouvernance des données. Mettre en place des tests, monitoring et alertes sur les pipelines. Participer à l’architecture data et aux choix techniques. dbt (Data Build Tool) Développer et maintenir les modèles dbt. Structurer les couches Bronze / Silver / Gold. Créer des tests de qualité et documentation dbt. Gérer les dépendances et transformations SQL. Industrialiser les déploiements CI/CD dbt. Power BI Concevoir des dashboards et rapports interactifs. Créer des modèles de données optimisés. Développer des mesures DAX avancées. Mettre en place la sécurité des accès (RLS). Optimiser les performances des rapports Power BI. Collaborer avec les métiers pour comprendre les besoins analytiques. Compétences techniques requisesObligatoires SQL avancé Power BI (Power Query, DAX, Modélisation) dbt Python ou autre langage scripting Data Warehouse (Snowflake, BigQuery, Redshift, Synapse…) Git / GitLab / GitHub ETL / ELT Modélisation de données Appréciées Airflow / Dagster Azure Data Factory / Microsoft Fabric Docker CI/CD Cloud AWS / Azure / GCP Méthodologies Agile
Offre d'emploi
Business Analyst Data F/H
AIS
Publiée le
Business
1 mois
42k-52k €
260-520 €
Nantes, Pays de la Loire
Intégré(e) aux équipes d'un de nos clients grand compte, vous interviendrez sur un projet de déploiement d'une fonctionnalité "Talk to your data", permettant aux collaborateurs d'interroger les données en langage naturel grâce à un AI Agent (LLM) capable de générer automatiquement des requêtes SQL fiables. La mission se concentre sur le backend et la couche sémantique, garantissant la qualité, la cohérence et la pertinence des requêtes générées par l'IA. Le détail de vos missions sera le suivant : - Assurer l'alignement entre les besoins métiers et les capacités du data product. - Garantir la cohérence fonctionnelle et la qualité globale de la plateforme. - Collaborer avec les équipes sources pour clarifier les besoins et garantir la disponibilité des données. - Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités. - Participer à la rédaction des user stories et à la définition des fonctionnalités. - Contribuer à la planification des releases. - Prioriser les features et ajuster le périmètre au fil des itérations. - S'assurer que les user stories sont prêtes pour le développement et alignées avec la roadmap. - Valider ou rejeter les livrables selon les critères d'acceptation. - Contribuer à la création et à l'exécution des cas de test. - Valider les modèles de données et leur adéquation aux besoins analytiques. - Participer aux contrôles de qualité des données et aux tests fonctionnels. Environnement technique : - SQL - Snowflake - Modélisation de données - Data quality, tests et validation - Concepts AI / GenAI - Projet data-driven - Excel - Méthodologie : Agile (Scrum) - Langues : Anglais (Courant - Niveau C1)
Mission freelance
Consultant Data gouvernance
UCASE CONSULTING
Publiée le
DataGalaxy
SQL
3 ans
550-580 €
Paris, France
Vous intégrerez l’équipe du Data Office au sein de la DSI Groupe. Dans le cadre de la mise en marche de notre feuille de route Data à horizon 2030, nous recherchons un(e) consultant Data gouvernance. Vous serez en charge de créer et animer Une communauté data dynamique, valoriser et partager les connaissances autour de la data, tout en pilotant la stratégie et le développement de la Data Platform (plateforme technique) pour répondre aux enjeux métiers et stratégiques du groupe. Missions principales : 1. Structurer et animer la communauté data - Définir un plan de communication, favoriser les échanges, organiser des webinaires et des ateliers de sensibilisation. - Recenser et valoriser les initiatives data des filiales dans une démarche collaborative. 2. Développer la plateforme de knowledge management - Concevoir, produire et assurer la mise à jour d’une plateforme de documentation et d’échange sur la data. - Produire supports, guides, fiches techniques pour faciliter l’alimentation et l’utilisation de la plateforme. 3. Accompagner l’acculturation et la montée en compétences - Création et déploiement d’un parcours de formation data. - Piloter le déploiement de l'autodiagnostique de maturité Data. - Produire des supports d’acculturation pour sensibiliser le CoDir et les équipes. 4. Piloter la Data Platform en tant que Product Owner - Recueillir les besoins métiers, construire la roadmap et prioriser les évolutions. - Collaborer avec les équipes techniques pour la réalisation et l’implémentation des fonctionnalités. - Veiller à l’adoption et à l’usage opérationnel de la plateforme technique.
Mission freelance
AMOA Data Gouvernance
SMARTPOINT
Publiée le
KPI
1 an
Saint-Denis, Île-de-France
Mettre en place une organisation autour de la gestion de la donnée pour en garantir la qualité et sa bonne valorisation tout en suivant les règles de l’art en termes de data gouvernance (organisationnelle, technique, juridique etc) et d’application de la politique du Groupe sur ce périmètre. Le responsable doit comprendre les enjeux métier des données ainsi que les contraintes opérationnelles autour de ce domaine afin de déployer cette organisation chez DRC. Description détaillée des tâches qui constituent la mission: Le Responsable « Data Gouvernance » intervient plus spécifiquement sur trois missions principales : Définition d’une stratégie de gouvernance de la donnée: a. Réalisation d’un état des lieux b. Identification et catégorisation des différents périmètres de données à adresser c. Priorisation des actions à mener d. Définition d’une organisation et outils nécessaires à une gouvernance optimale des données e. Garantir la bonne sécurisation des données f. Garantir la bonne application de la politique Data SNCF pour DRC g. Garantir la conformité juridique de nos données Garantir la qualité des données: a. Mise en place de l’organisation, outils et KPI de suivi issus de la stratégie afin de garantir la qualité de la donnée b. Suivre opérationnellement les indicateurs de qualité de la donnée et mettre en place des actions de correction des données si besoin Valorisation de la donnée: a. Être le point d’entrée des métiers DRC (offres, exploitations, relations clients etc) pour répondre à des besoins via l’exploitations de la donnée b. Réalisation d ‘étude ad hoc en fonction des besoins métiers c. Etre force de proposition pour valoriser nos données via de nouvelles pratiques ou outils d. Préparer nos bases de données pour l’intégration de cas d’usage nécessitant des IA génératives
Mission freelance
Senior Data Analyst
CAT-AMANIA
Publiée le
Databricks
DBT
Github
1 an
100-460 €
Lille, Hauts-de-France
Au sein de l'équipe Advanced Analytics dédiée à l'économie circulaire, nous recherchons un Data Analyst spécialisé sur le business model de la Location afin de nous accompagner sur notre stratégie prix. Votre mission : transformer la donnée en levier de croissance pour nos offres d'abonnement et de location. Objectifs et livrables → Partenariat Business & Produit : transformer des problématiques complexes en opportunités actionnables et optimiser nos outils d'aide à la décision. → Stratégie Prix : analyser les mécaniques de prix et optimiser l'efficience tarifaire spécifiquement pour les offres de location → Frameworks scalables : concevoir des cadres d'analyse robuste et reproductibles pour extraire un maximum de valeur de l'écosystème rental en assurant la fiabilité des insights. → Opportunités & Signaux Faibles : Identifier et quantifier de nouveaux leviers de croissance pour nos produits ou services via l'exploration de données internes ou externes, pour anticiper les tendances du marché. → Pilotage de la Performance : Analyser les parcours clients (conversion, churn, durée des abonnements...) et la rentabilité pour aligner nos prix sur la valeur perçue. → Excellence Collective : contribuer à l’amélioration continue des standards de l’équipe
Mission freelance
Enterprise Architect – Data Mesh
Signe +
Publiée le
Data Mesh
12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
Mission freelance
Data Scientist Expert (H/F)
Freelance.com
Publiée le
Gitlab
Machine Learning
Matplotlib
3 mois
400-570 €
Versailles, Île-de-France
Dans le cadre de nouveaux projets industriels à fort enjeu, une grande entreprise du secteur industriel et défense recherche un Data Scientist expert afin d’exploiter des données issues de capteurs et systèmes industriels (HUMS et données de pannes). La mission vise à développer des modèles de maintenance prédictive et à réaliser des analyses avancées de fiabilité et de durée de vie des systèmes. Missions principales Collecter, nettoyer et structurer des données industrielles complexes (HUMS, pannes, capteurs) Explorer et analyser les données afin d’identifier des corrélations entre usage et défaillances Développer des modèles de maintenance prédictive Réaliser des analyses statistiques avancées et de survivance Mettre en œuvre des modèles de fiabilité (Kaplan-Meier, Weibull) Interpréter les résultats et produire des recommandations exploitables Documenter les modèles, processus et résultats Restituer les analyses sous forme de livrables clairs et exploitables Livrables attendus État des lieux et structuration des données industrielles Analyse des corrélations entre usage et pannes Étude de survivance des systèmes Documentation des modèles et méthodologies utilisées Synthèse des résultats pour les équipes métiers Informations clés Localisation : Versailles-Satory (Île-de-France) Démarrage : mi-juin 2026 Durée : prestation forfaitaire avec suivi par lots Temps plein Forte présence sur site dans un environnement sécurisé
Offre d'emploi
Data Engineer Semarchy (H/F)
CELAD
Publiée le
36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Mission freelance
Data Engineer Semarchy (H/F)
CELAD
Publiée le
1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)
Freelance.com
Publiée le
Big Data
5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
Mission freelance
Senior data analyst
Mon Consultant Indépendant
Publiée le
Data analysis
12 mois
540-590 €
Bruxelles, Bruxelles-Capitale, Belgique
Compétences principales attendues : Projet : analyse des besoins clients, proposition de solutions techniques, conception et rédaction de spécifications, tests. Suivi de la mise en œuvre jusqu’à la livraison : coordination des parties prenantes IT, Métier etc., veiller au respect des contraintes de budget, de qualité et de délais. Support et amélioration continue : rester à jour sur les bonnes pratiques du secteur et les technologies émergentes. Fournir un support opérationnel aux utilisateurs finaux, notamment en analysant et en résolvant les problèmes liés aux données et au reporting lorsqu’ils surviennent. IT : Les principales applications sont Datahub, Bloomberg, Markit, Adjuto, Salesforce, Databricks, Microsoft Azure Logic Apps, RabbitMQ et des applications internes. Expérience avérée en tant que développeur ou dans un rôle similaire, idéalement dans un environnement de conseil ou de services financiers. Bonne compréhension des concepts d’architecture data et expérience de travail avec Datahub ou des plateformes similaires de Master Data Management. Bonne compréhension des marchés privés et/ou de la gestion d’actifs alternative est fortement souhaitée. Anglais courant.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1422 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois