L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 441 résultats.
Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble
Publiée le
ETL (Extract-transform-load)
6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Offre d'emploi
Business Analyste Data
Publiée le
Méthode Agile
40k-56k €
Bordeaux, Nouvelle-Aquitaine
Le Business Analyst Data intervient au sein d’une squad Agile, assurant le suivi quotidien du run et la résolution des incidents. Il accompagne les utilisateurs, analyse leurs besoins et anime des workshops pour définir et clarifier les exigences métier. En collaboration avec les équipes techniques, il coordonne les actions connexes (ouvertures de flux, scheduling…), participe à la conception et à la spécification fonctionnelle des solutions data, ainsi qu’au paramétrage de la plateforme. Il contribue au packaging et à la livraison des évolutions, réalise les tests unitaires et d’intégration, et assure le support lors des mises en production ainsi que durant la période de garantie.
Offre d'emploi
Consultant informatique - Business Central (H/F)
Publiée le
35k-45k €
Nancy, Grand Est
Télétravail partiel
Intégré à une équipe dédiée, vous serez amené à : - Analyser et réaliser les paramétrages et développement informatiques dans Business Central et Navision - Répondre aux demandes de correction et d'évolution concernant les projets en production - Assurer le suivi des tickets - Documenter les interventions - Former et assister les utilisateurs - Collaborer avec les équipes techniques
Offre d'emploi
Data Analyst/Product Owner Supply Chain (2-5ans) (H/F)
Publiée le
Python
SQL
Supply Chain
3 ans
10k-55k €
100-480 €
Paris, France
Télétravail partiel
Nous recherchons un Data Analyst/PO (H/F) pour rejoindre la direction Data & Analytics d’un grand acteur du retail engagé dans un vaste programme de transformation analytique. 🎯 L’objectif ? Faire le lien entre les équipes métier (notamment Supply Chain) et les équipes data, afin de transformer les besoins opérationnels en solutions analytiques concrètes, impactantes et alignées avec la stratégie data du groupe. 🚀 Tes missions principales : 🎯 Analyse & accompagnement métier Identifier, comprendre et traduire les besoins des équipes opérationnelles en opportunités data & analytics Mener en totale autonomie des analyses ad-hoc : cadrage, extraction, traitement et restitution Communiquer les résultats aux équipes métier avec pédagogie, transparence et esprit critique Mettre en avant les limites, biais et axes d'amélioration des analyses réalisées 🧩 Pilotage de produits analytiques Tu endosseras également le rôle de Product Owner Data au sein d’une squad produit pluridisciplinaire : Définir la vision produit et la roadmap analytique en cohérence avec la stratégie globale Prioriser les besoins métier, identifier les problématiques analytiques à résoudre Rédiger les User Stories et spécifications nécessaires au delivery Planifier et suivre le développement des fonctionnalités analytiques Participer aux rituels agile (daily, sprint planning, refinements…) Définir et suivre les indicateurs de succès de chaque produit analytique Garantir l’adoption et l’utilisation des produits par les équipes métier 🔧 Environnement technique & outils : Données : SQL, BigQuery DataViz : Tableau, Google Looker Studio Versioning / Delivery : GitLab Langage complémentaire : Python (atout) Méthodologie : Agile (Scrum, Sprint Planning, Backlog…)
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Offre d'emploi
CONSULTANT INGENIEUR - STATISTICIEN SENIOR
Publiée le
Github
SAS
Teradata
1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Le Consultant Ingénieur-Statisticien Senior intervient sur des projets à forte valeur ajoutée, nécessitant une expertise avancée en statistiques appliquées et en traitement de données complexes. Il conçoit et met en œuvre des méthodologies statistiques robustes adaptées aux enjeux métiers, depuis la structuration des bases de données jusqu’à l’analyse avancée et l’interprétation des résultats. Il est responsable de la migration de programmes SAS® complexes vers l’environnement R, en garantissant la fiabilité, la performance et la traçabilité des traitements.
Offre d'emploi
Scrum Master - secteur bancaire – Nantes (F/H)
Publiée le
Méthode Agile
Scrum
40k-50k €
44000, Nantes, Pays de la Loire
Tu es passionné(e) par l’agilité, la dynamique d’équipe et la performance collective ? 💡 On cherche un(e) Scrum Master pour accompagner une squad agile au cœur d’un grand acteur bancaire nantais en pleine modernisation de son SI et de ses pratiques delivery. Tu seras un pilier de la transformation : catalyseur de collaboration, facilitateur du changement et garant(e) du cadre agile. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ce que tu fais au quotidien : Structurer le rythme de la squad en animant les rituels Scrum (daily, sprint review, rétro, planning, refinements…). Installer les conditions d’une collaboration fluide, motivante et orientée valeur. Accompagner l’équipe dans l’adoption des valeurs Scrum, l’auto-organisation et la progression continue. Développer une posture orientée résultats, transparence et amélioration continue. Faciliter le travail autour du backlog en synergie avec le Product Owner. Protéger l’équipe des perturbations externes, clarifier les priorités, fluidifier les dépendances inter-squads. Identifier les obstacles, les rendre visibles et contribuer activement à leur résolution. Représenter l’équipe auprès des parties prenantes et aligner tout le monde autour des objectifs du sprint et du produit. Encourager les initiatives d’optimisation, de qualité logicielle, de communication interne et d’innovation. Contribuer à diffuser les bonnes pratiques agiles au sein des autres squads du programme.
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Offre d'emploi
Data Engineer
Publiée le
BigQuery
Docker
Domain Driven Design (DDD)
1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
Mission freelance
Architecte Data – Expert Azure
Publiée le
Azure
Big Data
3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Mission freelance
Data ingénieur (H/F)
Publiée le
Microsoft Fabric
Python
12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier
Publiée le
Backlog management
Cloudera
Data governance
12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Mission freelance
Consultant Senior Finance de Marché – Solvent Wind Down
Publiée le
Finance
12 mois
400-850 €
Paris, France
Consultant Senior Finance de Marché – Solvent Wind Down / Résolution Bancaire Contexte Nous recherchons un consultant senior en finance de marché pour le compte d’un de nos clients banque dans le cadre d’un projet réglementaire lié à la mise en place de processus de Solvent Wind Down sur les books de trading, en réponse aux attentes du Single Resolution Board (SRB). La mission s’inscrit dans un contexte de renforcement des exigences en matière de résolution bancaire et vise à aligner les dispositifs existants avec les standards réglementaires européens, en capitalisant sur les travaux déjà réalisés pour répondre aux exigences équivalentes de la PRA. Rôles et responsabilités Le consultant interviendra notamment sur les activités suivantes : Analyse des attentes du SRB relatives à la mise en œuvre des processus de Solvent Wind Down appliqués aux activités de marché Réalisation d’une gap analysis entre les exigences du SRB et les dispositifs, outils et processus déjà développés au sein du Groupe pour répondre aux exigences de la PRA Identification des écarts sur les plans réglementaire, fonctionnel et technique Définition et formalisation d’un plan d’action visant à assurer la conformité aux attentes du SRB Contribution aux échanges avec les équipes risques, finance, IT et réglementaires Production de livrables structurés et adaptés à un contexte de supervision réglementaire Compétences requises Profil senior, avec un minimum de 10 ans d’expérience en finance de marché / gestion des risques Solide connaissance des métriques liées aux activités de marché : ressources financières indicateurs de marché données issues des modèles de risque (Basel 2.5, FRTB, etc.) Expérience au sein ou en interaction étroite avec des équipes d’analyse des risques de marché Une expérience préalable sur des programmes de Wind Down / Resolution Planning (ex. TWD pour la PRA) constitue un atout significatif Détails de la mission Type de contrat : Freelance / Consultant indépendant Durée : 1 an minimum Date de démarrage : fin janvier Lieu : Paris
Offre d'emploi
Data Engineer Snowflake - Lyon
Publiée le
Snowflake
40k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Mission freelance
Expert DATA Gouvernance
Publiée le
Data governance
Gouvernance
6 mois
550-620 €
Île-de-France, France
Télétravail partiel
TEKsystems accompagne son client dans la recherche d'un(e) Expert(e) Gouvernance DATA : Dans le cadre d’un programme de transformation Data , nous lançons un chantier stratégique de gouvernance des données . L’objectif est de définir un cadre de modernisation de la gouvernance Data , en lien avec les enjeux de valorisation des données, de structuration des rôles et responsabilités, et de mise en place de processus robustes. L’expert sera intégré à une équipe projet pilotée par notre direction , en étroite collaboration avec les parties prenantes métiers et IT.
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
5441 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois