L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 11 résultats.
Mission freelance
Manager Platform Data & Analytics
Publiée le
CoreData
6 mois
500-650 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un manager Platform Data et Analytics. Cette mission concerne la gestion transitoire d’un poste de manager Platform Data et Analytics chez le client, en attendant le recrutement d’un successeur. Elle inclut la prise en main, le pilotage des missions ainsi que le transfert des responsabilités : · Handover pour prendre la main sur les missions · Pilotage des missions · Handover pour transférer la mission vers le successeur. Les deux missions principales sont : 1. Assistance au pilotage de la Federated Data Platform 2. Pilotage IT du projet SSOT (Single Source of Truth) En tant que Data Product Manager au sein des équipes Corporate IT, votre mission principale est de piloter les évolutions (via les quaterly releases) via la joint design autorithy & d'être en support eux entités. En travaillant & en étant aligné avec les directeurs Data et travaillant de concert avec le data / solution architect et le Cloud Architect la mission couvre : · Définition et pilotage de la roadmap produit : Élaborer et maintenir la feuille de route stratégique de la plateforme et des services data partagés, en tenant compte des besoins métiers, des priorités et des évolutions des éditeurs (par exemple roadmap MS Fabric). · Identification et valorisation des synergies : Collaborer avec les divisions, les régions et les fonctions Corporate pour détecter les opportunités de mutualisation et maximiser la valeur ajoutée des initiatives data à l’échelle mondiale. · Gestion des évolutions et arbitrages : Piloter les demandes d’évolutions de la plateforme avec les divisions et les régions, coordonner les arbitrages et veiller à l’alignement avec la stratégie data globale. · Garant du Delivery et du Run : Superviser le développement et le bon fonctionnement des produits data (Federated Data Platform), suivre les indicateurs de performance (KPI) et assurer un support continu aux utilisateurs. · Gouvernance des services data : Animer la gouvernance data autour de thèmes clés tels que le Federated Data Platform (avec la joint design authority) en impliquant les parties prenantes des divisions et régions. · Support à la réussite des Use Case : S’assurer que la plateforme répond aux besoins des programmes stratégiques (Programme Hero, ORION, ESG, …) et accompagne efficacement la réalisation des use cases data (des divisions, régions, corporate). · Accompagnement au changement et formation : Être le point de contact privilégié pour le déploiement et l’adoption des solutions, organiser la montée en compétence des équipes et recueillir les feedbacks pour améliorer les services. Remarque: le partenaire de la Federated Data Platform est la société ONEPOINT (En France)
Mission freelance
Tech Lead Kubernetes (Java/Quarkus) – Fullstack
Publiée le
CI/CD
Java
Javascript
1 an
400-730 €
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons un(e) Tech Lead Kubernetes pour rejoindre une équipe d’experts en architecture orientée services et conteneurs. La mission s’inscrit dans un contexte de transformation digitale et d’innovation, avec un fort focus sur les technologies web, API, mobile, Data & Analytics, et CI/CD. Missions principales : Développer et maintenir des applications conteneurisées sur Kubernetes/OpenShift. Participer à la conception et au développement des outils internes de l’équipe conteneur. Mettre en œuvre les bonnes pratiques GitOps avec ArgoCD sur plusieurs projets. Réaliser les tests unitaires et d’intégration. Documenter les développements et intégrer les composants dans la chaîne CI/CD. Participer à des POC et à l’évolution des pratiques DevOps.
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-67k €
400-550 €
Île-de-France, France
Objectif de la mission Au sein du Pole Data & Analytics, dans l’équipe Data Monitoring Réseaux, dont la fonction principale est de délivrer les reportings et les Dashboard pour le réseau d’agence, nous étoffons notre équipe de data Analysts pour répondre aux demandes du Plan Stratégique 2026-2030. Prestations demandées Les missions sont : - Analyse, création, évolution et modification des traitements de données (création d'indicateurs & des codes références) - Uniformisation technique des processus de traitement de données - Supervision du bon déploiement des nouveaux processus de traitement - Vérification de la bonne intégration des données et de leurs référencements (mise à jour des glossaires associés) - Mise en place, maintenance et test des jeux de données - Automatisation des programmes avec DataIku - Prise en charge à la réalisation de la Visualisation avec Tableau (Desktop / Serveur) La maitrise de DataIku et de SQL sont indispensables. La maitrise de Tableau et SAS seraient de vrais plus.
Offre d'emploi
Data Analyst/Product Owner Supply Chain (2-5ans) (H/F)
Publiée le
Python
SQL
Supply Chain
3 ans
10k-55k €
100-480 €
Paris, France
Télétravail partiel
Nous recherchons un Data Analyst/PO (H/F) pour rejoindre la direction Data & Analytics d’un grand acteur du retail engagé dans un vaste programme de transformation analytique. 🎯 L’objectif ? Faire le lien entre les équipes métier (notamment Supply Chain) et les équipes data, afin de transformer les besoins opérationnels en solutions analytiques concrètes, impactantes et alignées avec la stratégie data du groupe. 🚀 Tes missions principales : 🎯 Analyse & accompagnement métier Identifier, comprendre et traduire les besoins des équipes opérationnelles en opportunités data & analytics Mener en totale autonomie des analyses ad-hoc : cadrage, extraction, traitement et restitution Communiquer les résultats aux équipes métier avec pédagogie, transparence et esprit critique Mettre en avant les limites, biais et axes d'amélioration des analyses réalisées 🧩 Pilotage de produits analytiques Tu endosseras également le rôle de Product Owner Data au sein d’une squad produit pluridisciplinaire : Définir la vision produit et la roadmap analytique en cohérence avec la stratégie globale Prioriser les besoins métier, identifier les problématiques analytiques à résoudre Rédiger les User Stories et spécifications nécessaires au delivery Planifier et suivre le développement des fonctionnalités analytiques Participer aux rituels agile (daily, sprint planning, refinements…) Définir et suivre les indicateurs de succès de chaque produit analytique Garantir l’adoption et l’utilisation des produits par les équipes métier 🔧 Environnement technique & outils : Données : SQL, BigQuery DataViz : Tableau, Google Looker Studio Versioning / Delivery : GitLab Langage complémentaire : Python (atout) Méthodologie : Agile (Scrum, Sprint Planning, Backlog…)
Offre d'emploi
Consultant·e Senior Data et Power BI
Publiée le
40k-60k €
France
Télétravail partiel
Nous recrutons en CDI un·e Consultant.e Senior Data & BI - Microsoft Fabric & Power BI ! Vous rejoignez une équipe orientée Business Applications et Intelligence Artificielle, avec pour mission de structurer et développer la pratique Data autour de Microsoft Fabric et Power BI. Ce rôle est stratégique pour accompagner nos clients dans la modernisation de leurs solutions analytiques. Vos futurs défis : o Architecture & Data Engineering - Déployer des solutions Microsoft Fabric (OneLake, Lakehouse, Dataflows Gen2, pipelines). - Mettre en place la gouvernance des données, la sécurité et les processus CI/CD. - Collaborer avec les experts Business Apps & IA pour intégrer la donnée dans les applications métiers. o Business Intelligence & Reporting - Concevoir des rapports et dashboards interactifs avec Power BI. - Optimiser les modèles de données et les performances (DAX, M). - Accompagner les métiers dans le self-service BI. o Innovation & Conseil - Participer à la définition de notre offre Data & Analytics. - Contribuer à des projets IA en exploitant les données (préparation, qualité, intégration). - Assurer une veille technologique sur Fabric, BI et IA.
Mission freelance
Data Engineer Azure / Snowflake
Publiée le
Azure
Databricks
Snowflake
12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Mission freelance
Architecte Cloud & Applications (Azure / Business Central / Power Platform / Data)
Publiée le
Azure
ERP
12 mois
600-700 €
Hauts-de-France, France
Missions principales 1. Conception de l’architecture Définir, documenter et maintenir l’architecture cible sur Azure, en lien avec : Business Central , Power Platform , Microsoft Fabric , Entra ID , les solutions de Data Management . Challenger la vision architecture proposée par l’éditeur et l’intégrateur pour garantir : la scalabilité , la sécurité , la cohérence d’intégration , les coûts maîtrisés , et l’adéquation avec les cas d’usage Kiloutou. Assurer la cohérence et l’alignement des modules déployés par BU, tout en prenant en compte les spécificités locales. 2. Identité, sécurité et conformité (en collaboration avec l’Architecte sécurité / RSSI) Piloter l’intégration Microsoft Entra ID ↔ Active Directory on-premise (IAM, RBAC, authentification, habilitations). Garantir la conformité aux standards de sécurité : Zero Trust , GDPR , normes et politiques Groupe. Appliquer les principes de gouvernance API et des habilitations inter-BU. 3. Intégration applicative & API Management Encadrer la mise en œuvre du Hub API (Twoday, API Management) et son interaction avec : Business Central, MDM, Power Apps, Snowflake, Microsoft Fabric, autres systèmes métiers. Définir ou appliquer des standards d’API : sécurité, monitoring, SLA, lifecycle. Garantir la maintenabilité , la résilience et la performance des flux inter-systèmes. Assurer l’ observabilité des applications du programme (logs, traces, métriques). 4. Data & Analytics (en collaboration avec les équipes Data) Définir ou appliquer les patterns d’intégration des données ERP vers : Snowflake, Microsoft Fabric, Power BI, Tableau. Garantir la qualité , la traçabilité et la gouvernance des données partagées au niveau international. Optimiser les architectures data pour la performance et la maîtrise des coûts . 5. Support aux BU internationales Adapter l’architecture cible aux contraintes locales (réglementaires, techniques, business, organisationnelles). Définir des principes modulaires et composables pour permettre une déclinaison par BU tout en gardant la cohérence Groupe. Coacher les équipes locales sur la bonne utilisation : des services Azure, de la Power Platform, des standards d’intégration et de gouvernance. 6. Pilotage & collaboration Travailler en étroite collaboration avec : les équipes Produit (Business Central), les intégrateurs, les équipes IT locales et globales, les équipes architecture d’entreprise et sécurité. Établir et maintenir la cartographie applicative et technique du programme. Participer aux comités d’architecture et de sécurité (CAS) en portant la vision technique du programme. Compétences requises Techniques Cloud & Azure : maîtrise d’Entra ID, Azure DevOps, API Management, Azure Files, Microsoft Fabric. ERP & Dynamics : bonne compréhension de Business Central, extension AL, pipelines DevOps, modules et intégrations. Data & Analytics : patterns d’intégration vers Snowflake, Power BI, Tableau, Fabric. Sécurité & IAM : Active Directory, AD Connect, RBAC, principes Zero Trust. Intégration & API : conception d’API, middleware, monitoring, performance, gouvernance. Méthodologie : architecture d’entreprise (TOGAF/Zachman), DevOps, Agile, principes modulaires/composables. Soft skills Capacité à challenger Microsoft et les intégrateurs. Communication claire, leadership transverse. Sens politique dans un contexte international. Profil recherché Bac+5 (école d’ingénieur ou master informatique). 8+ ans d’expérience en architecture cloud , dont 3+ ans sur Azure. Expérience confirmée dans les programmes ERP internationaux , idéalement sur Business Central ou D365 F&O. Connaissance des environnements multi-BU , des enjeux de localisation et de régionalisation. Anglais courant (contexte international). Livrables attendus Schéma directeur de l’architecture cible (groupe + déclinaisons BU). Cadre de gouvernance API et data. Standards d’habilitation et de sécurité . Modèle de déploiement international (blueprint Azure + Business Central). Cartographie applicative et technique à jour. Roadmap technique alignée avec la roadmap produit du programme.
Offre d'emploi
Développeur SPARK/ SCALA
Publiée le
Apache Kafka
Apache Maven
Apache Spark
3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)
Offre d'emploi
Manager Data / Lead Data
Publiée le
Azure
Azure Data Factory
Python
60k-80k €
Paris, France
Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.
Mission freelance
Ingénieur de production - Data / GCP
Publiée le
Big Data
Google Cloud Platform (GCP)
Production
12 mois
450-500 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
Offre d'emploi
Consultant IA (FH)
Publiée le
IA Générative
3 mois
60k-68k €
500-510 €
Paris, France
Télétravail partiel
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Consultant IA (FH) pour accompagner l’un de nos clients, acteur majeur du secteur bancaire. Le poste est à pourvoir ASAP jusqu’au 31 décembre 2025 minimum (potentiellement renouvelable en fonction du budget client pour 2026) , et est situé à Paris . Le poste est ouvert sur un contrat CDD ou Freelance. Contexte L’Intelligence Artificielle est devenue une priorité stratégique importante pour notre client. Le ComEx de ce dernier a validé le lancement d’une mission transverse avec 2 objectifs principaux : · Construire une liste exhaustive de cas d’usage d’IA pertinents pour l’entité CPBS (Commercial, Personal Banking & Services), avec une première macro-priorisation. · Réaliser une évaluation du potentiel de transformation des cas d’usage IA prioritaires, avec chaque entité CPBS ; et mesurer l’avancement de chaque entité vis-à-vis de ce potentiel. L’équipe AI Inside Transformation du stream Data & Analytics du programme, qui a pour responsabilité les sujets de Stratégie, Gouvernance & Communication IA , est responsable de mener cette mission (avec la participation d’autres équipes). Prestations demandées Le besoin premier est un accompagnement immédiat de l’équipe AI Inside Transformation pour : · Préparer et animer les ateliers hebdomadaires avec les entités sur cette 1e phase de mission , notamment sur les cas d’usage d’IDP (traitement automatique de documents) et Assistants Virtuels pour les employés. · Réaliser des analyses, construire des frameworks d’évaluation du potentiel , et travailler avec les SPOCs des entités entre les ateliers. · Participer à la réalisation des livrables de la mission (ex : points de check-in avec les sponsors). · D’autres éléments secondaires pourront être couverts en fonction de la charge & de l’avancement : Ø Aide au lancement d’une stratégie de veille IA. Ø Participation à la rédaction de ‘Position Papers’ sur des sujets d’IA d’intérêt.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
11 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois