L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 74 résultats.
Mission freelance
Data Architecte (Secteur Energie / Industrie)
Publiée le
Apache Airflow
Apache Spark
Architecture
12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Mission freelance
Architecte Data – Expert Azure
Publiée le
Azure
Big Data
3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Mission freelance
Consultant·e senior Metadata & Contenus
Publiée le
Data analysis
Gestion de projet
4 mois
580-640 €
Paris, France
Télétravail partiel
Contexte Mission d’étude au bénéfice d’un client (organisation de presse – anonymisée), sans prestation de développement à ce stade. Coordination avec la DSI en charge des métadonnées. Échanges préalables déjà tenus ; la présente fiche formalise le périmètre à présenter avant contractualisation. Interlocuteurs et coordination Côté client : DSI en charge des métadonnées. Demande associée : partage des coordonnées des personnes clés côté prestataire pour une présentation du périmètre de mission avant formalisation. Objectif de planification Cible de chiffrage : avant Noël. Démarrage envisagé : début 2026, sous réserve de validation par la DSI. Objectifs « high level » de la mission (phase initiale) Analyse concurrentielle des métadonnées : comparaison [Client – organisation de presse] vs Reuters, AP, et autres acteurs à déterminer. Analyse des besoins clients en metadata dans leurs systèmes CMS / DAM / MAM, avec un focus spécifique sur les usages « AI‑friendly ». Recommandations d’actions. Description détaillée du besoin 1) Analyse concurrentielle des métadonnées Construire une grille de comparaison couvrant : modèles de métadonnées (schéma, champs obligatoires/optionnels), taxonomies/ontologies, politiques de nommage, qualité/complétude, mécanismes d’identifiants, historisation/versioning, exposition via APIs, et modalités de licence/usage. Cadrer les sources publiques et matériaux accessibles des acteurs ciblés (Reuters, AP, autres à confirmer) et expliciter les limites éventuelles. Évaluer l’alignement/déviations du [Client – organisation de presse] par rapport aux pratiques observées, avec exemples représentatifs. 2) Besoins clients metadata dans CMS / DAM / MAM Conduire des entretiens structurés avec un panel représentatif de clients/intégrateurs (rôles : équipes CMS, responsables DAM/MAM, data/AI) pour cartographier les besoins par parcours : ingest → édition → publication → réutilisation. Identifier les champs et structures « AI‑friendly » prioritaires (désambiguïsation, liens entité‑événement, timestamps normalisés, droits/licensing, source, provenance) et les contraintes d’ingestion/export (formats, payloads, latence, webhooks). Formaliser les attentes d’intégration : modèles d’API (REST/GraphQL), filtres, pagination, recherche/facettes, webhooks, documentation attendue, exemples de réponses, politiques de versioning et SLA de fraîcheur/qualité. 3) Recommandations d’actions Produire des options de convergence par paliers (quick wins vs chantiers structurants), avec impacts estimés sur qualité des métadonnées, réutilisabilité, et compatibilité IA. Proposer une trajectoire de normalisation (champ par champ / structure par structure), des règles de gouvernance (dictionnaire, contrôles automatiques, métriques de complétude), et les prérequis organisationnels. Préparer le chiffrage et les hypothèses associées, adaptés à la cible « avant Noël » pour décision de lancement début 2026. Périmètre de la phase initiale Cadrage et restitution du périmètre aux parties prenantes identifiées par la DSI Metadata. Prise en compte des échanges précédents comme base de travail. Inclusion des trois volets listés dans les objectifs « high level ». Hypothèses et dépendances Validation interne DSI nécessaire pour enclencher un démarrage début 2026. Identification et disponibilité des personnes clés côté prestataire et côté [Client – organisation de presse] pour la présentation de cadrage. Livrables attendus (alignés sur les objectifs « high level ») Restitution d’analyse concurrentielle métadonnées [Client – organisation de presse] vs acteurs cités. Synthèse des besoins clients metadata dans CMS / DAM / MAM, avec attention aux usages « AI‑friendly ». Recommandations d’actions.
Mission freelance
Head of Data
Publiée le
Gouvernance
Management
Pilotage
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Mission freelance
BI Engineer & Analytics Engineer (Tableau / dbt)
Publiée le
Azure Data Factory
BI
Big Data
12 mois
400-470 €
Lille, Hauts-de-France
Télétravail partiel
L’équipe People Data a pour vocation de soutenir la stratégie RH d’une entreprise internationale en accompagnant le développement, le bien-être et la performance de ses collaborateurs. Au cœur de la transformation de l’organisation, cette équipe met la donnée au service des équipes RH, Talent Development, Engineering et Product afin de piloter, comprendre et anticiper les dynamiques humaines et organisationnelles. Composée de Data Product Managers, Data Analysts, BI Engineers, Analytics Engineers, Data Engineers et d’experts en gouvernance de données, elle développe des produits et des solutions innovants de People Analytics à forte valeur ajoutée. Dans ce cadre, nous recherchons un(e) BI Engineer & Analytics Engineer (Tableau / dbt) pour accompagner les équipes Talent Development sur un périmètre international. 🎯 Mission principale Concevoir, développer et maintenir des solutions de reporting et de data visualisation fiables, automatisées et pertinentes, au service des équipes Talent Development et RH. 🧩 Responsabilités Développer et maintenir des reportings auditables, légaux ou stratégiques à destination des équipes Talent Development. Assurer la réconciliation et la cohérence des données issues de différentes sources et pays. Garantir la qualité, la fiabilité et la traçabilité des données et des indicateurs produits. Concevoir, optimiser et automatiser des dashboards Tableau pour le suivi des KPIs RH. Participer à toutes les phases du cycle projet : du cadrage au déploiement en production, puis assurer le run des solutions. Proposer des visualisations et modèles de données pertinents et adaptés aux usages métiers. Contribuer aux rituels agiles (daily, sprint review, rétrospective). Rédiger et maintenir la documentation technique (modèles dbt, dashboards, pipelines, bonnes pratiques). Collaborer avec les équipes Data et RH (Data Product Managers, Data Engineers, métiers Talent Development, etc.). 🧠 Compétences requises Techniques CompétenceNiveau requis Tableau Confirmé dbt Confirmé SQL Confirmé Python Avancé Modélisation de données Confirmé Git / GitHub Confirmé Méthodologie Agile (Scrum, Kanban) Avancé Soft Skills Forte autonomie et sens de la responsabilité. Capacité d’analyse et regard critique sur la qualité des données. Aisance dans la communication avec des profils non techniques . Esprit d’équipe, collaboration et partage des bonnes pratiques. Orientation produit et business , avec une bonne compréhension des enjeux RH et Talent Development. 📍 Localisation & modalités Lieu : Lille Télétravail : possible de manière occasionnelle Langues : Français courant, Anglais professionnel
Offre d'emploi
ARCHITECTE DATA / BI / POWER BI SENIOR
Publiée le
Azure
Microsoft Power BI
3 ans
40k-60k €
400-650 €
Paris, France
Télétravail partiel
Bonjour 🙃, Pour le compte de notre client, nous recherchons un Architecte DATA / BI / CLOUD AZURE / POWER BI. Contexte : Dans le cadre de projets stratégiques de transformation digitale et d’exploitation des données, nous recherchons un Architecte Data expert sur les environnements Azure et outils Power BI . Le consultant sera intégré aux équipes Data & BI pour définir l’architecture cible, piloter les projets d’intégration, et garantir la qualité et la sécurité des flux de données. Missions principales : Définir et mettre en œuvre l’architecture Data sur le cloud Azure (Data Lake, Data Factory, Databricks, Synapse). Concevoir et structurer les pipelines de données pour ingestion, traitement et transformation des données massives. Développer et superviser des solutions Power BI : dashboards, rapports, cubes tabulaires, DAX, modèles analytiques. Assurer la qualité, sécurité et gouvernance des données , en lien avec les référents Data et équipes infrastructure. Piloter les phases de modélisation et intégration des données, en collaboration avec les Data Engineers et Data Analysts. Participer à la définition des standards de développement , bonnes pratiques et documentation technique. Réaliser des revues techniques et valider les choix d’implémentation des équipes projet. Conseiller les métiers sur l’exploitation des données et la prise de décision via les outils BI . Participer à l’accompagnement et formation des équipes sur les pratiques et outils Data. Compétences techniques indispensables : Expertise en Azure Data Platform : Data Lake, Data Factory, Synapse Analytics, Databricks. Maîtrise des langages SQL / T-SQL et des pratiques de modélisation de données. Power BI : développement de dashboards, rapports, modèles analytiques et DAX. Connaissance des ETL/ELT , pipelines et intégration de flux complexes. Connaissance de la sécurité, gouvernance et gestion des accès aux données. Expérience avec CI/CD sur Azure DevOps et versioning. Compétences transverses : Vision globale et capacité à traduire les besoins métiers en architecture technique. Leadership et capacité à piloter et conseiller des équipes techniques. Excellent relationnel et communication avec les équipes techniques et métiers. Sens de l’organisation et capacité à gérer plusieurs projets simultanément.
Mission freelance
Ingénieur DATA BI H/F
Publiée le
BI
DAX
Power Query
1 an
Île-de-France, France
Télétravail partiel
Contexte business Accompagner les Business Process Owners en leur fournissant des dashboards et des analyses pertinentes sur les données issues : Principalement de Cornerstone onDemand pour la première personne qui travaillera sur les données formation Sur les données issues de Workday pour la seconde personne qui travaillera sur les données Talent & Performance Objectifs du projet Au sein du HR Data Office, vous accompagnerez les Business Process Owners de la formation et du Talent & Performance dans la définition, la création de tableaux de bords PowerBI et la mise en avant des éléments pertinents pour servir ces deux fonctions. Résultats attendus & Enjeux L’analytics engineer est le pont entre le métier et le SI, garantissant que les visualisations de données créées répondent aux objectifs et aux attentes des Business Process Owners. Définir et proposer des indicateurs de suivi clés pour et avec les équipes Proposer des indicateurs pertinents Analyses de données d’apprentissage quantitatives et qualitatives Créer, mettre à jour et maintenir les dashboards Power BI Etudier les différentes options de reporting de la plateforme Cornerstone onDemand pour la première personne qui travaillera sur les données de formations et avoir une expertise sur les reportings existants de la plateforme Workday pour la personne qui travaillera sur les données de Talent & Performance Présenter les dashboards et rapports aux équipes et stakeholders Fournir une documentation détaillée de ce qui sera mis en place. Sujet (Préciser les problématiques et les besoins ainsi que les objectifs de retour sur l’investissement Définir les exigences de dashboard : Le/La Analytics Engineer, orienté/e métier (donc ayant des connaissances sur l’outils de formation Cornerstone onDemande ou Workday), doit assurer la liaison entre les BPOs et les équipes techniques. Il/elle doit traduire et prioriser les besoins métier en exigences claires pour la création des dashboards. Créé, maintenir des Dashboards sous PowerBI : Le/La Analytics Engineer devra maintenir et faire évoluer les dashboards existants, et également en créer de nouveaux en fonction des besoins du service. Analyser l’existant : Il/Elle doit examiner les données historiques et actuelles pour identifier les points forts et les domaines d’amélioration. Il/Elle doit fournir des insights basés sur ces données afin d’aider à la prise de décision et d’améliorer la partie opérationnelle. Identifier les tendances : L’analyse des données doit permettre de détecter les tendances émergentes, les comportements récurrents et les anomalies. Support à la Prise de Décision : Fournir un support analytique pour les décisions stratégiques et opérationnelles, en expliquant les résultats de l'analyse et en aidant les parties prenantes à interpréter les données. Il/Elle doit être force de proposition pour définir les KPIs pertinents pour mettre en avant les impacts au sein du client. Livrables du fournisseur (rapports / documentation) Dashboards on PowerBI Reports on cornerstone Reports on Workday Documentations on the developed dashboards KPIs
Mission freelance
Product Lead Data / Directeur projet (Montpellier)
Publiée le
Data governance
Product management
12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
Mission freelance
Data analyst Power BI / Cognos Orleans. 2 jours de TT.
Publiée le
Cognos
Microsoft Power BI
12 mois
400-450 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Data analyst Power BI / Cognos Orleans. 2 jours de TT. Environnement technique : Microsoft Power BI Desktop, Report server IBM COGNOS Analytics C11. Base de données : HP Vertica 10.1. Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes : Autour de Power BI : être le point de contact technique des utilisateurs finaux ou des réalisateurs de Power BI Desktop, réalisation de reporting complexes Conception et implémentation de Datamarts Autour de COGNOS : analyse d’expression de besoin, création et évolution de rapport / Conception de pack Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. Connaissances organisationnelles : Suivi de projet en tant que contributeur MOE Relation avec un infogérant Relation avec des équipes sécurité / réseau /etc. Connaissances techniques : Le profil recherché doit maitriser les solutions techniques suivantes : Power BI Desktop / Power BI Report Server / DAX / RLS - expérience : 2 années minimum Modélisation de données : constitution de datamart - expérience : 4 années minimum COGNOS C11 : conception de rapport - expérience : 1 années minimum COGNOS C11 : framework - expérience : 1 années minimum Optimisation SQL - expérience : 4 années minimum Idéalement des connaissances sur l’administration fonctionnelle ou technique d’une plateforme Power BI Report server (on premise) Il faut la double compétence Power Bi / Cognos et un très bon relationnel.
Mission freelance
Administrateur / Expert Big Data (Cloudera)
Publiée le
Apache Spark
Cloudera
Hadoop
3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Mission freelance
Architecte Cloud & Applications (Azure / Business Central / Power Platform / Data)
Publiée le
Azure
ERP
12 mois
600-700 €
Hauts-de-France, France
Missions principales 1. Conception de l’architecture Définir, documenter et maintenir l’architecture cible sur Azure, en lien avec : Business Central , Power Platform , Microsoft Fabric , Entra ID , les solutions de Data Management . Challenger la vision architecture proposée par l’éditeur et l’intégrateur pour garantir : la scalabilité , la sécurité , la cohérence d’intégration , les coûts maîtrisés , et l’adéquation avec les cas d’usage Kiloutou. Assurer la cohérence et l’alignement des modules déployés par BU, tout en prenant en compte les spécificités locales. 2. Identité, sécurité et conformité (en collaboration avec l’Architecte sécurité / RSSI) Piloter l’intégration Microsoft Entra ID ↔ Active Directory on-premise (IAM, RBAC, authentification, habilitations). Garantir la conformité aux standards de sécurité : Zero Trust , GDPR , normes et politiques Groupe. Appliquer les principes de gouvernance API et des habilitations inter-BU. 3. Intégration applicative & API Management Encadrer la mise en œuvre du Hub API (Twoday, API Management) et son interaction avec : Business Central, MDM, Power Apps, Snowflake, Microsoft Fabric, autres systèmes métiers. Définir ou appliquer des standards d’API : sécurité, monitoring, SLA, lifecycle. Garantir la maintenabilité , la résilience et la performance des flux inter-systèmes. Assurer l’ observabilité des applications du programme (logs, traces, métriques). 4. Data & Analytics (en collaboration avec les équipes Data) Définir ou appliquer les patterns d’intégration des données ERP vers : Snowflake, Microsoft Fabric, Power BI, Tableau. Garantir la qualité , la traçabilité et la gouvernance des données partagées au niveau international. Optimiser les architectures data pour la performance et la maîtrise des coûts . 5. Support aux BU internationales Adapter l’architecture cible aux contraintes locales (réglementaires, techniques, business, organisationnelles). Définir des principes modulaires et composables pour permettre une déclinaison par BU tout en gardant la cohérence Groupe. Coacher les équipes locales sur la bonne utilisation : des services Azure, de la Power Platform, des standards d’intégration et de gouvernance. 6. Pilotage & collaboration Travailler en étroite collaboration avec : les équipes Produit (Business Central), les intégrateurs, les équipes IT locales et globales, les équipes architecture d’entreprise et sécurité. Établir et maintenir la cartographie applicative et technique du programme. Participer aux comités d’architecture et de sécurité (CAS) en portant la vision technique du programme. Compétences requises Techniques Cloud & Azure : maîtrise d’Entra ID, Azure DevOps, API Management, Azure Files, Microsoft Fabric. ERP & Dynamics : bonne compréhension de Business Central, extension AL, pipelines DevOps, modules et intégrations. Data & Analytics : patterns d’intégration vers Snowflake, Power BI, Tableau, Fabric. Sécurité & IAM : Active Directory, AD Connect, RBAC, principes Zero Trust. Intégration & API : conception d’API, middleware, monitoring, performance, gouvernance. Méthodologie : architecture d’entreprise (TOGAF/Zachman), DevOps, Agile, principes modulaires/composables. Soft skills Capacité à challenger Microsoft et les intégrateurs. Communication claire, leadership transverse. Sens politique dans un contexte international. Profil recherché Bac+5 (école d’ingénieur ou master informatique). 8+ ans d’expérience en architecture cloud , dont 3+ ans sur Azure. Expérience confirmée dans les programmes ERP internationaux , idéalement sur Business Central ou D365 F&O. Connaissance des environnements multi-BU , des enjeux de localisation et de régionalisation. Anglais courant (contexte international). Livrables attendus Schéma directeur de l’architecture cible (groupe + déclinaisons BU). Cadre de gouvernance API et data. Standards d’habilitation et de sécurité . Modèle de déploiement international (blueprint Azure + Business Central). Cartographie applicative et technique à jour. Roadmap technique alignée avec la roadmap produit du programme.
Mission freelance
Data Analyst Informatica
Publiée le
Data analysis
Informatica
PowerBI
1 an
300-450 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Offre d'emploi
Développeur DRUPAL H/F
Publiée le
Data analysis
Drupal
Javascript
4 ans
Île-de-France, France
Télétravail partiel
La mission se déroulera au sein de l’équipe API composée de collaborateurs experts la mise en œuvre d’architecture orientée service. La mission de l’équipe API est de : - Promouvoir l’approche API au sein des différents métiers de notre client - Aider les métiers et les domaines études à définir et à mettre en œuvre leur stratégie architecture orientée service : étude de l’existant, et trajectoire de mise en œuvre par SI en lien avec les normes et bonnes pratiques du groupe. - Représenter dans les instances du groupe en lien avec les projets API Nous recherchons un Développeur Javascript fullstack pour développer les outils et les applications front liées aux activités de Design API et gestion des gateway. En qualité de Développeur Javascript Fullstack, les missions sont : * Participer à la conception des outils de Design et du portail d'administration de gateway * Développer les features/users stories * Réaliser les tests unitaires et d'intégration * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD
Offre d'emploi
Data Analyst Order to Cash
Publiée le
50k-65k €
Neuilly-sur-Seine, Île-de-France
Présentation du Poste Nous recherchons un Analytics Engineer Senior disposant d’au moins 6 ans d’expérience , alliant une forte expertise technique et une vision end-to-end de la chaîne de données : de l’ingestion à la transformation, jusqu’au reporting. Le/la candidat(e) contribuera à la construction, l’industrialisation et l’optimisation de la data platform, au service des besoins métiers et d’un contexte international exigeant. Connaissances Métier Très bonne compréhension du processus Order-to-Cash (O2C) dans un environnement international. Capacité à appréhender les divergences entre processus locaux et processus groupe. Aisance dans la gestion de différentes typologies d’organisation (local, régional, global). Hard Skills – Compétences Techniques Expertise confirmée en tant qu’ Analytics Engineer , idéalement dans des environnements data à grande échelle. Maîtrise de GCP (BigQuery) , DBT , GitLab CI/CD , Azure Data Factory . Excellentes compétences en modélisation et transformation des données, notamment pour des usages Power BI . Forte capacité d’analyse, de résolution de problèmes et d’optimisation. Connaissance appréciée de SAP et des flux associés. Orientation marquée vers l’ industrialisation , l’ automatisation et la gouvernance des données. Soft Skills – Savoir-être Autonomie, rigueur et capacité à évoluer dans un environnement complexe et mouvant. Expérience dans la collaboration avec des équipes internationales et multiculturelles . Agilité, flexibilité et forte capacité d’adaptation. Excellentes compétences de communication, avec aptitude à vulgariser les sujets techniques auprès d’interlocuteurs variés. Langues Anglais : Très bon niveau oral et écrit, permettant d’animer des workshops métiers en anglais.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
74 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois