Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Data Scientist modélisation statistique
Contexte: Lancement d'un programme stratégique de refonte et de modernisation de son système de Pricing & Revenue Management, cœur de la stratégie tarifaire de l'entreprise. Dans ce cadre, nous cherchons à intégrer un Data Scientist senior, expert en modélisation statistique, pour accompagner la refonte de notre modèle de prévision de la demande. Ce poste s’inscrit dans un environnement métier complexe et stimulant, au croisement de la science des données, de l’économie comportementale, et de l’optimisation algorithmique. Objectifs de la mission: Comprendre finement les mécanismes du Revenue Management dans un contexte aérien : dynamiques de réservation, effets prix, anticipation, segmentation, etc. Concevoir, tester et mettre en œuvre un nouveau modèle de prévision de la demande, basé sur des approches de séries temporelles modernes (ML, statistiques bayésiennes, etc.) dans un contexte multi-segments, multi-horizons et incertain. Garantir l’interprétabilité, la robustesse statistique et la fiabilité des prévisions, afin de permettre aux équipes métiers RM d’exploiter efficacement les résultats dans un système de décision. Intégrer une réflexion rigoureuse sur les biais, les sources d’endogénéité, et les incertitudes des modèles, et proposer des moyens de les tester, corriger ou encadrer. Définir et produire des indicateurs de performance prédictive et de qualité statistique, à destination des équipes métiers.
Offre d'emploi
Référent technique Data Scientist - 6 mois - Lille
Référent technique Data Scientist - 6 mois - Lille Un de nos importants clients recherche un Référent technique Data Scientist pour une mission de 6 mois sur Lille. Descriptif de la mission ci-dessous: Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Votre rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte). Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 6+ ans d’expérience en Data Science/MLOps Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Mission freelance
Ingénieur Big Data
Nous recherchons un Ingénieur Big Data Objectif global : Accompagner Plateforme BigData Les livrables sont: Big Data & Traitement Distribués Orchestration de workflow Compétences techniques: Spark - Expert - Impératif Kafka - Confirmé - Impératif Stack HADOOP - Expert - Impératif Description détaillée: - Langages de programmation : Python (maîtrise avancée, développement de pipelines de données, optimisation de code, savoir mettre en place une campagne de tests) - Orchestration de workflow : Apache Airflow (création, gestion et optimisation de DAGs, intégration avec divers services) - Big Data & Traitement Distribués : o Apache Spark (Dév et optimisations) o Spark Streaming avec dépendances Kafka o Cloudera CDP (tuning des traitements) - Stockage et Bases de Données : o Hive, HDFS, (+ Impala et Iceberg dans un futur proche) - Sécurité & Chiffrement : o Chiffrement des flux de données et des bases (TLS, SSL, Kerberos, Hashicorp Vault, PGP) o Ranger KMS (chiffrement du stockage sur le cluster) - DevOps & CI/CD : o Git, GitLab CI/CD, Importance de la qualité de code (Sonar, XRay), Jenkins, XL Deploy o Monitoring (Open Search Dashboard, Grafana, ELK Stack) 3. Méthode de travail - Méthodologies Agile (Scrum, Kanban) 4. Soft Skills - Capacité à prendre des décisions stratégiques sur les choix technologiques - Adaptabilité et réactivité face aux évolutions technologiques - Esprit analytique et résolution de problèmes complexes 5. Expérience Recherchée - Minimum 5 ans d’expérience en Big Data avec un focus sur Spark et Airflow - Expérience en tant que Tech Lead sur des projets complexes - Connaissance approfondie des architectures distribuées

Mission freelance
Consultant SIRH Data - Innovation - Paris (H/F)
Un grand groupe a lancé une stratégie Data (Microsoft Fabric, Power BI, Data Lake). Le domaine RH reste en retard : données silotées, dépendance à une ressource unique, enjeux importants liés à la masse salariale. Missions Recueillir et formaliser les besoins métiers RH (indicateurs : effectifs, absentéisme, turnover, masse salariale…). Rédiger les spécifications fonctionnelles (Pléiades, Horoquartz) et structurer un dictionnaire de données RH. Collaborer avec les équipes Data/BI pour assurer qualité et cohérence des flux (Microsoft Fabric, Power BI). Contribuer à la gouvernance et à la mise à disposition des données RH.

Mission freelance
Chef de projet : Piloter Coordination flux ingestion DATA
📢 Mission freelance – Chef de Projet / Coordinateur Ingestion Data (H/F) 📍 Localisation : Île-de-France (92) 📅 Démarrage : ASAP 📆 Durée : 3 ans 💰 TJM max : 550 € / jour 🎯 Expérience requise : 4 à 10 ans 🏢 Contexte : Rejoignez le pôle Produits/Projets Data pour piloter des flux d’ingestion et d’exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Vous serez l’interface entre les équipes techniques et métiers dans un environnement Cloud Azure. 📌 Vos missions : - Coordonner les projets d’ingestion de données (internes / externes) vers la plateforme Data - Piloter l’exposition des données vers les partenaires (internes / externes) - Garantir la qualité, traçabilité et conformité des flux - Collaborer avec les équipes tech (Data Engineers, Archis, DevOps) et métiers (PO, PM) - Produire et maintenir des tableaux de bord de suivi de flux - Assurer le respect des délais, coûts, qualité - Participer à l’amélioration continue des processus d’ingestion 🛠️ Compétences techniques : - Azure Data Factory – Confirmé (impératif) - Modélisation de données – Confirmé (impératif) - Databricks – Junior (important) - Méthodo Agile / Scrum – Junior (important) - Connaissances : Data Lake, APIs, batch & streaming, documentation de flux - Notions de gouvernance : qualité, catalogage, sécurité, RGPD - Une expérience dans le retail est un vrai plus 🤝 Profil & soft skills recherchés : 🤝 Leadership collaboratif & capacité à fédérer 🗣️ Excellente communication & vulgarisation technique 📌 Rigueur, autonomie, priorisation, gestion multi-projets 🎯 Orientation valeur & résultats 🔍 Curiosité et proactivité : force de proposition attendue 📩 Intéressé(e) ou une personne à recommander ? Contactez-moi en MP ! 🔔 Ne manquez aucune opportunité en suivant Suricate iT : 👉

Offre d'emploi
Data Engineer Cyber
Descriptif du poste Dans le cadre du déploiement du SOC ITG et de la collecte des logs sécurité de ses entités métiers, le bénéficiaire souhaite une prestation en ingénierie Data Collect et Data Transformation autour des solutions techniques Elastic Search et Elastic Beats, pour l'enrichissement d'un "puit de donnée sécurité" pour permettre la corrélation d'événements, et la mise en place d'alerting sur des paterns de sécurité. Missions Mise en place et définition des mécanismes de collecte Définition des patterns d'architectures de la collecte Déploiement de ces dispositifs sur le socle d'infrastructure Groupe, et sur les entités opérées dans les filiales ou à l'étranger Définition et mise en œuvre d'une stratégie de collecte uniforme et standardisée Mise en place de pipelines d'enrichissement de la donnée Maintien condition opérationnelle de la plateforme et des agents de collecte Mise en place de processus d'onboarding de nouvelles sources de logs ou d'assets en liens avec les responsables des systèmes monitorés Support et conseil aux entités utilisatrices des services Maintien et contrôle de la donnée collectée (exhaustivité et qualité)

Mission freelance
Ingénieur(e) Data / Data Ops – Intégration H/F
Nous recherchons pour l'un de nos clients un(e) Ingénieur(e) Data / Data Ops – Intégration afin de contribuer à la mise en place et à l’optimisation des plateformes data du groupe, tout en apportant votre expertise aux équipes d’exploitation. Vous interviendrez sur l’ensemble du cycle de vie des données, de leur intégration à leur exploitation, en veillant à la qualité, la performance et la fiabilité des traitements. Vos missions Participer à la conception et à la mise en œuvre des plateformes data. Mettre en place et administrer les bases de données. Garantir la qualité et la performance des pipelines déployés. Apporter une expertise sur la manipulation et la transformation des données. Collaborer avec les équipes d’exploitation pour optimiser les processus et les outils.

Offre d'emploi
Business Analyst technique (RAG / IA Générative)
Contexte : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'une entité asset IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. Suivre la production afin de garantir la satisfaction du client. Description : Pilotage de l’alignement du système d’information du métier sur les orientations stratégiques et sur les processus métiers Proposition des scénarios d’évolution du système d’information cohérents avec les objectifs et les processus définis Contribution à l’optimisation des processus métiers, des données, des applications et des systèmes associés (détection d’opportunités…) Pilotage de la performance, notamment économique du SI Mise à disposition de la cartographie du système d’information comme un outil d’aide à la décision et au pilotage de la performance Anticipation des changements et de leurs impacts métiers sur le SI, et réciproquement Gestion du budget d'informatisation de son domaine Participation à l'administration du système d’information en termes de référentiels, règles, démarches, méthodologies, objets métier, et outils Évaluation de la cohérence unitaire et globale (portefeuille) des projets par rapport au système d’information (existant/cible) Consolidation des écarts en termes de délais, de coûts ou de qualité Capitalisation de l’ensemble des connaissances sur le système d’information du métier Mise en oeuvre de la qualité de la conduite de projet Gestion de la cartographie des compétences nécessaires à l’évolution du SI
Offre d'emploi
Senior Data Scientist / Software Engineer – Intelligence Artificielle Avancée - 12 mois - Lille
Data Scientist - Lille - 12 mois Un de nos importants clients recherche un Data Scientist pour une mission de 12 mois sur Lille. Descriptif ci-dessous: 🚀 Senior Data Scientist / Software Engineer – Intelligence Artificielle Avancée 📍 Localisation : Lille (flexible avec un présentiel de 3 jrs par semaine sur site) 📅 Démarrage : ASAP 💼 Type de contrat : Mission longue / Freelance ou CDI/CDD selon profil Créez des solutions IA de nouvelle génération pour transformer l’entreprise Vous êtes passionné(e) par l’intelligence artificielle, les architectures LLM (Large Language Models) et le développement de solutions scalables à fort impact ? Nous recherchons un(e) Senior Data Scientist / Software Engineer pour rejoindre notre équipe technique et participer à la conception de solutions IA robustes, innovantes et alignées sur nos enjeux stratégiques. 🔍 Votre mission Intégré(e) au cœur d’une équipe tech agile et ambitieuse, vous piloterez de bout en bout la création d’applications IA modernes basées sur les dernières avancées en deep learning et en engineering LLM. Vos responsabilités principales : 🧠 Conception & Développement de solutions IA Développer des applications IA avancées avec Python, Keras, TensorFlow, LangGraph, LangChain et ZenML Concevoir des infrastructures scalables et performantes, répondant aux normes de documentation et qualité de code 🧩 Pilotage autonome de projets IA Gérer de façon indépendante le cycle complet des projets : design, développement, mise en production Collaborer avec les équipes métier pour s’assurer que les solutions créées répondent à leurs besoins réels 🎯 Expertise et accompagnement Traduire les problématiques métier en solutions IA pertinentes Accompagner les utilisateurs internes dans l’adoption, la compréhension et l’utilisation des outils développés 🛠️ Compétences requises ✅ Python (niveau expert) – Indispensable ✅ Keras / TensorFlow – Expertise avérée ✅ LangChain et LangGraph – Maîtrise avancée requise ✅ ZenML – Compétence confirmée attendue ✅ Documentation technique rigoureuse et respect des standards de développement ✅ Français courant et anglais professionnel (environnement bilingue) 👤 Profil idéal Vous justifiez d’une solide expérience dans la création de solutions IA et de pipelines ML/LLM complexes Vous êtes autonome, proactif(ve), rigoureux(se) et orienté(e) business Vous êtes capable d’articuler des concepts techniques complexes à des interlocuteurs non techniques Vous avez une approche produit et une culture du delivery dans des environnements agiles 🚧 Ce que vous livrerez Des applications IA prêtes à l’emploi, robustes et documentées Une infrastructure data/ML scalable intégrée dans l’environnement technique de l’entreprise Une documentation claire respectant les standards internes Une valeur métier mesurable via l’adoption réussie des solutions déployées ✨ Pourquoi nous rejoindre ? Travailler sur des technos de pointe en IA appliquée (LLM, framework LangChain/Graph, ZenML…) Être acteur d’une transformation tech ambitieuse avec de forts enjeux business Évoluer dans un environnement agile, collaboratif et stimulant Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Mission freelance
Data Analyst Expert - Qlik Sense & PowerBI
CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management :Data Analyst Spécialités technologiques : Data Visualisation, Restitution Contexte : Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour une direction métier. Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. MISSIONS Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Activités : - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe. Expertise souhaitée 8 ans d'expérience minimum sur des fonctions similaires de Data Analyst Maitrise des outils Qlik Sense et idéalement Power BI Excellente maitrise de Dataset (conception & extraction de données) Valorisation des données Big Data En capacité d'accompagner et de challenger les métiers

Mission freelance
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)
Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging

Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans d'exp minimum)
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines

Mission freelance
Un Data Scientist (Développement,Implémentation Algorithmes IA,Intégration Solutions IA) sur Nantes
Smarteo recherche pour un de ses clients, Un Data Scientist ( Développement, Implémentation d'Algorithmes IA, Intégration Solutions IA ) sur Nantes Description: Nous client nous soumet une prestation de Data Scientist pour intervenir sur les domaines analyse de données, modélisation,Ia Gen prompting et ingénierie data. Au sein d'une équipe agile composée d'une douzaine de personnes le candidat contribuera à la conception et la réalisation de solutions IA. Activités : - Développement et Implémentation d'Algorithmes IA: Concevoir, développer et déployer des modèles de machine learning et d'intelligence artificielle. - Analyse de Données: Explorer et analyser les données pertinentes pour extraire des insights exploitables et améliorer les algorithmes existants. - Intégration des Solutions IA: Collaborer avec les équipes produits pour intégrer les solutions IA dans leurs produits et répondre à leurs besoins spécifiques. - Maintenance des Solutions en Production: Assurer le suivi et l'amélioration continue des solutions IA en production (RUN), incluant la gestion des incidents et la mise à jour des modèles. - Prototypageet Testing: Réaliser des prototypes de nouvelles solutions IA et conduire des tests pour valider leur utilité et leur performance. - Prompting: Réaliser des prompts robustes pour les différents cas d'usage Le candidat devra disposer des compétences adéquates pour réaliser les tâches en autonomie ce qui requiert une expérience Compétences Requises : - Analyse de Données: Expertise en techniques d?analyse et de visualisation de données. - Modélisation et Machine Learning: Compréhension avancée des algorithmes de machine learning et d'intelligence artificielle. - Prompting: Compétence dans la génération et l'optimisation de prompts pour améliorer l'interaction utilisateur et la pertinence des résultats. - Ingénierie Data: Connaissances en gestion de bases de données et manipulation de données en grande quantité. - Langages de Programmation: Maîtrise des langages comme Python, SQL, et des outils comme TensorFlow, PyTorch. - DevOps: Compréhension des pratiques DevOps, incluant l'intégration et la déploiement continu (CI/CD). Machine Learning Operations (ML Ops), Google TensorFlow, Python, SQL, PyTorch,

Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Chef de projet Data
I. Contexte : Sous la responsabilité du Chef du département Data, vous jouerez un rôle opérationnel au service de la performance de la donnée suivant la stratégie et méthodologie Groupe II. Missions : 1. Formalisation et modélisation des besoins métiers · Accompagnement des métiers dans l'expression des besoins liés aux indicateurs de pilotage, connaissance client, connaissance opérationnelle, etc. · Modélisation des besoins en Business Intelligence : indicateurs, règles de calcul, axes d'analyse, niveaux de granularité. 2. Structuration du système d'information data · Définition et mise en œuvre en collaboration avec le Groupe : référentiels, datawarehouse, datamarts, etc. · Cartographier l'ensemble des sources de données internes et externes, en lien avec la DSI et les directions métier. 3. Maîtrise d'ouvrage et spécifications fonctionnelles · Accompagnement à la rédaction des spécifications fonctionnelles en collaboration très étroite avec le métier. · Participation à la conception fonctionnelle des flux d'alimentation, des modèles de données, des restitutions. · Réaliser ou coordonner les recettes fonctionnelles des développements, valider les livrables avec les utilisateurs. 4. Accompagnement BI et production de livrables · Supervision de la conception et le maintien des rapports Power BI répondant aux besoins métier. · Anticipation du suivi de l'intégration · Veiller à la bonne adoption des outils de pilotage, en formant et accompagnant les utilisateurs.

Mission freelance
Business Analyst (AMOA / Test / Salesforce / Data)
nous recherchons un Business Analyst afin de renforcer l’équipe et de jouer un rôle clé dans la traduction des besoins métiers vers l’équipe de développement. Le profil interviendra également sur les tests, l’AMOA et la gestion de la donnée, en lien direct avec les parties prenantes. Missions principales Collaborer avec les utilisateurs finaux pour recueillir et clarifier les besoins métiers Rédiger les Business User Stories (US) en garantissant leur alignement avec les besoins utilisateurs, la stratégie Customer V360° et la stratégie digitale de l’entreprise Travailler avec l’équipe de design authority (EBIC) afin d’assurer la cohérence fonctionnelle et la non-régression des fonctionnalités Analyser les processus existants et identifier les évolutions nécessaires Réaliser des tests fonctionnels et valider les fonctionnalités développées Participer aux phases de User Acceptance Testing (UAT) en lien avec l’équipe Change Management, en collectant et intégrant les retours utilisateurs Assurer le rôle de liaison clé entre l’équipe de développement, les autorités de design et les parties prenantes métiers Compétences techniques et fonctionnelles Solide connaissance de l’ écosystème Salesforce Compréhension des relations de données clients (Customer Data) Compétences en AMOA et rédaction de dossiers de besoins métiers Connaissance des méthodologies Agile Compétences en tests fonctionnels et validation Connaissance des environnements DATA
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.