Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 407 résultats.
Freelance

Mission freelance
senior/expert dbt/Snowflake 

WorldWide People
Publiée le
DBT
Snowflake

3 mois
400-500 €
France
senior/expert dbt/Snowflake Caractéristiques : Client : pharmaceutique 5 à 10 ans d’expérience anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : France Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie Certifications (souhaitées) SnowPro Core Certification – fortement appréciée Certification dbt Analytics Engineering – un plus Certifications AWS (Solutions Architect, Data Engineer ou équivalent) – un plus
Freelance

Mission freelance
SAP Master data (SD/MM)

ASENIUM
Publiée le
Master Data Management (MDM)

6 mois
Île-de-France, France
Je recherche actuellement pour mon client final, un consultant SAP Master Data avec une solide expérience MM/SD pour un projet autour de la structuration et gouvernance des données produits dans SAP. Aujourd’hui, plusieurs équipes (achats, supply, commerce, finance) gèrent leurs propres fichiers, ce qui crée parfois des incohérences entre les groupes de marchandises, familles produits, hiérarchies et la valorisation financière. La mission consiste donc généralement à : 1. Centraliser et structurer les données définir un référentiel unique dans SAP harmoniser groupes de marchandises, familles produits, hiérarchies 2. Nettoyer et fiabiliser les données supprimer les doublons corriger les incohérences entre fichiers Excel et SAP mettre en place des règles de création/modification 3. Mettre en place une gouvernance définir qui crée quoi standardiser les processus de gestion du Master Data Démarrage-ASAP
CDI

Offre d'emploi
Data Analyst sénior

Proxiad
Publiée le
Microsoft Excel
Python
SAS

40k-45k €
Lille, Hauts-de-France
🚀 Qui sommes-nous ? Proxiad est une ESN à taille humaine, attachée à la proximité, à la qualité de ses missions et à l’accompagnement de ses collaborateurs. Dans le cadre d’un projet stratégique chez l’un de nos clients, nous recherchons un Consultant Data / Analyst expérimenté pour accompagner la transformation de notre client. 🎯 Votre mission Vous jouerez un rôle clé dans l’analyse et la valorisation de la connaissance client afin d’éclairer les décisions stratégiques. À ce titre, vous serez amené(e) à : Analyser le portefeuille clients : segmentation, comportements, churn, fidélisation, valeur client Concevoir et piloter des études ad hoc à forte valeur stratégique Produire des tableaux de bord et indicateurs clés (Power BI) Identifier des opportunités de croissance et d’optimisation Formuler des recommandations claires et actionnables auprès des équipes métiers et de la direction Garantir la qualité, la cohérence et la fiabilité des données exploitées
Freelance
CDI

Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON

OCTOGONE
Publiée le
PySpark
Python

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Freelance

Mission freelance
Gen AI Engineer

INVESTIGO
Publiée le

700 £GB
Angleterre, Royaume-Uni
My client, a leading name in FS, are looking for a Gen AI Engineer with hands-on implementation of Gen AI solutions required on a contract basis for 6 months plus extensions, with 2 days per week in London. Our client is looking at a pay rate of £700 per day inside IR35. Role & Responsibilities Working with business and technology stakeholders and contributing hands-on to the delivery of Gen AI-enabled application development across the EMEA region. Key Responsibilities Hands-on implementation of Gen AI solutions based on approved designs and architectural standards Develop, fine-tune and optimise LLMs and Gen AI models for production use Build, maintain and enhance prompt engineering strategies and retrieval-augmented generation (RAG) pipelines Collaborate with architects, cloud teams and business stakeholders to ensure secure, scalable and robust deployments Conduct unit and integration testing, troubleshoot issues and support smooth releases into production Maintain accurate documentation for code, processes and configurations Monitor, analyse and improve model performance post-deployment Partner with Cloud teams to enable secure and maintainable Gen AI solutions aligned with enterprise architecture standards Monitor the evolving AI landscape and identify relevant applications for the organisation Guide development teams through solution implementation, testing and deployment Provide guidance and mentorship to other team members Required Skills Experience delivering architectural or Gen AI solutions within a multi-entity, multi-regional financial services environment Proven experience working with senior stakeholders across business and technology functions Experience architecting and delivering Gen AI solutions across cloud platforms (Microsoft Azure, AWS, OCI, etc.) Strong expertise in developing Gen AI solutions in Python using frameworks such as LangChain, LangGraph, Microsoft Agents SDK or similar Experience with CI/CD pipelines and MLOps practices for AI solutions Hands-on experience in model development and fine-tuning Deep expertise in prompt engineering and RAG solution design Performance monitoring and optimisation of AI models Experience developing and deploying APIs using API Gateway Familiarity with Azure cloud services for LLM deployments including App Service, Azure Functions and Logic Apps Experience with Azure AI and data services including Azure OpenAI, Azure Cognitive Services, Azure AI Search, Azure Cosmos DB, Azure Data Lake, Microsoft Purview, Power Platform and Microsoft Graph Expertise in LLM integration patterns such as MCP and A2A Experience designing solutions integrating on-premise and cloud systems within regulated environments Experience using GitHub Copilot or similar AI-assisted development tools
Freelance

Mission freelance
Product Manager

CAT-AMANIA
Publiée le
Databricks
Java

1 an
100-500 €
Lille, Hauts-de-France
En tant que Product Manager, vous portez la vision, la stratégie et la roadmap de votre périmètre pour maximiser la valeur délivrée aux sportifs et aux collaborateurs : Stratégie & Vision : Définir et porter la trajectoire de vos 3 Features Team en alignement avec les enjeux de la Supply Chain. Vous accompagnez la volonté d'élargir le terrain de jeu de l'application. Discovery & Priorisation : Cadrer les besoins avec le métier, rédiger les Epics/User Stories et arbitrer la roadmap en équilibrant valeur business et santé technique. Delivery Agile : Piloter le cycle de développement avec votre équipe et avec l’éditeur (cérémonies Scrum/Kanban) et garantir la qualité des livrables. Pilotage Éditeur : Challenger et animer la roadmap de la solution externe Shippingbo pour l'intégrer parfaitement à nos processus et suivre la consommation du budget annuel Performance & Adoption : Suivre les KPIs (disponibilité du stock en retour, leadtime de préparation circulaire) et accompagner le changement via des formations et une documentation claire. Communication : Rayonner auprès de vos parties prenantes pour partager les succès, les apprentissages et les prochaines étapes. VOTRE PROFIL
CDI
Freelance

Offre d'emploi
Responsable RUN/Data

OBJECTWARE
Publiée le
Master Data Management (MDM)

3 ans
40k-78k €
400-590 €
Île-de-France, France
Objectif de la mission Profil technico fonctionnel : Suivi du RUN et gestion des incidents Conception d'achitecture applicative Conception technique Maitrise des batchs Stratégie de test et test fonctionnel Garantie du bon fonctionnement des applications, leur maintenabilité et leur évolutivité Réponse et analyse aux incidents Env technique : - APIs Rest et Web Services SOAP - Applications web en java - Base de données Oracle - XML - Ordonnanceur control-M - ETL Informatica - Git - Outils : service now, JIRA, … - Un plus : MDM EBX Tibco et MDM Semarchy
CDI

Offre d'emploi
Développeur C# - .Net - Angular H/F

█ █ █ █ █ █ █
Publiée le
.NET CORE
ADO.NET
Angular

38k-45k €
69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist (NLP / LLM / Agentique) — Projet IA Télécom

TOP TECH
Publiée le
Agent IA
Large Language Model (LLM)

40k-50k €
France
Dans le cadre d’un programme stratégique d’industrialisation d’une solution IA innovante, un grand acteur des télécommunications renforce ses équipes Data. Suite à la mise en production d’une solution de relation client basée sur de l’IA Speech-to-Speech , le client déploie cette technologie sur plusieurs canaux digitaux à grande échelle. 👉 Nous recherchons plusieurs Data Scientists pour accompagner cette montée en charge. 🎯 Vos missions Vous interviendrez sur deux axes clés : 🔍 1. Monitoring & amélioration continue Suivi des performances des modèles en production Analyse des dérives et optimisation continue Mise en place d’indicateurs de qualité et de fiabilité 🧪 2. TestOps & industrialisation IA Conception d’une Test Case Factory automatisée Génération de scénarios de tests via des approches Data Science Validation des nouvelles versions des modèles IA Mise en place de stratégies de tests robustes pour garantir la qualité en production ✔️ Expérience requise : Expérience en NLP / LLM / Agentique (obligatoire pour profils expérimentés) Bonne compréhension des systèmes IA en production Expérience sur des problématiques liées au traitement du texte 🛠️ Compétences techniques Data Science (Python, ML, DL) NLP (Natural Language Processing) LLM (Large Language Models) Mise en production & monitoring de modèles Expérience en automatisation de tests (idéalement TestOps IA) 📍 Contexte Secteur : Télécommunications Projet : Déploiement à grande échelle d’une solution IA conversationnelle Environnement : Innovant, orienté industrialisation et passage à l’échelle
Freelance

Mission freelance
PROXY PRODUCT OWNER DATA

Codezys
Publiée le
ERP
Finance
P2P

6 mois
Courbevoie, Île-de-France
Contexte de la mission : Intégrée au Group Data Office dans le cadre de la transformation Finance, cette mission sert d’interface entre Finance, IT et équipes Data. Le Proxy Product Owner Data accompagne l’équipe Corporate Finance dans les programmes de transformation tels que : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus Finance Elle vise à : Identifier, structurer et prioriser les initiatives data Finance Aligner avec les standards et architectures du Group Data Office Piloter et livrer efficacement ces initiatives Le rôle, transverse et collaboratif, relie besoins métiers, capacités techniques data et frameworks de delivery, tout en assurant gouvernance et conformité aux standards du groupe. Objectifs et livrables : 1. Identification et structuration des projets data Finance : Identifier les initiatives de transformation avec impact data Évaluer leur valeur business et faisabilité Assurer leur alignement avec les priorités du Group Data Office Livrables : portefeuille d’initiatives, framework de qualification, analyse d’impact 2. Formalisation des besoins et conception des solutions : Traduire besoins Finance en exigences data et techniques Aligner avec les patterns d’architecture du groupe Livrables : documentation des besoins, spécifications, flux et processus, validation des solutions 3. Expertise Finance et support : Fournir une expertise sur les processus Corporate Finance Accompagner les initiatives P2P, O2C, automatisation Livrables : cartographie, recommandations d’amélioration 4. Automatisation des processus : Soutenir les cas d’usage automatisation Garantir la qualité et l’intégration des données Livrables : backlog, spécifications, pipelines et intégrations 5. Coordination du delivery : Coordonner équipes Finance, IT, Data Office Suivre l’avancement, identifier blocages Livrables : tableaux de bord, rapports, gestion des risques 6. Gouvernance, standards et bonnes pratiques : Respecter standards du Data Office Appliquer patterns d’architecture et contrôles qualité Livrables : conformité, documentation, règles qualité 7. Communication et gestion des parties prenantes : Être référent data du programme Finance Transformation Assurer communication et coordination Faciliter la prise de décision Livrables : rapports d’avancement, supports, présentations
Freelance
CDI

Offre d'emploi
Business Analyst IT – Data / BI – Finance de Marchés (H/F)

Amontech
Publiée le
Business Analyst
C#
Confluence

1 an
45k-50k €
500-550 €
Paris, France
🧠 Contexte Au sein d’une direction IT, vous intégrez une équipe dédiée à la data client en finance de marchés . Cette équipe développe des solutions de Business Intelligence permettant aux équipes Front Office (Global Markets) d’exploiter leurs données, notamment pour : Suivi de la rentabilité client (Client Contribution) Performance des équipes commerciales (Sales Credit) Analyse des hit ratios (RFQ) Suivi des interactions clients (CRM : meetings, contacts…) 🎯 Missions Au quotidien, vous interviendrez sur des activités de run et de projet : 🧩 Analyse & cadrage Recueillir et analyser les besoins métier Rédiger les spécifications fonctionnelles 🧪 Tests & validation Définir la stratégie de tests Rédiger les cas de tests Piloter les recettes et rédiger les PV de validation 📊 Suivi & coordination Maintenir le backlog à jour Suivre l’avancement des sujets Coordonner les différents intervenants (IT & métier) 🛠 Support Gérer des incidents de niveau 2 Analyser des problématiques sur : IHM dashboards BI bases de données (requêtes SQL) 🔄 Change management Accompagner les utilisateurs Contribuer à l’adoption des solutions ⚙️ Méthodologie Participation active aux rituels Agile 🛠 Environnement technique Microsoft (SQL Server, SSAS, Power BI, .Net C#) Business Objects Jira, Xray, Confluence
Freelance

Mission freelance
101005/Data Analyst Nantes - langage Python et du PySpark.

WorldWide People
Publiée le
PySpark
Python

12 mois
400-500 €
Nantes, Pays de la Loire
Data Analyst Nantes - langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel. Contexte : Notre client, acteur du secteur du transport, recherche un data analyste senior pour une mission stratégique. Le profil devra collaborer avec le PPO Data pour cadrer des analyses et tableaux de bord à destination des métiers. Il sera force de proposition pour les plans d'analyses ad hoc et l'identification de problématiques métiers résolubles par la data. Responsabilités : - Comprendre et modéliser les problématiques métier et celles du pôle. - Définir avec justesse le périmètre des données nécessaires à la solution technique. - Concevoir et développer des modèles de machine learning. - Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables. - Créer des visualisations appropriées aux besoins cartographiques si nécessaire. - Estimer la charge à allouer aux différents traitements et actions techniques prévus. - Optimiser le modèle de donnée des projets data de l’équipe. - Développer des scripts Python optimisés. - Créer les tables ou vues nécessaires aux projets data de l’équipe. - Échanger avec les ops de la Team Data pour l'industrialisation de la collecte, des traitements, de la supervision et de la restitution des données. - Réaliser des plans d’analyse data. - Expliquer le sens des informations exploitables en termes pertinents pour les métiers. - Conceptualiser et développer autour d’une problématique métier. - Communiquer les informations en soulignant la valeur des actions. - Formaliser les résultats d’analyse et les présenter aux métiers commanditaires. - Être force de proposition sur la mise en place d’actions pertinentes en fonction des résultats d’analyses et des conclusions (préconisations). La mission nécessite : - Maîtrise du langage Python et du PySpark. - Excellentes connaissances des techniques statistiques et des méthodes de Data Science – Datamining. - Maîtrise de SGBD et du SQL. - Expérience significative dans la gestion et la manipulation de données au sein d’une architecture data complexe. - Maîtrise de Git. - Capacité d’analyse et de préconisation. Expériences requises : - Au moins deux ans d'expérience en travail en Agilité. - Au moins quatre ans d'expérience en réalisation de projets data orientés analyse et datascience. - Au moins trois ans d'expérience en manipulation de données en environnement data complexe et industriel.
Freelance

Mission freelance
Data Scientist Python, Tensorflow Nantes/st

WorldWide People
Publiée le
Python

12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Freelance
CDI

Offre d'emploi
SOC Expert (Incident Response / Detection Engineering / SOAR)

Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
Bash

12 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son dispositif de cybersécurité, un acteur majeur du secteur financier recherche un SOC Expert afin de renforcer les capacités de détection, d’investigation et d’automatisation de son Security Operations Center. L’objectif est d’améliorer la posture de sécurité globale, réduire les délais de détection et de remédiation (MTTD / MTTR), diminuer les faux positifs et renforcer la couverture des menaces. La mission s’inscrit dans un environnement international avec des infrastructures hybrides (on-premise et cloud). Objectifs de la mission Le consultant interviendra sur quatre axes principaux : Incident Response & Case Management Gestion complète des incidents de sécurité (analyse, qualification, remédiation) Coordination des actions de containment, eradication et recovery Documentation rigoureuse dans l’outil de gestion des incidents Traitement des demandes sécurité remontées par les utilisateurs Amélioration continue des playbooks d’intervention SOC Tooling & Platform Operations Administration des outils SOC : SIEM SOAR Outils de vulnérabilité / compliance Mise à jour des plateformes Tests de performance et health checks Déploiement des évolutions de configuration Detection Engineering Intégration de nouvelles sources de logs dans le SIEM Création et tuning de règles de détection avancées Réduction des faux positifs Mise en place de dashboards de suivi Mapping des détections vers le framework MITRE ATT&CK Automatisation (SOAR) Conception de playbooks dynamiques Automatisation des réponses : Isolation endpoint Blocage IP Désactivation comptes Scans post-incident Intégration cross-tools
Freelance

Mission freelance
Team Leader Data engineering

Codezys
Publiée le
Confluence
JIRA
Python

12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour le poste de Team Leader Data Engineering C-Logistics Nous lançons un appel d'offres dans le cadre du recrutement d'un Team Leader Data Engineering pour notre filiale C-Logistics . Ce poste clé s’inscrit dans notre démarche d’optimisation de nos processus data et d'amélioration continue des performances de notre infrastructure logistique. Mission Sous la responsabilité du Head of Engineering Logistique , le Team Leader sera chargé de diriger l'équipe data engineering dédiée à C-Logistics. À ce titre, il jouera un rôle stratégique en tant que facilitateur et coach technique, tout en étant un acteur majeur de la performance de l’équipe. La mission s’appuie sur les principes Lean pour assurer l’efficacité des processus. Les responsabilités principales incluent : Optimiser les processus de delivery afin d’assurer une production de données performante et fiable ; Analyser et traiter les causes racines des problèmes rencontrés en production pour assurer une stabilité continue ; Foster l’autonomie et le développement des compétences de l’équipe ; Garantir la performance, la scalabilité et la fiabilité de nos solutions data, en cohérence avec la vision produit définie par le product manager. Périmètre Les activités concernent principalement : Le traitement et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics ; Le partage de données avec d’autres filiales du groupe ; Le partage de données avec nos clients B2B, afin d’assurer une transparence et une collaboration optimale. Profil recherché Ce poste requiert une forte capacité d’analyse, un leadership affirmé et une expertise technique solide en ingénierie des données. Le candidat idéal doit maîtriser les principes Lean, avoir une expérience en gestion d’équipes techniques, et être capable d’assurer la scalabilité des solutions dans un contexte multi-parties prenantes. Modalités de réponse Les prestataires souhaitant répondre à cet appel d’offres sont invités à fournir une proposition détaillée, incluant leur méthodologie, leur expérience pertinente, ainsi que leur approche pour répondre aux enjeux mentionnés ci-dessus. Nous vous remercions de votre intérêt et attendons vos propositions avant la date limite communiquée.
Freelance

Mission freelance
Consultant MOA Data / SQL – Secteur Protection Sociale

Comet
Publiée le
AMOA

1 an
400-650 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation SI, un grand acteur de la protection sociale renforce ses équipes pour accompagner une migration majeure de référentiels métiers . Ce projet à fort enjeu s’inscrit dans une feuille de route nationale avec des impacts réglementaires et opérationnels importants. Au sein d’une équipe MOA, vous interviendrez sur un projet structurant autour de la fiabilisation des données et de la migration vers un système cible fédéré . Vos responsabilités Participation à la préparation de la migration des données Fiabilisation et contrôle des référentiels Réalisation des recettes fonctionnelles et data Analyse et suivi des anomalies Interface entre équipes métiers et IT (MOA / MOE) Contribution à l’ accompagnement des utilisateurs Rédaction de livrables et documentation
2407 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous