Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 721 résultats.
Mission freelance
Consultant KELIA Actuariat / Data – Validation des calculs et migration SI Épargne / Retraite
CAT-AMANIA
Publiée le
kelia
Python
2 ans
400-700 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation du système d’information Épargne, nous recherchons un Consultant Actuariat / Data pour intervenir sur la validation et la certification des calculs actuariels dans un contexte de migration vers un nouvel outil de gestion. Ce programme vise à moderniser l’écosystème Épargne, notamment à travers le lancement de nouvelles offres et la convergence des systèmes existants vers une plateforme cible. Vous interviendrez au sein du programme de migration, en lien étroit avec les équipes actuariat, data et IT. Vos missions Vous aurez un rôle clé dans la fiabilisation et la validation des calculs actuariels et financiers : Analyser et comparer les résultats calculatoires entre les systèmes existants et la nouvelle plateforme cible Réaliser les recettes calculatoires et valider la cohérence des résultats Identifier, analyser et documenter les écarts observés Proposer des solutions pour corriger ou minimiser les impacts techniques et fonctionnels Participer à la certification des données migrées Produire des rapports d’analyse et des supports de suivi (tableaux de bord, synthèses, indicateurs) Contribuer à la fiabilisation des données et à la sécurisation du processus de migration Vous interviendrez sur des sujets tels que : tables de mortalité provisionnement calculs actuariels validation de modèles et de paramètres Environnement technique et métier Environnement métier : Assurance Épargne et Retraite Migration de systèmes d’information Validation actuarielle et certification des données Environnement technique : Python, R ou SAS Analyse statistique et modélisation Outils analytiques et data Outil de gestion Kelia (un plus)
Offre d'emploi
Data Engineer - GCP - CDI
Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery. Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Mission freelance
Architecte IT
Codezys
Publiée le
Active Directory
AWS CloudFormation
Azure
12 mois
Massy, Île-de-France
Contexte général Dans un contexte de cybersécurité renforcée, notre entreprise vise à renforcer la sécurité de son Système d’Information. Par ailleurs, afin de conserver notre position de leader, nous devons accompagner nos métiers dans la mise en œuvre de nouvelles solutions. À cette fin, il est nécessaire de rédiger les dossiers d’architecture technique correspondant à ces solutions. Objet du cahier de consultation Dans le cadre de ce projet, l'entreprise a décidé de sous-traiter la conception de l’architecture technique pour ses sites en France et à l’international. Cette mission doit prendre en compte diverses caractéristiques et contraintes, tout en garantissant une cohérence technique et la stabilité du système d’information durant son évolution. Il s’agit également d’étudier l’impact de ces solutions sur l’architecture existante ou future. Cette prestation requiert une expertise approfondie sur les technologies telles que VMware, Windows, MSSQL, Cloud, clustering, et autres. Une capacité à rédiger une documentation technique détaillée est également indispensable. Logistique Date de démarrage : prévue le 01/04/2026, avec une livraison au plus tard le 31/12/2026 Lieu : Massy Profil recherché : Expert ou sénior avec nationalité ......................, contrôle élémentaire requis (FICE) Panel ciblé : Infrastructures Typologie de prestation : Architecture Le prestataire devra fournir un ordinateur personnel (PC) Maîtrise de l’anglais souhaitée Objectifs et livrables 1. Environnement technique de la prestation Les solutions techniques concernent notamment Windows, VMware, MSSQL, IIS, Active Directory, clustering, et Cloud. Toutes ces solutions doivent respecter les standards de l'entreprise, accessibles via l’ITRB. 2. Prestations attendues Concevoir l’architecture technique des solutions requises pour les sites en France et à l’international, en prenant en compte diverses caractéristiques et contraintes. L’objectif est d’assurer une cohérence technique et la stabilité du système d’information tout au long de son développement, tout en analysant leur impact sur l’architecture existante ou à venir.
Mission freelance
POT8923 - Un chef de projet Data sur Orléans
Almatek
Publiée le
Squash
6 mois
270-350 €
Orléans, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Un chef de projet Data sur Orléans. La mission consiste à gérer les projets et la maintenance sur le périmètre métier «Décisionnel» en délégation du pilote de projets référent du domaine. Il interviendra en tant qu’interlocuteur privilégié de l’AMOA Décisionnel pour l’exécution des projets et de la maintenance applicative du domaine. Le chef de projet participera à toutes les phases, du cadrage à la préparation de la mise en production. Il prendra en charge la mise à jour hebdomadaire du planning, le suivi des charges et le reporting associé. Il assurera la préparation et le passage en Comité d’architecture en collaboration avec l’équipe d’architectes client. Il assurera également le pilotage quotidien de l’avancement auprès des équipes de réalisation et de recette, préparera et animera les ateliers et instances de pilotage (COMOP, daily, …). Profil recherché : -Consultant confirmé en gestion de projets et maintenance applicative. -Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). -Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). -La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. -La maitrise d’un outil de recette (Squash) serait un plus. -Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Localisation : Orléans, 2 jours de TT après 3 mois de full présentie
Offre d'emploi
DevOps streaming Data - (H/F)
SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps
1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
Offre d'emploi
Data Engineer DBT/Snowflake/Tableau/Airflow
OBJECTWARE
Publiée le
Apache Airflow
DBT
Snowflake
3 ans
40k-66k €
270-500 €
Île-de-France, France
Objectif de la mission Objectif global : Construire et maintenir les produits DATA Loyalty Présentiel 2j / semaine au siège SQL / Snowflake - Confirmé - Impératif DBT / Airflow / Astronomer - Confirmé - Impératif Data modeling / Data Quality - Confirmé - Important Tableau / Data Viz - Junior - Souhaitable Français Courant (Impératif) Anglais Professionnel (Impératif) Prestations demandées Sous la responsabilité du Tech Lead, vous êtes l'acteur clé en charge des chaînes d'approvisionnement, de transformation et de mise en valeur des données, participant à la conception et modélisation des produits, assurant la conformité et la maintenabilité des solutions développées, et relevant les défis techniques liés à la volumétrie et à la qualité du patrimoine de données. Au quotidien, vos missions sont de : - Concevoir, développer et déployer les solutions de gestion des données "Cloud-Native" - Assurer la conformité et la maintenabilité du code (TDD, commentaires, etc.) - Détecter, analyser et résoudre les incidents ou anomalies survenant sur les produits de l'équipe - Contribuer aux chantiers transverses (usine logicielle-CI/CD, supervision, catalogue, etc.) - Comprendre la finalité métiers des produits, et surtout la complexité fonctionnelle des données manipulées - Assurer la cohérence de la modélisation des données du patrimoine avec l'aide des Data Managers - Accompagner les profils Produit ou Data Science dans le cadrage des besoins de données métiers (disponibilité, qualité, etc.) - Participer à l'animation de la communauté "Data Tech" (diffusion bonnes pratiques, capitalisation code, veille techno, etc.) - Sensibiliser nos différents interlocuteurs aux enjeux et bénéfices 'data' Qualifications Compétences Data & Analytics requises : - Utilisation de la « Modern Data Stack » (Snowflake, dbt, Tableau, Airflow, etc.) - Intégration & manipulation de données massives (SQL, Python, etc.) - Connaissances des architectures « Data » opérationnelles ou analytiques - Mise en place de supervision de données (contrôle qualité, rejets, alertes) - Connaissances des réglementations sur les données, notamment personnelles (ex : RGPD) Compétences générales attendues : - Connaissances et mise en œuvre des méthodologies Agile : Scrum & Kanban - Culture & techniques DevOps - Collaboration et travail en équipe - Bonne communication orale et écrite - Autonomie et proactivité - Gestion des priorités, risques et alertes - La connaissance du monde de l’hôtellerie est un plus. - Anglais opérationnel requis.
Offre premium
Mission freelance
Développeur Semarchy
CS Group Solutions
Publiée le
Git
Jenkins
ODI Oracle Data Integrator
6 mois
Orléans, Centre-Val de Loire
Nous recherchons un Développeur Semarchy Les missions sont les suivantes : Apporter des préconisations sur les choix de conception & réalisation Concevoir et développer les évolutions, en tenant compte des besoins métiers actuels et futurs. Identifier les impacts sur les applications dépendantes Rédiger des livrables projets du chantier (Note de livraison, bon de livraison, dossier de création de chaines) Donner de la visibilité aux membres de l'équipe de développement (via des Compte rendu, de l’animation de comité) Interagir avec un nombre important d’acteurs : développeurs, chefs de projets SI, MOA, urbanistes SI, experts techniques, correspondants métiers, etc. Pour mener cette prestation, le dispositif proposé doit présenter au minimum les aptitudes suivantes : Avoir des compétences techniques avérées : Maîtriser les outils développements : XDI semarchy La maitrise des compétences techniques suivantes est un plus : Maitriser l’environnement Snowflake Connaitre le fonctionnement de la moulinette de migration fournie par Semarchy afin de réaliser la bascule du code ODI vers XDI de Semarchy Maitriser l’environnement Oracle Maîtriser les outils développements : ODI Maitriser les outils de déploiements : Jenkins, Git, Terraform, Sqitch Maitriser l’interfaçage avec le cloud Azure La maitrise du langage SAS est un plus En termes de savoir-être, il est attendu des intervenants : Autonomie Être force de proposition Disposer d’une capacité d’adaptation Être rigoureux et organisé Appétence au travail en équipe
Mission freelance
100960/Product Owner technique Socle IA et Agentique (IA Gen) de la Plateforme Data & IA - Nantes
WorldWide People
Publiée le
IA
12 mois
400 €
Nantes, Pays de la Loire
Product Owner technique sur le périmètre Socle IA et Agentique (IA Gen) de la Plateforme Data & IA. L’objectif est de structurer et d’industrialiser les capacités plateforme qui permettent : - Côté Socle IA, de fabriquer, déployer et opérer des modèles d’IA classique (cycle de vie ML de bout en bout) ; - Côté IA Gen, d’outiller le passage à l’échelle de l’agentique (outils, frameworks, patterns) et de sécuriser le cycle de vie global d’un produit agentique (de la conception à l’exploitation). Les services LLM et les services partagés (OCR, Embedder, Speech2Text) étant déjà pilotés par des PO, l’enjeu de cette mission est de compléter le dispositif sur la brique agentique et de garantir une industrialisation robuste : réutilisabilité, qualité de service, observabilité, gouvernance d’usage et adoption. Cadrage & priorisation (avec le PM) - Qualifier les besoins, formaliser les cas d’usage et critères d’acceptation. - Décliner la vision PM en backlog/roadmap opérationnels, arbitrer valeur/risque/effort. Socle IA – cycle de vie ML - Piloter les évolutions plateforme permettant la fabrication et le déploiement : industrialisation des parcours, standards, documentation, templates - Contribuer aux exigences run : observabilité, performance, fiabilité, exploitabilité. IA Gen – outillage agentique - Définir et piloter la mise en place des outils & frameworks (orchestration, composants réutilisables, patterns). - Structurer le cycle de vie agentique : intégration, tests, évaluation, supervision, sécurité/guardrails, itérations. Pilotage delivery - Animer le backlog (refinement, planning, démos), suivre l’avancement, gérer dépendances/risques. - Coordonner dev/lead tech/data scientists/ops/archi, et sécuriser la qualité des livraisons. Adoption & documentation - Produire/mettre à jour la doc produit (guides, exemples, bonnes pratiques) et accompagner les équipes dans la prise en main. - Mettre en place des KPIs (usage, satisfaction, incidents, coût) et alimenter l’amélioration continue.
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Mission freelance
Directeur de Programme – Migration Data & Analytics Cloud
Signe +
Publiée le
Snowflake
12 mois
840 €
Paris, France
Contexte Dans le cadre d’un programme stratégique de transformation, le client souhaite piloter la migration complète de son écosystème Analytics vers des solutions cloud modernes. L’objectif est de moderniser des plateformes data vieillissantes et d’améliorer la scalabilité, la performance et la gouvernance des environnements Analytics. Périmètre Migration SAP HANA et Sybase IQ vers le Cloud Cibles potentielles : Snowflake, Microsoft Azure ou autres plateformes cloud modernes Transformation globale des architectures Data / BI / ETL Refonte de la roadmap Data Platform à l’échelle de l’entreprise Responsabilités Pilotage global du programme de migration Data Encadrement de 5 à 6 Chefs de Projet Structuration de la gouvernance programme Définition et suivi de la roadmap Gestion des dépendances, risques et budgets Coordination des équipes IT, Data et Métiers Communication auprès des sponsors et instances de direction Compétences techniques attendues Expérience confirmée en migration de bases de données lourdes (HANA, Sybase IQ) Maîtrise des architectures Analytics modernes (Snowflake, Azure, Data Platform Cloud) Compréhension des environnements BI / ETL / Data Warehouse Vision globale des impacts métiers (Finance, Industrie, R&D, Supply Chain…) Compétences managériales Expérience de direction de programme stratégique Capacité à piloter plusieurs streams en parallèle Forte maîtrise de la gouvernance, des arbitrages et de la gestion budgétaire
Mission freelance
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier
WorldWide People
Publiée le
Microsoft SSIS
6 mois
320-350 €
Montpellier, Occitanie
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS. Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS.
Mission freelance
Architecte Data Snowflake / Cloud / IA Générative – Expérimenté H/F
LeHibou
Publiée le
AI
AWS Cloud
Snowflake
3 ans
500-560 €
Roubaix, Hauts-de-France
Notre client dans le secteur Banque et finance recherche un/une Architecte Data Snowflake / Cloud / IA Générative – ExpérimentéH/F Description de la mission: Architecte Data Snowflake / Cloud / IA Générative Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA générative au sein de ses applications, le chapitre Data / Entrepôt de données a la responsabilité de faire évoluer les patterns liés à la plateforme Data Snowflake. La mission s’inscrit au sein d’une équipe composée d’experts IT, avec un focus sur l’administration et l’architecture de la plateforme Snowflake, en France et à l’international. Missions principales Au sein de l’équipe Data, fort de vos expériences d’administration de plateforme Snowflake, vos missions principales seront de : • Concevoir les nouveaux patterns nécessaires sur les périmètres suivants : ingestion de données, manipulation de données et restitution, pour des données structurées et non structurées. • Mettre en œuvre ces patterns sur la plateforme France et à l’international pour qu’ils puissent être utilisés par les équipes Data IT et métiers. • Accompagner les différentes équipes IT et métiers, en France et au sein des Business Units, dans le déploiement et la prise en main de la plateforme Snowflake. Activités détaillées • Contribuer aux cadrages des nouveaux besoins techniques métiers liés à la plateforme Snowflake. • Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc.). • Participer aux choix technologiques de l’offre à mettre en place. • Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux patterns (architecture fonctionnelle, applicative, technique). • Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée. • Documenter les patterns retenus à un niveau détaillé afin de les rendre exécutables pour les autres Business Units. • Être l’interlocuteur privilégié des équipes portant les besoins d’agents/usages IA générative au sein du pôle Data. • Accompagner le déploiement de la solution définie auprès d’une Business Unit principale et des autres Business Units. • Accompagner la prise en main de la plateforme Data.
Mission freelance
Data Analyst Expert Power BI
Gentis Recruitment SAS
Publiée le
Data analysis
Microsoft Power BI
Power Query
20 jours
Paris, France
Contexte de la mission Dans le cadre d’une démarche d’amélioration continue, un grand groupe du secteur de l’énergie souhaite réaliser un audit complet de son environnement Power BI , afin d’évaluer : La performance des jobs de rafraîchissement La fiabilité des datasets et modèles La qualité de la gouvernance Power BI La conformité aux meilleures pratiques Microsoft La scalabilité et la pérennité de l’architecture existante L’objectif est d’identifier les axes d’optimisation et de proposer une feuille de route claire et priorisée. Périmètre de la mission L’audit couvrira l’ensemble de la chaîne Power BI : Scheduled Refresh (Jobs) Datasets / Semantic Models Sources de données & Gateway Transformations Power Query / Dataflows Modélisation DAX & relations Rapports & dashboards Capacity management / Workspaces / Gouvernance Performance Analyzer & outils de monitoring Travaux attendusAnalyse des jobs Power BI Durées d’exécution Échecs récurrents Dépendances et enchaînements Consommation de ressources Analyse des logs d’erreurs Évaluation des modèles Structure des tables Types de stockage (Import / DirectQuery / Dual) Optimisation des mesures DAX Cardinalité & performance du modèle Analyse des sources de données Performance des requêtes Gouvernance des connexions Sécurité & gestion des credentials Optimisation Power Query (M) Gouvernance & sécurité Organisation des Workspaces Gestion des accès Row-Level Security (RLS) Sensitivity Labels Bonnes pratiques Microsoft Plan d’amélioration Recommandations techniques Quick wins & chantiers structurants Architecture cible Roadmap d’évolution Livrables attendus Rapport d’audit complet et structuré Liste priorisée des points critiques Plan d’optimisation détaillé Documentation des bonnes pratiques adaptées au contexte Présentation de restitution aux équipes
Mission freelance
Business Analyst Clinical Operational Data (full remote)
Signe +
Publiée le
ERP
6 mois
600 €
Paris, France
Contexte Support des initiatives liées aux données opérationnelles cliniques Collaboration entre équipes métiers, cliniques et data engineering Environnement pharmaceutique / données cliniques Missions principales Recueil, analyse et formalisation des besoins métiers Traduction des besoins en spécifications fonctionnelles pour les équipes data Contribution aux sujets data quality, data lineage et gouvernance Animation d’ateliers métiers et coordination des parties prenantes Participation à la gestion du backlog (Jira) et documentation (Confluence) Compétences requises Expérience en données cliniques / healthcare Standards : HL7, FHIR, ICD-10, LOINC Compréhension des plateformes data (Snowflake, dbt, IICS appréciés) Rédaction de user stories, spécifications fonctionnelles et critères d’acceptation Environnement Agile Informations mission Localisation : Full remote Durée : 6 mois renouvelables
Mission freelance
AWS Platform Engineer – Environnement Data & Analytics
Comet
Publiée le
AWS Cloud
1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Mission freelance
SAP S/4 Solution Architect Data – Programme Greenfield (H/F)
Signe +
Publiée le
Master Data Management (MDM)
SAP S/4HANA
1 an
700-890 €
Toulouse, Occitanie
Dans le cadre d’un programme stratégique de transformation en environnement greenfield sous SAP S/4HANA , nous recherchons un(e) SAP S/4 Solution Architect Data . Ce programme structurant vise la mise en place d’un Core Model S/4HANA avec une forte exigence sur la gouvernance, la qualité et la structuration des données. Vous interviendrez dans un environnement complexe, international et à forts enjeux métiers. 🎯 Missions🔹 Architecture & Stratégie Data Définir l’architecture Data dans le cadre du programme S/4HANA greenfield Concevoir le modèle cible de gouvernance des données Garantir la cohérence entre Core Model, déploiements et exigences métiers Définir les principes de gestion des données de référence 🔹 Expertise MDG Apporter une expertise avancée sur SAP S/4 MDG Définir et structurer les processus de Master Data Governance Participer au design et à l’intégration de MDG dans l’écosystème S/4 Challenger les choix de conception et proposer des solutions robustes 🔹 Coordination & Transversalité Travailler en étroite collaboration avec les architectes fonctionnels et techniques Accompagner les équipes métiers sur les enjeux Data Assurer l’alignement entre architecture, build et déploiement Sécuriser la qualité et la conformité des données Démarrage : Mars/Avril 2026 Durée : 1 an minimum TJM : Selon profil Localisation : Toulouse (très favorable au remote)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1721 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois