L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 075 résultats.
Offre d'emploi
Data Engineer GenAI / Databricks
UCASE CONSULTING
Publiée le
AWS Cloud
Databricks
GenAI
1 an
40k-45k €
400-710 €
Île-de-France, France
Bonjour à tous 😀 🎯 Contexte : Dans le cadre du développement de ses capacités en Intelligence Artificielle Générative , nous recherchons un Data Engineer spécialisé sur Databricks pour intervenir sur des cas d’usage innovants à forte valeur ajoutée. Le poste combine des enjeux de data engineering, machine learning et mise en production dans un environnement moderne. 🛠️ Missions principales Concevoir et développer des modèles de Machine Learning (GenAI) Collecter, préparer et exploiter les données Développer des pipelines d’ingestion et de transformation Assurer la mise en production et le monitoring des modèles (MLOps) Intervenir sur des sujets d’architecture RAG et fine-tuning Conseiller sur les choix techniques et les cas d’usage 🧩 Environnement technique Python / SQL / Pandas Databricks Machine Learning / Deep Learning (LLM, Transformers) Architectures GenAI (RAG, fine-tuning) Cloud AWS MLOps
Offre d'emploi
Buisness analyst / DATA ( trade finance ) - Denodo
AVA2I
Publiée le
Data quality
Microsoft Power BI
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation data au sein du métier Trade Finance, vous interviendrez sur la mise en place d’un Buisness Analyste/ DATA basé sur une plateforme de virtualisation de données. L’objectif est de : Centraliser et fiabiliser les données métiers Modéliser la donnée en fonction des besoins opérationnels Distribuer la donnée via API, reporting et applications Garantir la qualité et la gouvernance des données 🛠️ Missions 🔍 Analyse & cadrage Recueillir et analyser les besoins métier (ateliers, cadrage) Rédiger les spécifications fonctionnelles et user stories 🧠 Data & modélisation Analyser les modèles de données existants Mapper et intégrer les données (data virtualisation / denodo VQL) Participer à la construction du Data Product 🤝 Support & coordination Assurer un support fonctionnel auprès des équipes de développement Faire l’interface entre les équipes IT et les métiers 📊 Reporting & BI Concevoir et développer des dashboards et rapports ✅ Data Quality & Gouvernance Définir et implémenter des règles de qualité des données Contribuer à la gouvernance des données 🧩 Compétences fonctionnelles Bonne compréhension des besoins métier Une connaissance du Trade Finance est un plus 🌟 Soft skills Rigueur et esprit analytique Curiosité et proactivité Bon relationnel et communication ➕ Atouts Expérience en environnement bancaire ou financier Connaissance d’un progiciel Trade Finance (type TI+) Expérience sur des projets data complexes
Mission freelance
INGÉNIEUR DEVOPS IA / GENAI
HAYS France
Publiée le
AI
Artifactory
AWS Cloud
6 mois
700-800 €
Paris, France
Contexte & Environnement Intervention au sein du pôle Data & IA , et plus précisément de l’ équipe GenAI Le pôle conçoit et opère des plateformes “as a Service” destinées à faciliter le déploiement d’architectures : modernes distribuées hautement disponibles et résilientes Objectif : concevoir, industrialiser et opérer des offres d’IA générative à l’échelle Environnements Cloud public, Cloud privé et On-Premise Écosystème technique complexe, distribué, sécurisé et hautement disponible Travail en mode produit , au sein d’une squad agile pluridisciplinaire Périmètre d’intervention Couverture complète du cycle de vie du service : conception de l’offre industrialisation mise en production maintien en condition opérationnelle (MCO) Intervention sur des produits et services IA à destination des entités internes du groupe Missions principales Mise en œuvre technique & opérationnelle des offres IA Apporter une expertise technique forte dans la conception d’architectures IA Participer à la définition des architectures GenAI (Cloud et On-Premise) Industrialiser et automatiser le déploiement de plateformes agentiques Mettre en place des services managés IA , en intégrant : contraintes de sécurité exigences de conformité règles de gouvernance Piloter les mises en production et assurer la stabilité des plateformes IA Documenter les offres, services et architectures livrées DevOps, MLOps & LLMOps Déployer et opérer des workloads data & IA Mettre en œuvre et maintenir des pipelines : CI/CD MLOps / LLMOps Automatiser les déploiements via l’Infrastructure as Code Participer à l’optimisation des performances et des coûts des plateformes IA Contribution produit & agilité Participer aux daily meetings animés par le Product Owner Contribuer aux réunions de co-construction de la roadmap produit Prendre en charge des items de la backlog formalisée Assurer le lead technique sur un produit ou une brique de la plateforme Participer à l’ensemble des rituels de la squad, de la plateforme et du pôle Participer aux astreintes techniques du pôle Communication & valorisation des offres Démontrer la valeur des offres d’IA générative auprès des entités internes Réaliser des présentations techniques, démos et supports Participer à la promotion et à l’adoption des services IA développés
Mission freelance
Senior Data Scientist IA / Computer Vision / GenAI
Signe +
Publiée le
Agent IA
12 mois
500-700 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre du développement de solutions technologiques innovantes destinées aux acteurs de la mobilité et de la gestion de flottes, une équipe data souhaite se renforcer avec un Senior Data Scientist spécialisé en intelligence artificielle. L’objectif est de concevoir et industrialiser des modèles avancés permettant d’optimiser la performance opérationnelle, la sécurité et la durabilité des solutions proposées. Objectif de la mission Concevoir, développer et industrialiser des briques d’intelligence artificielle avancées (computer vision, modèles prédictifs, IA générative, systèmes agents) dans un environnement produit data innovant. Missions principales Conception et développement IA Concevoir des algorithmes d’IA pour des modèles prédictifs (risque, consommation, maintenance, performance) Analyser les performances des modèles et suivre les KPI Assurer la traçabilité des itérations et la non-régression Participer à l’industrialisation des modèles IA générative et systèmes agents Contribuer aux travaux autour des modèles de langage (LLM) Développer des solutions d’IA générative et de systèmes agents Participer à l’animation d’une communauté technique IA Innovation et vision Assurer une veille technologique active Proposer des orientations techniques innovantes Contribuer à des travaux de recherche et d’innovation Collaborer avec des partenaires externes (labos, start-ups, éditeurs) Coordination et communication Interagir avec les équipes techniques et métiers Comprendre les besoins opérationnels des utilisateurs Participer à la rédaction et validation des tickets techniques et releases Présenter les résultats et recommandations Livrables attendus Briques algorithmiques industrialisables Indicateurs de performance et analyses Documentation technique Contributions à la roadmap data / IA Recommandations techniques et stratégiques Compétences obligatoires Expertise en intelligence artificielle et machine learning avancé Expérience sur les modèles de langage (LLM) et systèmes agents Connaissances solides en computer vision Expérience en industrialisation de modèles data Capacité à piloter des projets data complexes Esprit analytique et critique Compétences appréciées Connaissance des environnements cloud / MLOps Expérience produit data ou solutions innovantes Interaction avec écosystèmes de recherche Participation à projets innovants ou brevets
Mission freelance
Développeur Fullstack Senior (Cloud & Data)
Nicholson SAS
Publiée le
Angular
Apache Airflow
BigQuery
18 mois
400 €
Saint-Denis, Île-de-France
Nous recherchons un Développeur Fullstack Senior pour accompagner une cellule de référencement DATA au sein d'un grand compte du secteur de l'énergie. Vous interviendrez sur la conception et la mise en œuvre de solutions innovantes d'analyse et de restitution de données. 📦 Détails de la mission Localisation : Saint-Denis (93) – Rythme : 2 à 3 jours de présentiel par semaine obligatoires. Date de démarrage : 11/05/2026 Date de fin prévisionnelle : 15/11/2027 Budget (TJM Achat max) : 400 € 🎯 Vos Missions Sous la responsabilité du lead technique, vos principales missions incluent : Conception & Développement : Identifier, concevoir et livrer des solutions fullstack répondant aux besoins prioritaires de restitution de données. Architecture & Guidelines : Contribuer activement aux "Guidelines" de l'entité (bonnes pratiques de développement et de déploiement). Documentation : Rédiger les dossiers de conception technique et d’exploitation pour garantir la pérennité des solutions. Veille & Innovation : Assurer une veille technologique constante et proposer des solutions innovantes pour optimiser les processus existants. 🛠️ Expertise Technique Requise 1. Environnement Cloud & Data (Maîtrise indispensable) : GCP (Google Cloud Platform) : BigQuery, Composer, Airflow, DataProc, DataFlow. Infrastructure as Code : Terraform, Ansible. Environnement : Hybride (On-premise / Cloud). 2. DevOps & MLOps : CI/CD & Versioning : Git, GitLab-CI, Jenkins, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Observabilité & FinOps : ELK, Grafana, Prometheus, Google Monitoring. Optimisation des coûts cloud. 3. Développement Fullstack : Backend : Python (Expertise solide). Frontend : Vue.js et/ou Angular.
Offre d'emploi
Data Analyst - RENNES
NEO SOFT SERVICES
Publiée le
Dataiku
Microsoft Power BI
ServiceNow
3 mois
36k-42k €
300-380 €
35000, Rennes, Bretagne
Missions principales : 30 % – Production : Modélisation des données Création d’indicateurs d’analyse et de tableaux de bord sur Power BI 70 % – RUN : Analyse des données et des incidents Interprétation et explication des chiffres Esprit de synthèse et curiosité dans la recherche d’information Présentation des résultats (démonstrations, restitution de tableaux de bord) Communication claire et efficace Environnement technique Power BI Jira ServiceNow (ticketing – niveau N2) Dataiku (fort atout) Python / SQL (appréciés mais non indispensables)
Mission freelance
Business Analyst Finance DATA / IA - Paris
Net technologie
Publiée le
Big Data
Elasticsearch
Méthode Agile
9 mois
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un Senior Business Analyst pour contribuer à l’industrialisation d’une plateforme globale de Front Office destinée à renforcer la supervision des activités de trading et de sales. 🎯 Objectif : développer une plateforme de monitoring couvrant communications, ordres, transactions et données associées , intégrant des technologies d’analyse avancées (NLP / IA). 🚀 Missions Recueil et formalisation des exigences fonctionnelles et use cases Rédaction des spécifications fonctionnelles et techniques Coordination avec les Data Engineers et les équipes projet Participation aux sprints Agile et suivi des livraisons Conception de la stratégie data pour l’analyse multi-sources Organisation et pilotage des tests UAT Collaboration avec les équipes Business, Compliance et IT
Mission freelance
Scrum master Data
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 mois
400-550 €
Paris, France
POSTE: SCRUM MASTER DATA SENIOR Objectifs de la mission : · Uniformiser les pratiques Agile sur l’ensemble du périmètre · Stabiliser et sécuriser les cycles de sprint · Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication · Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap · Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention · Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros · Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée · Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation · Mise en place / harmonisation de la Definition of Ready et Definition of Done · Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery · Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory Livrables types attendus · Cadre Agile documenté et harmonisé · Processus formalisés (production, arbitrage, communication) · Roadmap + capacité prévisionnelle · Tableau de bord CAF / consos / KPIs · Release notes pour chaque MEP · Synthèse et présentation aux responsables Data Profil recherché : · 8+ ans d’expérience en Scrum Mastery dans des contextes complexes et exigeants · Expertise en delivery Data · Solide expérience en coordination multi‑prestataires · Forte capacité de structuration, formalisation et communication · Leadership non hiérarchique, autonomie, rigueur, assertivité · Culture du delivery prévisible et du continuous improvement · Bonne connaissance de Jira & Azure DevOps
Mission freelance
ARCHITECTE DATA EXPERT
Groupe Ayli
Publiée le
.NET
.NET Framework
Apache Kafka
3 mois
Paris, France
Étude de refonte du backbone data & modernisation des plateformes décisionnelles 🏢 Contexte Dans un environnement data à forte volumétrie, comparable à des secteurs comme les télécoms, banques, assurance ou l’e-commerce, notre Client souhaite engager une réflexion stratégique sur l’évolution de son architecture data . L’architecture actuelle, conçue en 2018, repose sur des technologies éprouvées mais nécessite aujourd’hui une évolution pour répondre aux enjeux de performance, de scalabilité et de nouveaux usages . 🏗️ Stack technique actuelle ETL : IBM InfoSphere DataStage Base de données : Oracle Exadata Restitution : IBM Cognos Analytics + applications .NET Architecture globale : mise en place en 2018 🎯 Enjeux business Définir une trajectoire d’évolution du backbone data Structurer une roadmap de transformation autour de l’évolution des outils ETL Accompagner le développement de nouveaux usages data (API, microservices, etc.) Moderniser l’écosystème décisionnel et analytique 🎯 Objectifs de la mission Piloter et réaliser, en autonomie, une étude d’architecture complète sur une durée inférieure à 3 mois, visant à : Diagnostiquer les limites de l’architecture actuelle et identifier les besoins de performance Concevoir une architecture cible moderne, scalable et performante Définir une stratégie de transformation technologique Identifier et structurer les nouveaux usages autour de la donnée (API, microservices…) Élaborer une roadmap de transformation avec estimation des impacts (coûts, risques, organisation) 📦 Livrables attendus Diagnostic technique Audit complet de l’architecture existante, identification des limites, des forces et des axes d’amélioration Cahier des charges cible Recommandations argumentées, définition de l’architecture cible et des choix technologiques Roadmap de transformation Planning de transformation, estimation budgétaire et analyse des risques Présentation exécutive Synthèse stratégique et recommandations à destination de la direction 📌 Livrables détaillés Cartographie applicative et technique actualisée Analyse comparative des solutions alternatives ETL Architecture cible (logique et physique) documentée Estimation budgétaire et planning de transformation Matrice des risques et plans de mitigation
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Mission freelance
Cloud Automation & Data Engineering
ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance
1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance
VISIAN
Publiée le
Architecture
Data management
3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Mission freelance
Ingénieur Devops IA
CONCRETIO SERVICES
Publiée le
Azure DevOps
IA
12 mois
400-510 €
Île-de-France, France
Contexte de la mission Notre client recherche un profil MLOps / Plateforme IA pour assurer l'exploitation et le déploiement de solutions d'intelligence artificielle à destination des équipes internes. Le prestataire jouera un rôle clé à l'interface entre les équipes data, les développeurs et les utilisateurs métiers, dans un environnement GPU managé et orienté LLM. Missions principales Assurer le suivi et l'exploitation des plateformes IA pour les utilisateurs internes Accompagner la consommation des offres IA au sein du cluster : exposition de modèles LLM, gestion des ressources GPU via Run:AI , déploiement de solutions RAG Apporter un support technique et méthodologique aux équipes internes du cluster BPCR sur l'utilisation des plateformes IA Développer et mettre à disposition des services automatisés (Python, GitLab-CI) pour faciliter l'adoption et l'intégration des solutions IA Environnement technique Orchestration & infrastructure : Kubernetes (pods, services, namespaces, déploiements), Run:AI LLM & IA générative : exposition de modèles, fine-tuning, transfer learning, architectures RAG Serving de modèles : vLLM, TGI ou équivalents GPU : allocation, gestion mémoire, optimisation des charges de travail Développement & automatisation : Python, API REST, GitLab-CI Recherche vectorielle : bases vectorielles et intégration dans des pipelines RAG Environnement : Linux, pratiques DevOps / MLOps
Offre d'emploi
BI / IT Specialist (H/F) - 94
MP Advertising
Publiée le
BI
Data modelling
ERP
6 mois
50k €
Val-de-Marne, France
Nous recherchons un BI / IT Specialist pour gérer et faire évoluer le système d’agrégation des factures du système à l’échelle EMEA. Ce poste se situe à l’interface entre la Business Intelligence, l’IT et la Finance, avec pour objectif de garantir la fiabilité des traitements de données, la cohérence des mappings et une intégration fluide avec les systèmes locaux et le système central du Groupe. Le candidat jouera un rôle clé dans la maintenance du système, la qualité des données et la coordination des développements techniques. Gestion du système & traitement des données Superviser les flux de données et garantir leur qualité entre les systèmes locaux et le système Groupe ; Accompagner l’intégration de nouveaux ERP / entités dans Eden. Mapping & gestion des données de référence (Master Data) Maintenir la logique de mapping (produits, clients, données financières) et assurer l’alignement avec les systèmes MES et MDM ; Gérer la création et le cycle de vie des codes produits (création, mise à jour, retrait). Clôture mensuelle & validation des données Piloter le processus de clôture mensuelle dans le système Eden : de l’intégration des factures jusqu’au traitement et à la transmission vers le MES du montant correct du chiffre d’affaires net EMEA ; Coordonner les activités de clôture mensuelle en assurant la cohérence avec le reporting financier ; Investiguer et résoudre les anomalies de données (factures manquantes ou incorrectes, incohérences de référentiel, problèmes de paramétrage produit) ; Valider les données dans les rapports définis par le management, notamment ceux de la Finance ainsi que d’autres départements (ex : reportings Marketing type MBR, planification financière (DOP), etc.) ; Collaborer avec les équipes support IT pour identifier les problèmes et proposer des solutions ; Valider les améliorations livrées dans son périmètre (validation finale sous la responsabilité du Head of Finance BI). Coordination de projets & collaboration IT Proposer de manière proactive des pistes d’amélioration et d’évolution des outils et reportings existants ; Faire le lien entre les équipes métiers et IT pour les évolutions et nouveaux développements ; Coordonner les projets, réaliser les tests (UAT) et valider les livrables ainsi que la documentation IT.
Offre d'emploi
Architect Data
The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server
6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
Offre d'emploi
Data Scientist H/F
█ █ █ █ █ █ █
Publiée le
Ocaml
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Consultante freelance disponible | Pilotage de projets IT & conduite du changement : prête pour votre prochaine mission !
- EURL au régime micro-entreprise ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Je galère à trouver une mission CDP sénior
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Facturation electronique 2026
4075 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois