L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 542 résultats.
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
35k-45k €
Saint-Égrève, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA). Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données). Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités). Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data. Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques. Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Mission freelance
Expert Azure Data Factory F/H - 3 mois
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Mission freelance
Concepteur Développeur Big Data
Publiée le
Apache Spark
AWS Cloud
Azure
12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : * Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA) ; * Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) ; * Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités) ; * Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data ; * Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques ; * Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Mission freelance
Data Engineer
Publiée le
Big Data
IA
Java
3 ans
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tester différents LLM peu importe le provider (aws, gcp, azure) Préparer les jeux de données Définir les conditions de succès et d’échec et paramétre les outils de benchmark (IA tools par exemple) afin de comparer les résultats attendu Faire des développements su les produits de la squaq (Java / Python) L'équipe a pour objectif de savoir reconnaître le maximum de documents clients possible et d'en extraire le maximum de données possibles pour aider le conseiller au quotidien. La squad souhaite élargir son panel de documents reconnus et moderniser les technologies utilisées (LLM notamment).
Mission freelance
Data / AI Engineer
Publiée le
Databricks
Git
Python
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, Data Scientists, équipes Produit), vous interviendrez sur l’ensemble de la chaîne data & IA , de la construction des pipelines jusqu’à la mise en production et au suivi des modèles. Vos principales responsabilités : Concevoir et développer des pipelines data robustes (batch et streaming) Préparer, transformer et structurer les données pour les cas d’usage IA Entraîner, évaluer et industrialiser des modèles de Machine Learning Mettre en place le monitoring des données et des modèles Garantir la qualité, la traçabilité et la fiabilité des traitements Collaborer étroitement avec les Data Scientists et équipes produit 🛠️ Industrialisation & MLOps Mise en place des bonnes pratiques de versioning et CI/CD Industrialisation des pipelines et des modèles Contribution à la documentation technique Amélioration continue des performances et de la maintenabilité Participation aux phases de déploiement et de stabilisation
Mission freelance
Architecte Data
Publiée le
Amazon S3
AWS Glue
DBT
6 ans
680-700 €
Paris, France
Télétravail partiel
Dans le cadre de l’accélération de sa stratégie data & omnicanale , un acteur majeur du retail / e-commerce renforce sa Data Platform afin de mieux exploiter ses données clients, ventes, logistique et marketing. Nous recherchons un Architecte Data pour accompagner les équipes et garantir une architecture performante, scalable et sécurisée, capable de soutenir de forts volumes et des usages analytiques avancés. Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists, équipes Marketing & Supply), vous interviendrez de manière transverse sur la conception et l’évolution de l’architecture Data de la plateforme. Vos principales responsabilités Définir et garantir la cohérence de la stack Data (ingestion, traitement, exposition) Assurer le respect des normes et standards d’architecture Data & Cloud Mettre en place et sécuriser les contrats d’interface entre les différentes équipes (data, applicatif, BI) Auditer l’architecture existante et proposer des axes d’optimisation (performance, coûts, scalabilité) Accompagner les équipes sur les bonnes pratiques data (qualité, gouvernance, sécurité) Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions data Participer aux phases de tests et d’intégration de nouvelles briques techniques 🛠️ Developer Experience & FinOps Contribution à l’écriture et à l’industrialisation de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et les pipelines CI/CD Définition des standards de développement, de déploiement et d’exploitation Mise en place du suivi budgétaire par équipe et par usage (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification, priorisation et pilotage des optimisations de coûts Cloud
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Offre d'emploi
Data Engineer
Publiée le
Azure DevOps
Databricks
Microsoft Power BI
12 mois
40k-50k €
400-450 €
Lille, Hauts-de-France
Nous recherchons un Data Engineer pour travailler sur des projets de collecte, transformation et gestion des flux de données au sein de notre équipe. Le poste requiert des compétences techniques en Data Bricks , Python , SQL et Azure DevOps pour assurer le bon déroulement des pipelines de données. De plus, des connaissances de base dans l’utilisation de Power BI et une approche agile basée sur Scrum sont attendues. Le Data Engineer jouera un rôle clé dans la mise en place et l'optimisation des processus de gestion des données, en s'assurant de la qualité, de la transformation et de l'intégration des données dans des environnements Azure. Responsabilités : Collecte et transformation des données : Concevoir et développer des pipelines de collecte de données et de transformation (ETL) à l’aide des technologies adaptées (notamment Data Bricks ). Gestion des flux de données : Assurer l’intégration et la gestion fluide des flux de données entre les différentes sources et plateformes. Développement Python & SQL : Créer des scripts Python et des requêtes SQL pour manipuler, nettoyer et transformer les données. Support Azure DevOps : Utiliser Azure DevOps pour gérer les processus de déploiement et d’intégration continue (CI/CD). Participation aux projets Power BI : Fournir un soutien de base pour les projets Power BI, notamment au niveau sémantique (compréhension des données et modèles). Méthodologie Agile : Travailler en étroite collaboration avec l'équipe produit dans un cadre Agile (méthodologie Scrum) pour assurer la livraison rapide et efficace des projets. Compétences requises : Techniques : Maîtrise des technologies Data Bricks , Python , SQL . Expérience avec Azure DevOps pour la gestion des déploiements et de l’intégration continue. Power BI : Connaissances de base en sémantique des données et modèle de données dans Power BI. Connaissance des processus ETL pour la gestion de la collecte, transformation et stockage des données. Agilité : Bonne maîtrise des méthodes Agile , avec une expérience en Scrum . Compétences en communication : Capacité à travailler efficacement en équipe, à échanger et à comprendre les besoins fonctionnels pour traduire ces besoins en solutions techniques. Profil recherché : Formation : Bac+5 en informatique, data science, ou dans un domaine similaire. Expérience : Minimum 2 à 3 ans d’expérience en tant que Data Engineer ou sur un poste similaire avec des compétences en développement Python, SQL et gestion des données. Autonomie et capacité à travailler dans un environnement dynamique et en constante évolution. Compétences appréciées : Expérience avec Azure Synapse , Azure Data Lake , ou autres outils cloud pour la gestion des données. Bonne capacité à comprendre et à travailler avec des données complexes et variées. Connaissance approfondie des bonnes pratiques en data engineering (qualité, transformation, gestion des données).
Offre d'emploi
Data Engineer / Data Analyst (H/F)
Publiée le
Databricks
6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Mission freelance
Data Analyst Senior
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
SQL
6 mois
540 €
Paris, France
Télétravail partiel
Data Analyst Senior (Power BI / SSAS) – Mon client bancaire assurance Nous recherchons un Data Analyst Senior (+5 ans d'expérience) pour rejoindre les équipes de Paris, dans le cadre d'un projet d'envergure mêlant maintenance de l'existant et innovation Cloud. Le Contexte de la Mission Au sein du pôle Assurance, vous intégrerez la plateforme Data responsable du Build et du Run d'un parc applicatif décisionnel complexe. Votre rôle sera double : Gestion des cubes SSAS : Création et maintenance des cubes via Visual Studio . Reporting Power BI : Développement de rapports avancés et participation active à la transition vers une plateforme Power BI Cloud . Profil Recherché Expertise technique : Maîtrise confirmée de Power BI et SSAS (Tabular/Multidimensional). Compétences annexes : Très bon niveau en SQL et aisance sur l'IDE Visual Studio. Une expérience sur Power BI Cloud est un plus majeur. Soft Skills : Capacité à animer des ateliers de cadrage avec les métiers, esprit de synthèse et autonomie. Modalités Pratiques Lieu : Paris (Rythme : 3 jours/semaine sur site). Démarrage : Février 2026. Durée : 6 mois + (visibilité longue). Tarif : Maximum 540 € HT/jour.
Offre d'emploi
Data Engineer (spécialisation Snowflake)
Publiée le
Agile Scrum
Azure
Data analysis
12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Mission freelance
Consultant(e) Fonctionnel(le) / Business Analyst – Plateformes de Trading H/F
Publiée le
Business Analyst
Cash Management
Data governance
3 mois
La Défense, Île-de-France
Télétravail partiel
Contexte de la mission Dans le cadre de l’évolution des applications IT , la mission consiste à rédiger les spécifications d’implémentation des fonctionnalités identifiées sur les périmètres Cash et Derivatives , en conformité avec la nouvelle méthodologie de documentation . Le/la consultant(e) interviendra au cœur des équipes IT et métiers, dans un environnement Agile , afin de concevoir, formaliser et documenter les services fonctionnels des plateformes de trading. Objectifs de la mission Concevoir et spécifier les services fonctionnels de la plateforme Traduire les besoins métiers en spécifications fonctionnelles claires et exploitables Garantir la cohérence fonctionnelle, applicative et data des solutions proposées Produire une documentation fonctionnelle conforme aux standards et méthodologies en vigueur Responsabilités principales Rédiger les User Stories et participer à leur refinement avec les équipes Agile Réaliser les spécifications fonctionnelles détaillées Définir et documenter les interfaces externes (flux, échanges inter-applicatifs) Produire les documents d’analyse fonctionnelle Définir la configuration fonctionnelle des solutions Documenter le modèle de données / modèle d’information Travailler en étroite collaboration avec les équipes : Métiers Développeurs Architectes QA / Tests Livrables attendus Artefacts Agile sur l’ensemble des sprints : User Stories Critères d’acceptation Documents de spécifications fonctionnelles Spécifications d’interfaces Documents d’analyse fonctionnelle Documentation du modèle d’information / modèle de données Environnement méthodologique et technique Méthodologie : Agile / Scrum Domaines fonctionnels : Cash & Derivatives Systèmes : Optiq, MATRIX, SATURN Contexte : Systèmes de trading et marchés financiers
Offre d'emploi
Développeur Python – Automatisation
Publiée le
Apache Airflow
CI/CD
Docker
40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
Mission freelance
Manager Data / R&D (H/F) - 81
Publiée le
Big Data
3 mois
460-750 €
Castres, Occitanie
Télétravail partiel
Context Dans le cadre d’un programme de transformation data au sein de la R&D, notre client souhaite être accompagné dans la définition de sa stratégie data avec un focus fort sur la modélisation. La mission vise à établir un état des lieux précis, à définir une vision cible réaliste et ambitieuse, puis à construire une roadmap priorisée sur les 12 à 24 prochains mois. Mission 1. Diagnostic & analyse * Réaliser un état des lieux rapide et structuré des usages actuels de la donnée et des pratiques de modélisation au sein de la R&D. * Identifier les forces, faiblesses, opportunités et irritants dans les processus, outils et interactions. 2. Vision & stratégie * Définir une vision cible data claire couvrant : * La gestion et l’exploitation de la donnée, * Les pratiques de modélisation et de data science, * Les besoins associés : compétences, organisation, méthodes, technologies. * Proposer un cadre stratégique cohérent avec les ambitions R&D du groupe. 3. Roadmap Data * Construire une roadmap data 12–24 mois comportant : * Les initiatives prioritaires, * Les projets structurants liés à la modélisation et à la donnée, * Les quick-wins permettant un impact rapide, * Les critères de priorisation et de pilotage. 4. Animation & restitution * Animer des ateliers avec les équipes R&D (scientifiques, data, IT). * Faciliter la convergence vers une vision commune. * Produire des recommandations concrètes, opérationnelles et priorisées. * Restituer les livrables à la direction R&D et/ou Data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- Facturation électronique 04 : Factures erronées / fausses factures…
- Facturation électronique 01 : Rappel du calendrier !
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
1542 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois