L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 480 résultats.
Mission freelance
Data Governance Specialist - Data Catalog
Codezys
Publiée le
Apache Airflow
Collibra
Databricks
6 mois
Lille, Hauts-de-France
Contexte de la mission Le Data Governance Specialist rejoint l’équipe Expertise du Centre d’Expertise (CoE) Data Governance . Cette équipe a pour mission d’élaborer des principes communs, de favoriser la transversalité des rôles et des processus de gouvernance des données, ainsi que d’industrialiser l’utilisation de l’expertise afin de résoudre les problématiques rencontrées par les Digital Units lors de l’exécution des processus de gestion des données. La mission consiste à assurer une expertise à la fois fonctionnelle et technique concernant la solution de Data Catalog de Decathlon ( Collibra ) et son intégration dans l’écosystème de la Data & Agentic Platform . Elle inclut également une participation active aux chantiers stratégiques de transformation, tels que le AI Governance Framework , la Trust AI et la Data Quality by Design . Objectifs et livrables Développement produit / Configuration du Data Catalog Collibra : Conception de solutions pour répondre aux problématiques des utilisateurs de Collibra et mise en œuvre de ces solutions dans l’outil (administration, configuration, développements spécifiques si nécessaire). Validation des spécifications, développement et déploiement des workflows. Assistance pour la collecte des demandes et des requêtes des utilisateurs, ainsi que leur tri. Intégration du Data Catalog (Collibra) avec l’écosystème technologique de la donnée : Participer à la conception, à la mise en œuvre et à l’exploitation du système d’échange de métadonnées entre le Data Catalog, les solutions composant la Data Platform de Décathlon et les différents référentiels de métadonnées de l’entreprise. Collaborer avec l’équipe d’architecture pour assurer une intégration fluide. Configurer les capacités Edge en vue de la collecte des différentes zones de données. Développer et maintenir les connexions (crawling, APIs, connecteurs), assurer l’échange d’informations entre les systèmes IT et le Data Catalog (en interaction avec le support technique de Collibra). Intégrer le Data Catalog au sein du Data Quality Metrics Store. Participer activement au programme de Data Contract.
Mission freelance
Data Product Manager/Environnement anglophone
Comet
Publiée le
Data governance
1 an
400-550 €
Île-de-France, France
Dans le cadre de la structuration de ses activités data à l’échelle mondiale, notre client recherche un Data Product Manager Senior pour piloter la conception et la mise en œuvre de modèles de données industriels et de solutions de reporting. Vous interviendrez sur un périmètre stratégique couvrant plusieurs applications déployées dans des usines à l’international, avec un objectif clair : standardiser, fiabiliser et valoriser la donnée au service de la performance industrielle. Vos responsabilités En tant que Data Product Manager, vous serez au cœur de l’interaction entre les équipes métiers et techniques. Vos missions principales : Comprendre les enjeux business liés à la performance industrielle Recueillir et structurer les besoins métiers Animer des ateliers avec les différentes parties prenantes Concevoir et formaliser les modèles de données (data modeling, business layer) Définir l’architecture fonctionnelle des solutions data Coordonner les équipes data (Data Engineers, BI, Architectes) Organiser les contributions autour du modèle "Data as a Service" Documenter les solutions et démontrer leur valeur Préparer les phases de mise en œuvre (budget, planning, roadmap) Formaliser les recommandations finales pour le lancement des projets
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Offre d'emploi
Développeur Board Max 400€ à Clermont-Ferrand
Craftman data
Publiée le
Azure
Databricks
Microsoft Power BI
1 an
40k-45k €
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Junior possible, minimum 3 ans d'expériences L'objectif est de travailler sur des projets Data en tant que Développeur BOARD. L’activité consiste à concevoir et configurer des applications BOARD et à suivre la livraison jusqu’au déploiement en Production, assurer le support L3 (capacité à supporter les tests d’acceptation utilisateurs, bon niveau de communication attendu). Mandatory Skills : BOARD, Databricks, Azure Datalake, PowerBI, concepts BI, anglais, bon niveau de communication (vulgarisation de concepts techniques). Skills nice to have : AGILE, appétence pour l’analyse fonctionnelle. Compétences techniques requises : Azure Databrick Business analysis Microsoft Power BI Microsoft Azure Data Lake English
Mission freelance
Architecte Fonctionnel - Environnement Data (H/F)
REACTIS
Publiée le
AMOA
Architecture
Big Data
12 mois
Paris, France
Au sein d’une DSI d’envergure, vous intervenez dans un environnement Data stratégique au cœur des enjeux Big Data et décisionnels. Intégré(e) à une équipe Gouvernance & Usages Data, vous contribuez à la transformation du SI et à l’optimisation des usages data au service des métiers. Vos missions Accompagnement des métiers et de la MOA dans l’expression et le cadrage des besoins Identification et instruction des demandes d’évolution et nouveaux projets Étude de faisabilité et coordination avec les équipes techniques (Data Engineers, éditeurs, experts) Conception de solutions technico-fonctionnelles adaptées aux enjeux Data Modélisation des données et contribution à la cartographie applicative du SI Participation à la définition de la trajectoire urbanistique du SI décisionnel et opérationnel Rédaction des spécifications fonctionnelles en collaboration avec les équipes Data Accompagnement des équipes projet sur les aspects fonctionnels tout au long du cycle de vie Participation à la recette et à la stratégie de test Contribution aux comités projet (suivi des plannings, charges, risques) Suivi des indicateurs, reporting et amélioration continue des processus
Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F
ADSearch
Publiée le
Architecture
Data Mesh
Production
3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Mission freelance
Data Product Manager
K2 Partnering Solutions
Publiée le
Data management
1 an
Paris, France
Notre client recherche un(e) Data Product Manager afin de renforcer ses équipes. L’objectif est de concevoir, structurer et développer un portefeuille de produits et de plateformes data répondant aux besoins métiers du domaine Mobility, tout en respectant les standards et les guidelines en matière d’architecture Data & Analytics définis par le client. Priorités pour 2026 : Migration vers une plateforme data Cloud Migration de MicroStrategy vers Power BI Prise en charge des besoins métiers continus dans les domaines : Sales Finance Manufacturing Supply Chain Purchasing Compétences attendues : Excellente communication en français et en anglais Compétences en analyse de données (exploratoire) et modélisation de données Bonne compréhension du cycle de vie complet de la donnée (de la source à la visualisation) Vision globale des produits Data & BI dans leur périmètre Connaissance des données ERP (SAP) et des principes de Master Data Management Rigueur dans les méthodes d’analyse, de cadrage et d’organisation Forte orientation client Esprit d’équipe Début : Mai 2026 Location : Paris (3 jours sur site/ 2 jours télétravail) Langues : Français et Anglais
Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)
UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake
1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Offre d'emploi
Data Scientist (H/F)
QODEXIA
Publiée le
Docker
GitLab CI
MLOps
10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. MISSION GLOBALE : Notre client est un grand groupe industriel de référence dans le secteur défense & technologies. Dans le cadre du développement d'une V0 sur un projet de détection d'éléments pour le secteur Naval (analyse d'images et flux vidéos), nous recherchons un Data Scientist Senior à forte séniorité et capacité de leadership. Vous participerez activement à la phase de scoping et au cadrage des besoins IA avec les équipes métiers, tout en concevant, développant et validant des solutions algorithmiques de Computer Vision/DRI et en assurant le cycle de vie complet des modèles (MLOps) dans un environnement de sprint condensé.
Offre d'emploi
Ingénieur SOFTWARE SAP EWM F/H - Informatique industrielle (H/F)
█ █ █ █ █ █ █
Publiée le
ABAP
Big Data
Belgique
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer
Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL
12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Mission freelance
Architecte Applicatif & Data Cloud
CAT-AMANIA
Publiée le
Big Data
J2EE / Java EE
Python
3 mois
400-610 €
Lille, Hauts-de-France
Architecte Applicatif & Data Cloud (H/F) Nous recherchons un consultant indépendant pour une mission d'Architecte Applicatif et Développeur Senior au sein d'un grand groupe du secteur de la distribution, sur un projet lié au domaine de la Finance. L’enjeu central de cette mission est la fiabilisation des modèles de calcul et la consolidation d’une architecture Data robuste sous environnement Google Cloud. Informations Générales Référence : TM17037ADON Date de démarrage : 13/04/2026 Date de fin : 31/12/2026 (Durée : 166 jours) Lieu : Ronchin (59) Rythme : 3 jours de présence sur site par semaine requis Contrat : Assistance technique Description de la Mission Intégré à une équipe agile, votre rôle consistera à consolider et améliorer les travaux existants tout en assurant la transmission de vos connaissances aux équipes internes. Architecture et Conception : Définir la structure technique des systèmes et choisir les frameworks adaptés. Assurer la cohérence du système d’information et le respect des standards de l’entreprise. Rédiger le dossier d'architecture (documentation et validation de l'existant). Concevoir l'intégration du produit dans l'usine de packaging. Développement et Fiabilisation : Création des jobs et validation des interfaces. Réalisation des développements, tests d'intégration et mise à jour de la documentation. Garantir la performance de l'application (tests de montée en charge) et la sécurité logicielle. Accompagnement Technique : Former et accompagner les développeurs sur les normes et pratiques de développement. Animer les indicateurs de qualité et assurer un support de second niveau sur les problématiques complexes. Définir la roadmap technique du produit. Profil et Compétences Requises Nous recherchons un profil de niveau "Maîtrisant", capable d'allier expertise technique et sens du service client. Compétences Techniques (Niveau Confirmé) : Google Cloud : Computing, Big Query, Big DATA (Indispensable). Langages : Python (Indispensable) et Expertise Java / J2EE souhaitée. Outils & Data : GitHub, Terraform, Kafka (Indispensable). Dataflow : Connaissance souhaitable. Connaissances Linguistiques : Français : Professionnel impératif. Anglais : Lu et écrit. Qualités attendues : Capacité d'adaptation aux priorités changeantes. Aptitude à la transmission de compétences. Rigueur dans la documentation et la fiabilisation des résultats.
Offre premium
Offre d'emploi
Data Analyst Monétique
Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)
6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse
KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python
1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
Offre d'emploi
Senior Data Scientist
Gentis Recruitment SAS
Publiée le
Machine Learning
MLOps
Python
6 mois
53k-91k €
530-1k €
Luxembourg
Nous recherchons un(e) Senior Data Scientist pour concevoir, développer et déployer des modèles de data science à fort impact métier (segmentation, churn, fraude, marketing, prévision, optimisation). Vous interviendrez sur l’ensemble du cycle de vie des projets : exploration des données, feature engineering, modélisation, évaluation, mise en production et monitoring. Vous serez également responsable de la performance et de la robustesse des modèles dans le temps (dérive, recalibrage), tout en garantissant leur explicabilité et leur conformité. En collaboration avec les équipes Data Engineering, IT et métiers , vous contribuerez à l’industrialisation des solutions et à leur adoption. Vous participerez également à la diffusion des bonnes pratiques et jouerez un rôle de référent technique auprès de profils plus juniors.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3480 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois