L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 630 résultats.
Offre d'emploi
Tech Lead Data & BI (H/F)
1G-LINK CONSULTING
Publiée le
PowerBI
Snowflake
8 mois
Île-de-France, France
Contexte Dans le cadre du développement de ses activités Data & Analytics, notre client renforce ses équipes avec un(e) Data & BI Tech Lead. Vous interviendrez sur des projets stratégiques impliquant des sources de données variées (ERP, CRM, applications métiers), avec pour objectif de structurer les modèles de données, industrialiser les pipelines et garantir la qualité des solutions BI. Vous jouerez un rôle central de référent technique, en accompagnant les équipes Data Engineers et BI Engineers. Missions Traduire les besoins métiers en solutions techniques Concevoir les modèles physiques de données dans Snowflake Définir les choix de modélisation, d’intégration et de transformation Accompagner les Data Engineers sur les pipelines data Encadrer les BI Engineers sur les développements Power BI Promouvoir les bonnes pratiques (qualité, performance, maintenabilité) Mettre en place des pipelines robustes et automatisés Garantir la documentation et la réutilisation des patterns Déployer les pratiques CI/CD et standards de développement Superviser la conception des datasets et rapports Power BI Assurer la performance et la cohérence des solutions livrées Sécuriser les choix techniques sur les sujets sensibles Accompagner la montée en compétence des équipes Assurer le transfert de connaissances Collaborer avec des équipes distribuées (international) Compétences techniques Snowflake Power BI (modélisation, datasets, performance) Data modeling Pipelines data & automatisation Airflow / Astronomer GitHub & CI/CD Connaissance de sources type ERP / CRM (SAP, Salesforce) Expérience en environnement Azure Contexte
Mission freelance
Data Engineer
SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python
6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : • Effectuer des alimentations de données, • Travailler en binome avec un Data Analyst sur un sujet IA/Data. • Travailler autour d'agent IA pour du requetage SQL en langage naturelle • Mise à dispo d'outillage d'aide aux développement, monitoring… , • Faire une veille technologique autour des architectures data,
Mission freelance
Tech Lead Data & Viz - Oxygen
emagine Consulting SARL
Publiée le
DBT
Microsoft Power BI
Snowflake
3 ans
Île-de-France, France
Contexte de la mission Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post-mortems), tout en mentorant l’équipe. ❖ Tech Lead Data & Viz pour l'équipe DAAS ❖ Expertise Snowflake/Azure Data Factory ❖ Aide au cadrage technique sur les initiatives et projets du périmètres. ❖ Expertise Power BI sur le périmètre Regions : best practices à rediger, template, etc ❖ Faire monter en compétences une ressource France et une ressource Indec sur la partie Report Builder Objectifs et livrables Modèles data & datamarts Snowflake (tables / vues / conventions) + projet dbt (modèles, tests, documentation). Pipelines industrialisés (orchestration, CI/CD, contrôles qualité, runbooks). Modèle sémantique & rapports Power BI, avec standards performance/gouvernance (RLS, métriques). Standards de connexion Power BI ↔ Snowflake (guides, templates, paramètres).
Mission freelance
Consultant technico fonctionnel SAP HR (Time & Payroll)
ROCKET TALENTS
Publiée le
IA Générative
SAP
1 an
440-480 €
Le Plessis-Robinson, Île-de-France
Nous recherchons un consultant technico fonctionnel SAP HR • Ateliers de conception avec le métier • Analyser, concevoir et réaliser les User Stories et ses critères d’acceptation avec son expertise paie et gestion des temps • Réaliser des tests unitaires et de non-régression lors de la livraison de nouvelles releases Assurer le support opérationnel post MEP du projet : Analyse de l’anomalie remontée par l’utilisateur et investigation auprès de l’équipe si besoin pour la résolution du problème. Contacter le métier si besoin de faire une prise en main et/ou en cas de besoin d’informations complémentaires. • Maitrises fonctionnelles dans le domaine des ressources humaines et particulièrement en gestion des temps. • ➢ Maitrises techniques de SAP HR. • ➢ Expertise gestion des temps et/ou gestion de la paie minimum 3 ans. • ➢ Compétences techniques en cycles et schémas Time et/ou Paie. ➢ Savoir formuler des requêtes efficaces pour interagir avec les IA génératives et obtenir les résultats souhaites serait un plus
Mission freelance
PRODUCT OWNER
SKILLWISE
Publiée le
Big Data
3 mois
400-550 €
Île-de-France, France
Au sein de la Direction des Technologies, vous intégrez le pôle Produits Publicitaires en tant que Product Owner Offre . Vous intervenez sur un produit stratégique dédié à la gestion des catalogues d’offres, de l’inventaire et du pricing sur des environnements TV et Digital. En collaboration avec un autre Product Owner et des équipes pluridisciplinaires, vous êtes responsable de la vision produit, de la priorisation et du delivery dans un environnement agile. Vos missions principales : Vision & stratégie produit Définir et porter la vision produit Construire et piloter la roadmap Garantir l’alignement avec les enjeux métiers (marketing, revenue management) Gestion du backlog Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles (user stories) Prioriser et maintenir le Product Backlog selon la valeur métier Pilotage du delivery Coordonner les équipes techniques (développement, data, API…) Suivre l’avancement en méthodologie agile Garantir le respect des délais, de la qualité et des coûts Recette & mise en production Organiser et piloter la recette fonctionnelle Valider les livrables Assurer les mises en production RUN & amélioration continue Suivre la performance du produit Gérer les incidents et évolutions Optimiser en continu les fonctionnalités Accompagnement au changement Accompagner les utilisateurs dans l’adoption des outils Assurer la communication produit Faciliter la conduite du changement Responsabilités clés : Ownership du Product Backlog Priorisation basée sur la valeur métier Cohérence du SI avec les autres produits Pilotage de la valeur délivrée Qualité des livrables à chaque sprint
Offre d'emploi
Ingénieur Python / IA H/F
INFOGENE
Publiée le
55k-65k €
Paris, France
Le poste Dans le cadre du développement d’une équipe internationale spécialisée dans les technologies d’IA générative, nous recherchons un Ingénieur Python expérimenté pour contribuer à l’industrialisation et à l’optimisation de systèmes basés sur les LLM. Vous travaillerez en collaboration étroite avec des équipes Data et IA basées à Shanghai dans un environnement innovant, technique et orienté performance. Vos missions Collaborer avec les équipes Data Science et ML Engineering Industrialiser et mettre en production des expérimentations IA Transformer des POC en solutions robustes et exploitables Concevoir des architectures scalables, fiables et résilientes Participer au développement d’applications backend et frontend Contribuer à l’amélioration continue des performances des systèmes IA Participer à la maintenance et à l’évolution des plateformes techniques Évoluer dans un contexte international et distribué Environnement technique Python FastAPI / Django Architectures microservices Systèmes distribués APIs backend Frontend découplé IA générative / LLM Prompt engineering RAG (plus)
Offre d'emploi
Testeur Data confirmé
SARIEL
Publiée le
Azure
Databricks
Google Cloud Platform (GCP)
12 mois
40k-53k €
320-420 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un testeur Data confirmé (4-10 ans d’expérience). Objectif Global : Testeur confirmé avec compétences Data Analyste Contrainte forte du projet Remplacement d'un prestataire en fin de mission Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks ou GCP ou big Query- Confirmé - Important Environnement azure microsoft - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour notre client. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Savoir Faire : - Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste - Profil technico fonctionnel - SQL Server - JIRA/XRAY - Environnement Microsoft azure - DataBricks ou GCP ou big Query - Utilisation de l'IA dans les tests (Génie Code) - Outils de reporting Power BI, Microstratégy Savoir Etre : - Collaboratif - Entraide - Force de proposition - Implication/Engagement - Amélioration Continue - Communication fluide - Qualité organisationnelle Définition du profil ORGANISATION ET CONCEPTION DES TESTS Contribue à l'élaboration de la stratégie de tests avec le Test Lead, en lien avec les Chefs de Projets et/ou Responsables d'applications Analyse les exigences utilisateurs et les spécifications fonctionnelles ou techniques fournies par le Responsable d'application Estime les charges DÉROULEMENT ET REALISATION DES TESTS En fonction de la stratégie établie, rédige les plans de tests, identifie les prérequis et spécifie les jeux de données (données de tests, résultats attendus) qu'il fait valider par le CP et/ou Responsable d'Application Réceptionne son environnement de tests et s'assure de sa conformité en termes de versions applicatives Exécute les tests manuellement ou en utilisant des outils d'exécution automatique des tests Consigne les résultats de tests et remonte les anomalies au Chef de Projet et/ou Responsable d'application Met à jour le référentiel de tests Peut coordonner une équipe d'analystes de test en tant que référent SYNTHESE DES TESTS Réalise un bilan des tests effectués Date de démarrage 08/06/2026 Lieu de réalisation CHATILLON (92) Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Expert ELK/Supervision et monitoring Zabbix
AVALIANCE
Publiée le
Agent IA
Elasticsearch
ELK
3 ans
40k-45k €
400-700 €
La Défense, Île-de-France
-Au sein du Département Framework & Moyens et du Pôle Outils, CI/CD et Réseau de la Direction des Opérations (DOP), il interviendra en tant qu'ingénieur Elastic au coeur de notre solution de monitoring (Zabbix,ELK, grafana, infludb). -Connaissances attendues: - Architecture Elastic. - Certification Search, observability souhaitées. - Connaissances et expérience sur les modules IA et elastic_agent attendues. Une expérience en milieu financier est fortement appréciée par le client mais pas obligatoire.
Offre d'emploi
Data Engineering confirmé
AVA2I
Publiée le
DBT
Microsoft Power BI
Île-de-France, France
Concevoir, développer et maintenir les pipelines de données, les modèles analytiques et les tableaux de bord décisionnels afin de garantir une donnée fiable, exploitable et performante pour les équipes métiers. ResponsabilitésData Engineering Concevoir et maintenir les pipelines ETL/ELT. Intégrer des données depuis différentes sources (API, bases SQL, ERP, CRM, fichiers, cloud). Optimiser les traitements de données et la performance des flux. Assurer la qualité, la fiabilité et la gouvernance des données. Mettre en place des tests, monitoring et alertes sur les pipelines. Participer à l’architecture data et aux choix techniques. dbt (Data Build Tool) Développer et maintenir les modèles dbt. Structurer les couches Bronze / Silver / Gold. Créer des tests de qualité et documentation dbt. Gérer les dépendances et transformations SQL. Industrialiser les déploiements CI/CD dbt. Power BI Concevoir des dashboards et rapports interactifs. Créer des modèles de données optimisés. Développer des mesures DAX avancées. Mettre en place la sécurité des accès (RLS). Optimiser les performances des rapports Power BI. Collaborer avec les métiers pour comprendre les besoins analytiques. Compétences techniques requisesObligatoires SQL avancé Power BI (Power Query, DAX, Modélisation) dbt Python ou autre langage scripting Data Warehouse (Snowflake, BigQuery, Redshift, Synapse…) Git / GitLab / GitHub ETL / ELT Modélisation de données Appréciées Airflow / Dagster Azure Data Factory / Microsoft Fabric Docker CI/CD Cloud AWS / Azure / GCP Méthodologies Agile
Mission freelance
Consultant Data gouvernance
UCASE CONSULTING
Publiée le
DataGalaxy
SQL
3 ans
550-580 €
Paris, France
Vous intégrerez l’équipe du Data Office au sein de la DSI Groupe. Dans le cadre de la mise en marche de notre feuille de route Data à horizon 2030, nous recherchons un(e) consultant Data gouvernance. Vous serez en charge de créer et animer Une communauté data dynamique, valoriser et partager les connaissances autour de la data, tout en pilotant la stratégie et le développement de la Data Platform (plateforme technique) pour répondre aux enjeux métiers et stratégiques du groupe. Missions principales : 1. Structurer et animer la communauté data - Définir un plan de communication, favoriser les échanges, organiser des webinaires et des ateliers de sensibilisation. - Recenser et valoriser les initiatives data des filiales dans une démarche collaborative. 2. Développer la plateforme de knowledge management - Concevoir, produire et assurer la mise à jour d’une plateforme de documentation et d’échange sur la data. - Produire supports, guides, fiches techniques pour faciliter l’alimentation et l’utilisation de la plateforme. 3. Accompagner l’acculturation et la montée en compétences - Création et déploiement d’un parcours de formation data. - Piloter le déploiement de l'autodiagnostique de maturité Data. - Produire des supports d’acculturation pour sensibiliser le CoDir et les équipes. 4. Piloter la Data Platform en tant que Product Owner - Recueillir les besoins métiers, construire la roadmap et prioriser les évolutions. - Collaborer avec les équipes techniques pour la réalisation et l’implémentation des fonctionnalités. - Veiller à l’adoption et à l’usage opérationnel de la plateforme technique.
Mission freelance
AMOA Data Gouvernance
SMARTPOINT
Publiée le
KPI
1 an
Saint-Denis, Île-de-France
Mettre en place une organisation autour de la gestion de la donnée pour en garantir la qualité et sa bonne valorisation tout en suivant les règles de l’art en termes de data gouvernance (organisationnelle, technique, juridique etc) et d’application de la politique du Groupe sur ce périmètre. Le responsable doit comprendre les enjeux métier des données ainsi que les contraintes opérationnelles autour de ce domaine afin de déployer cette organisation chez DRC. Description détaillée des tâches qui constituent la mission: Le Responsable « Data Gouvernance » intervient plus spécifiquement sur trois missions principales : Définition d’une stratégie de gouvernance de la donnée: a. Réalisation d’un état des lieux b. Identification et catégorisation des différents périmètres de données à adresser c. Priorisation des actions à mener d. Définition d’une organisation et outils nécessaires à une gouvernance optimale des données e. Garantir la bonne sécurisation des données f. Garantir la bonne application de la politique Data SNCF pour DRC g. Garantir la conformité juridique de nos données Garantir la qualité des données: a. Mise en place de l’organisation, outils et KPI de suivi issus de la stratégie afin de garantir la qualité de la donnée b. Suivre opérationnellement les indicateurs de qualité de la donnée et mettre en place des actions de correction des données si besoin Valorisation de la donnée: a. Être le point d’entrée des métiers DRC (offres, exploitations, relations clients etc) pour répondre à des besoins via l’exploitations de la donnée b. Réalisation d ‘étude ad hoc en fonction des besoins métiers c. Etre force de proposition pour valoriser nos données via de nouvelles pratiques ou outils d. Préparer nos bases de données pour l’intégration de cas d’usage nécessitant des IA génératives
Offre d'emploi
Data Engineer Databricks
Atlanse
Publiée le
Databricks
Python
SQL
1 an
50k-60k €
400-500 €
Châtillon, Île-de-France
Vous intégrerez une équipe, responsable de la migration de traitements existants depuis une plateforme on premise vers une plateforme Data Cloud basée sur Azure et Databricks. Dans ce contexte, vous interviendrez sur la conception et la structuration des traitements data. Votre rôle Conception et développement de solutions data · Concevoir les architectures techniques nécessaires pour la valorisation des données · Concevoir les solutions permettant le traitement des données · Réaliser les croisements de données nécessaires ainsi que les opérations de validation, correction et contrôle qualité · Apporter une expertise technique pour développer les solutions data appropriées aux différents cas d'usage Gouvernance et gestion de la donnée · Structurer les données en intégrant les enjeux de cycle de vie · Identifier et qualifier les sources de données pertinentes · Garantir la cohérence et la qualité de l'intégration des données · Veiller au respect des exigences de traitement et de sécurité sur les données · Suivre et référencer l’usage des données Documentation et collaboration · Documenter et maintenir à jour les référentiels et catalogues de données · Travailler en collaboration avec les Architectes d'Entreprise Data
Mission freelance
Senior Data Analyst
CAT-AMANIA
Publiée le
Databricks
DBT
Github
1 an
100-460 €
Lille, Hauts-de-France
Au sein de l'équipe Advanced Analytics dédiée à l'économie circulaire, nous recherchons un Data Analyst spécialisé sur le business model de la Location afin de nous accompagner sur notre stratégie prix. Votre mission : transformer la donnée en levier de croissance pour nos offres d'abonnement et de location. Objectifs et livrables → Partenariat Business & Produit : transformer des problématiques complexes en opportunités actionnables et optimiser nos outils d'aide à la décision. → Stratégie Prix : analyser les mécaniques de prix et optimiser l'efficience tarifaire spécifiquement pour les offres de location → Frameworks scalables : concevoir des cadres d'analyse robuste et reproductibles pour extraire un maximum de valeur de l'écosystème rental en assurant la fiabilité des insights. → Opportunités & Signaux Faibles : Identifier et quantifier de nouveaux leviers de croissance pour nos produits ou services via l'exploration de données internes ou externes, pour anticiper les tendances du marché. → Pilotage de la Performance : Analyser les parcours clients (conversion, churn, durée des abonnements...) et la rentabilité pour aligner nos prix sur la valeur perçue. → Excellence Collective : contribuer à l’amélioration continue des standards de l’équipe
Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)
Freelance.com
Publiée le
Big Data
5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
Mission freelance
Ingénieur DATA
ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera
1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Mission freelance
Data Analyst / VBA Developer – Data Quality & KYC Transformation - Paris
Net technologie
Publiée le
Data quality
Powershell
SQL
6 mois
400-420 €
Paris, France
📊 Data Analyst / VBA Developer – Data Quality & KYC Transformation Dans le cadre d’un programme stratégique de transformation Client Lifecycle / KYC , nous recherchons un profil Data / VBA pour assurer la qualité et la continuité des flux de données entre systèmes legacy et une plateforme cible. 🎯 Enjeu : garantir la fiabilité des données , piloter les réconciliations et accompagner les migrations jusqu’au décommissionnement des outils historiques. 🚀 Missions Maintenance et évolution du code VBA (Excel/Access) Pilotage des réconciliations data (quotidiennes & hebdomadaires) Exécution et suivi des processus bulk de remédiation Administration et migration SharePoint Online Suivi des KPI et continuité des flux de production Contribution à la migration vers les outils cibles Documentation, support et coordination avec équipes internationales 📌 Répartition : 50% dev / 50% production & monitoring
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2630 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois