L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 947 résultats.
Offre d'emploi
Consultant MOA Finance / Expert ERP Finance – Domaine de la santé (F/H)
CELAD
Publiée le
38k-45k €
Toulouse, Occitanie
Vous aimez faire le lien entre les équipes métiers et les équipes techniques ? Vous avez une vraie sensibilité finance et vous savez transformer des besoins complexes en solutions concrètes et fiables ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Consultant.e MOA Finance / Expert ERP Finance pour intervenir chez un de nos clients, dans le secteur de la santé. Contexte : Dans le cadre d’un vaste chantier de modernisation des outils financiers, vous jouerez un rôle central dans l’évolution du SI Finance. L’objectif ? Fiabiliser les flux, harmoniser les processus et accompagner les équipes dans l’utilisation d’un ERP devenu stratégique pour l’activité. Vous interviendrez aussi bien sur des sujets de gouvernance, de transformation digitale que d’amélioration continue des outils existants. Voici un aperçu détaillé de vos missions : Gouvernance & structuration du SI Finance Cartographier et formaliser les processus financiers existants et cibles Harmoniser les pratiques et contribuer à une meilleure circulation de l’information Participer à la gouvernance des outils Finance afin d’en garantir la cohérence et l’évolutivité Sécuriser les flux et renforcer la fiabilité des données Transformation digitale & projets transverses Piloter l’intégration d’une solution de dématérialisation des factures Accompagner les travaux liés à la réforme de la facturation électronique Contribuer à la mise en place d’outils de reporting et de consolidation Participer aux phases de cadrage, paramétrage, recette et déploiement Expertise fonctionnelle & support applicatif Paramétrer les modules Finance de l’ERP selon les besoins métiers Diagnostiquer et corriger les anomalies fonctionnelles Optimiser les données et assurer leur cohérence Accompagner les utilisateurs et faciliter l’adoption des outils
Mission freelance
MOA ALM / Trésorerie CIB
ABSIS CONSEIL
Publiée le
ALM
SQL
Trésorerie
1 an
500-550 €
Île-de-France, France
Dans un contexte de marché exigeant, une équipe IT spécialisée ALM / Trésorerie renforce ses effectifs afin d’accompagner le pilotage du risque de taux et de liquidité, activité stratégique et à forte criticité. Vos missions Intégré(e) à une équipe Front‑Office Tools, vous interviendrez sur des applications ALM critiques. À ce titre, vous serez chargé(e) de : L’analyse et le suivi des évolutions fonctionnelles et techniques, avec un fort enjeu de qualité et de conformité. La gestion des incidents majeurs (niveau 3), en coordination avec les équipes concernées. Environnement technique Environnement Technique Base de données : Oracle Applications web : Java J2EE Reporting : Business Objects / SQL (maîtrise requise – requêtes complexes)
Offre d'emploi
Data Scientist
ONSPARK
Publiée le
Cloudera
Hadoop
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Scientist pour accompagner nos clients grands comptes. Vous travaillerez sur des données massives et complexes, et contribuerez à des cas d'usage à fort impact : modèles de prévision, simulateurs, analyses statistiques avancées, détection de tendances, dans un environnement Big Data on-premise (Cloudera CDP, Cloudera Machine Learning) avec accès à des IDE modernes (Jupyter, RStudio, VSCode). Responsabilités Concevoir et entraîner des modèles de Machine Learning et Deep Learning Analyser des jeux de données complexes et volumineux Collaborer avec les Data Engineers pour la mise en production des modèles Accompagner les équipes métier dans l'interprétation des résultats Contribuer aux cas d'usage IA et NLP de la plateforme
Offre d'emploi
Data Architect
ONSPARK
Publiée le
Cloudera
Hadoop
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Architect pour accompagner nos clients grands comptes. Responsabilités Concevoir et faire évoluer l'architecture globale de la plateforme de données Définir les standards et bonnes pratiques de modélisation Accompagner les équipes techniques dans leur mise en œuvre Assurer la cohérence entre les besoins métier et les choix techniques Veiller à la sécurité et à la conformité des architectures (RGPD, ISO 27001)
Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)
OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage
3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
Offre d'emploi
Stream Lead Intégration & Data Migration IT
VISIAN
Publiée le
Cloud
Streamlit
1 an
Île-de-France, France
Contexte Nous recherchons pour la Direction des Services d’Information un Stream Lead Intégration & Data Migration IT. Missions Coordination de la conception des interfaces : coordonner le recueil des exigences fonctionnelles et techniques pour l'interfaçage de la plateforme avec les applications Legacy du SI. Pilotage de l'implémentation : assurer le suivi de bout en bout de la réalisation des interfaces et des flux de données, en gérant les interdépendances avec les autres streams du programme. Pilotage des partenaires : diriger les activités de l’éditeur externe pour garantir le respect des délais et de la qualité des livrables techniques.
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Offre d'emploi
Data Analyst Microsoft H/F
OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric
1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Mission freelance
Support Applicatif – Finance Equities (Support Utilisateurs) (F/H)
CELAD
Publiée le
Finance
Support utilisateurs
12 mois
400-550 €
Paris, France
📍 Contexte / Objectif Au sein d’une équipe de 10 personnes, vous intervenez en support applicatif fonctionnel dans un environnement Finance de marchés – Equities. L’objectif est d’assurer la qualité du support utilisateur sur les outils de booking, tout en garantissant le bon fonctionnement et le suivi des applications critiques. 🎯 Vos missions Assurer le support fonctionnel utilisateurs sur les outils d’aide au booking Accompagner les utilisateurs dans la résolution des incidents fonctionnels Suivre et mettre en place des dashboards de monitoring pour le pilotage de l’activité Garantir le lien entre les équipes métiers, développement et production applicative Participer à l’amélioration continue du support et de la qualité de service Contribuer à la stabilité et à la fluidité des chaînes applicatives
Mission freelance
Data Analyst (H/F) - 92 + Remote
Mindquest
Publiée le
AI
CRM
ETL (Extract-transform-load)
3 mois
250-450 €
Neuilly-sur-Seine, Île-de-France
Contexte Au sein de la fonction IT Commercial Excellence, le poste s’inscrit dans la mise en œuvre de la stratégie et de la feuille de route Digital Front-End, en étroite collaboration avec les parties prenantes métiers. Le rôle contribue également à l’innovation sur les processus, les outils et les technologies afin de soutenir la performance commerciale et la transformation digitale Mission principale La mission prioritaire consiste à piloter de bout en bout les activités de reporting et d’analytics pour un projet stratégique Route to Market en France, de la phase de définition jusqu’à la mise en œuvre opérationnelle. Le poste vise à fournir des solutions analytiques, stables, scalables et orientées métier, en s’appuyant sur les meilleures technologies du marché Responsabilités principales Piloter les activités de reporting et d’analytics de bout en bout sur des projets stratégiques Mettre en œuvre des solutions analytiques et technologiques en approche Agile Développer les capacités analytics et enrichir le portefeuille applicatif Concevoir des solutions adaptées aux besoins métiers, avec une forte orientation utilisateur Intégrer les technologies avancées de Data & AI dans les plateformes et processus Garantir la qualité, l’exploitabilité et l’organisation des données Définir les processus cibles et accompagner leur adoption par les métiers Identifier les tendances du marché, les meilleures pratiques et proposer des axes d’amélioration Évaluer les solutions aussi bien d’un point de vue conceptuel qu’opérationnel Soutenir les projets commerciaux clés au niveau local et européen Gérer les priorités locales et porter une vision régionale sur les processus et leur adoption Faire le lien entre la conception des processus et la capacité de delivery des solutions Interactions clés En interne : Parties prenantes Digital Front-End des différentes BU et BPO Équipes régionales centrales, solutions et digitales Responsables IT locaux et membres de l’équipe de direction IT Centre d’excellence Commercial Excellence Responsable IT Commercial Excellence Analyste IT Commercial Excellence En externe : Fournisseurs tiers AMS Parties prenantes Enjeux du poste Assurer un delivery agile et rapide de solutions adaptées aux besoins Stimuler l’innovation sur la donnée, les outils et les modes de fonctionnement Tirer parti des capacités digitales et analytiques internes et externes Concevoir une expérience utilisateur de qualité Mettre la donnée au cœur des dispositifs de pilotage et de transformation Intégrer l’analytics avancée et l’IA dans les usages métiers
Mission freelance
Expert Looker Core (BI & Big Data)
Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)
4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Mission freelance
Data BI Engineer (GCP / Power BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
6 mois
400-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Bonjour, Je suis à la recherche d’un Data BI Engineer (GCP / Power BI) : Missions principales : Concevoir, développer et maintenir les couches sémantiques sur GCP (BigQuery) Mettre en œuvre les transformations de données à l’aide de dbt et Composer Optimiser les performances, la qualité et la fiabilité des pipelines de données Documenter les modèles de données et les flux Concevoir et produire des rapports et tableaux de bord Power BI Travailler en étroite collaboration avec les métiers pour comprendre et formaliser les besoins Garantir la cohérence des indicateurs et la bonne exploitation des données Suivre les jalons projets et contribuer à l’optimisation de la livraison des solutions Travailler sous la supervision d’un référent d’équipe Faire preuve de proactivité, d’autonomie et de dynamisme dans les sujets confiés Participer aux rituels Agile (sprints, reviews, planning, etc.) Mettre en œuvre et exécuter les tests (Jira Xray) Contribuer à l’amélioration continue des pratiques Data & BI Assurer la traçabilité et la documentation dans les outils projet
Mission freelance
Data Engineer (H/F)
Trust IT
Publiée le
Bash
Cloudera
DevOps
1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
Offre d'emploi
Développeur Fullstack React / Node.js – Applications Data
adbi
Publiée le
API REST
AWS Cloud
CSS
12 mois
38k-46k €
400-500 €
Paris, France
Nous recherchons un Développeur Fullstack React / Node.js pour intervenir sur la conception, la migration et le développement d’applications web orientées data. Vous interviendrez sur un ensemble d’applications déjà existantes, initialement développées avec un framework de prototypage, que vous ferez évoluer vers une stack web moderne afin d’offrir une meilleure expérience utilisateur, plus de fonctionnalités et une meilleure maintenabilité. Vos principales missions : Analyser l’application existante (fonctionnel et technique) et proposer une stratégie de migration vers React (front-end) et Node.js (back-end). Concevoir et développer l’interface utilisateur en React (components, hooks, intégration d’API, gestion d’état). Développer et maintenir des API REST en Node.js pour exposer les données nécessaires aux applications. Participer à la mise en place et au déploiement sur un environnement cloud (type AWS), en appliquant les bonnes pratiques de performance, sécurité et supervision. Contribuer aux phases de tests, de recette et de mise en production. Rédiger la documentation technique et partager les bonnes pratiques au sein de l’équipe. Vous travaillerez au sein d’une équipe pluridisciplinaire (product, data, tech) et serez responsable de la livraison de bout en bout sur votre périmètre. Anglais courant
Mission freelance
Consultant Senior – Data Migration SAP / Talend (H/F)
KN CONSULTING
Publiée le
Legacy System Migration Workbench (LSMW)
SAP MM
SAP PP
6 mois
400-700 €
Corbeil, Grand Est
Contexte mission Dans un environnement industriel critique, nous recherchons un consultant senior pour intervenir sur une migration de données complexe en difficulté . Le projet nécessite une forte capacité de structuration, de remise à plat et de sécurisation des flux de données. Missions Mise en œuvre de flux de migration via Talend (ETL) Mapping, transformation et réconciliation de données Contrôle des écarts et data quality Mise en place de protocoles de migration Contribution à une approche structurée de type migration factory
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4947 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois