L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 002 résultats.
Mission freelance
Data Migration & Integration Lead
Montreal Associates
Publiée le
30 mois
600-650 €
75001, Paris, Île-de-France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients un profil : 🔔 𝐋𝐞𝐚𝐝 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 & 𝐈𝐧𝐭𝐞́𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐴𝑦𝑎𝑛𝑡 𝑑𝑒 𝑏𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 𝑆𝑜𝑙𝑖𝑑𝑒 𝑒𝑥𝑝𝑒́𝑟𝑖𝑒𝑛𝑐𝑒 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛𝑛𝑒𝑙𝑙𝑒 𝑒𝑡 𝑡𝑒𝑐ℎ𝑛𝑖𝑞𝑢𝑒 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒𝑠 𝑜𝑢𝑡𝑖𝑙𝑠 𝑑𝑒 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 (𝐿𝑆𝑀𝑊, 𝑀𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝐶𝑜𝑐𝑘𝑝𝑖𝑡, 𝐸𝑇𝐿) 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑖𝑛𝑡𝑒́𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 (𝐼𝐷𝑂𝐶...) 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑚𝑝𝑟𝑒́ℎ𝑒𝑛𝑠𝑖𝑜𝑛 𝑑𝑒𝑠 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑢𝑠 𝑚𝑒́𝑡𝑖𝑒𝑟 : 𝐹𝐼 𝐶𝑂, 𝑆𝐷 𝑀𝑀, 𝐻𝑅 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐈𝐧𝐭𝐞𝐫𝐯𝐞𝐧𝐢𝐫 𝐝𝐚𝐧𝐬 𝐮𝐧 𝐞𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐜𝐨𝐦𝐩𝐥𝐞𝐱𝐞, 𝐢𝐧𝐭𝐞𝐫𝐧𝐚𝐭𝐢𝐨𝐧𝐚𝐥, 𝐦𝐮𝐥𝐭𝐢-𝐬𝐲𝐬𝐭𝐞̀𝐦𝐞 (𝐒𝐀𝐏 & 𝐬𝐨𝐥𝐮𝐭𝐢𝐨𝐧𝐬 𝐭𝐢𝐞𝐫𝐜𝐞𝐬) 𝐚𝐯𝐞𝐜 𝐝𝐞𝐬 𝐞𝐧𝐣𝐞𝐮𝐱 𝐟𝐨𝐫𝐭𝐬 𝐚𝐮𝐭𝐨𝐮𝐫 𝐝𝐞 𝐥𝐚 𝐜𝐨𝐧𝐭𝐢𝐧𝐮𝐢𝐭𝐞́ 𝐛𝐮𝐬𝐢𝐧𝐞𝐬𝐬 𝐞𝐭 𝐥𝐚 𝐪𝐮𝐚𝐥𝐢𝐭𝐞́ 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬. - Assurer la cohérence et la fiabilité des intégrations - Piloter les activités de migration de données et de cutover - Garantir la continuité des processus métiers (Finance, RH...etc.) - Avoir un rôle de référent transverse 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 2/3j semaine sur site 🕐 ASAP - 3 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Offre d'emploi
Ingénieur cybersécurité (F/H)
CELAD
Publiée le
45k-55k €
Mulhouse, Grand Est
CDI (45-55K€) - Mulhouse - Expérience de 5 ans minimum (hors stages / alternance) Et si vos compétences en cybersécurité pouvaient sécuriser des systèmes critiques et protéger des infrastructures industrielles sensibles ? Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur cybersécurité pour intervenir chez un de nos clients dans le secteur industriel. Votre rôle : Vous serez en charge de sécuriser des systèmes industriels et informatiques tout au long du cycle projet : - Concevoir et déployer des architectures informatiques sécurisées, virtualisées ou non - Définir et mettre en œuvre des mesures techniques de réduction du risque cyber - Analyser les exigences de sécurité des clients et les traduire en solutions opérationnelles - Valider les livrables à travers tests, procédures et documentation technique (schémas, matrices de conformité, procédures de validation…) - Collaborer et animer des échanges techniques avec des équipes pluridisciplinaires - Rendre compte de l’avancement et contribuer aux arbitrages techniques Quelques infos importantes à retenir : - Expérience de 5 ans minimum (hors stages / alternance) - Contrat : CDI / Mission de pré-embauche - Ce poste requiert d’être habilitable Secret Défense Situation géographique : Mulhouse (68)
Mission freelance
DevOps / ETL Data Engineer - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site par semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Contexte de la mission Vous rejoignez une équipe Agile intervenant sur des projets data structurants , dans un environnement international et fortement réglementé. La mission porte principalement sur la conception, le développement et la maintenance de flux de données critiques. 🚀 Vos missions Au quotidien, vous serez amené(e) à : Réaliser des analyses fonctionnelles et techniques Concevoir et développer des traitements ETL (principalement orientés intégration) Modéliser et enrichir des bases de données Développer des scripts SQL et Shell Paramétrer les outils ETL et garantir leur bonne exécution Produire l'ensemble des livrables : code, scripts, documentation, jeux de tests Effectuer les tests et contrôles (logique maker / checker) Participer aux mises en production et au support des équipes opérationnelles Collaborer avec les équipesIT et métiers dans un cadre Agile : backlog grooming, user stories, critères d'acceptation, démos de fin de sprint Contribuer à la qualité, la performance, la sécurité et la conformité des solutions livrées Être force de proposition dans une logique d' amélioration continue ✅ Profil recherché Profil confirmé avec environ 4 à 6 ans d'expérience en environnement Data / ETL Maîtrise impérative de : ETL (Datastage ou équivalent) SQL Shell scripting Habitué(e) aux méthodes Agile À l'aise dans des environnements structurés et exigeants Capacité à travailler en équipe, sens des responsabilités, rigueur Anglais professionnel requis Une expérience en environnement bancaire ou réglementé est appréciée mais non obligatoire
Offre d'emploi
Développeur Python - Data & Automation
VISIAN
Publiée le
Python
1 an
Paris, France
Contexte Développeur en charge de la gestion des scripts internes, de l’intégration de LLM et des tâches d’automatisation sur les flux de données et les processus, ainsi que des interactions API avec des sources externes. Mise en place de contrôles et de rapports sur la qualité des données. Contribution au développement des outils internes de l’équipe, tels que les processus de communication (mailing de masse), site web, planification d’équipe, etc. Objectif : Un développeur senior avec une solide compréhension des projets pilotés par les données, de l’automatisation, des référentiels IT et des exigences de gestion de services, pour travailler sur le développement interne de pipelines d’intégration et d’interfaces dans l’écosystème d’une grande banque d’investissement. Périmètre : Global, rôle exigeant une collaboration avec les clients internes de la banque d’investissement à l’échelle mondiale, nécessitant un anglais professionnel.
Offre d'emploi
Data analyst (H/F)
█ █ █ █ █ █ █
Publiée le
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer H/F
HAYS France
Publiée le
Data Lake
Microsoft Analysis Services (SSAS)
Microsoft Power BI
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation , a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data , la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Prestation Attendue Data Engineering & Delivery • Conception et mise en œuvre des pipelines ETL / ELT • Développement de jobs ETL réutilisables • Gestion des chargements Delta / Full / Historique • Debugging et résolution d’incidents en production • Mise en œuvre des bonnes pratiques de développement à la mise en production Collaboration & Méthodologie • Travail en étroite collaboration avec le Product Owner, les équipes data et plateforme • Contribution aux phases de Data Scoping / Discovery • Méthodologie Agile • Interaction avec des équipes distribuées (multi‑pays) Livrables • Composants data développés et déployés (code source) • Documentation technique et fonctionnelle • Modèle de données documenté • Rapports d’audit et de sanity check • Rapports de tests d’acceptation • Transfert de compétences et support aux équipes
Offre d'emploi
Chef.fe de projet Data H/F
FED SAS
Publiée le
50k-60k €
Charenton-le-Pont, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Charenton le pont un Chef de projet Data H/F dans le cadre d'un CDI. Rattaché.e au Directeur des Systèmes d'Information, vos missions s'articuleront autour de plusieurs axes : Conception * Recueillir et analyser les besoins métiers en matière de data, d'intégration, et de reporting * Développer, optimiser et documenter les flux d'intégration (Talend), en garantissant la qualité et la sécurité des données. * Garantir la cohérence et la pérennité des solutions déployées dans l'écosystème SI (Microsoft 365, Dynamics 365…). Gestion de projet * Piloter les projets d'intégration de données : cadrage, planification, suivi, coordination des parties prenantes (DSI, métiers, partenaires). * Assurer la gestion opérationnelle des projets : gestion des risques, reporting, respect des délais et des budgets. * Accompagner le changement auprès des utilisateurs et assurer le support technique sur les outils data/intégration. Veille technologique * Assurer une veille active sur les outils d'intégration, la BI, la data * Proposer des axes d'amélioration continue et d'innovation (automatisation, datalake, nouveaux usages, BI…). * Participer à la diffusion des bonnes pratiques et à la montée en compétence des équipes internes
Offre d'emploi
Data Scientist et IA H/F
Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle
50k-60k €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop
Deodis
Publiée le
Red Hat
1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Mission freelance
Data Analyst Pricing (H/F) - 92
Mindquest
Publiée le
Microsoft Excel
Microsoft Power BI
SQL
4 mois
Puteaux, Île-de-France
Contexte : Nous recherchons un Data Analyst Pricing pour accompagner une équipe Pricing et Business Analyse Mission Les principales tâches porteront sur le développement de rapport BI et d'analyses • Création de nouveaux rapports BI complexes: de la consolidation du besoin auprès du métier à la livraison (incluant la recette) • Extension de rapports existants sur de nouveaux périmètres. • L'amélioration/ optimisation de rapports existants: optimisation de la performance technique et amélioration visuelle pour une meilleure prise en main par les utilisateurs • De manière ponctuelle, développement d'analyses ou extractions et consolidations de fichiers one-shot ad hoc en support aux équipes de business analystes à destination du marketing ou des équipes de communication
Mission freelance
Tech Lead Data ( H / F )
Ness Technologies
Publiée le
Apache Kafka
IBM Cloud
6 mois
390-450 €
Seine-Saint-Denis, France
Tech Lead Data (Kafka / Cloud IBM) – H/F Rôle En tant que Tech Lead Data, vous êtes responsable de la conception, de la mise en œuvre et de l’évolution des architectures data en environnement distribué. Vous intervenez à la fois sur des sujets techniques pointus (streaming, data engineering, cloud) et sur l’encadrement d’une équipe de développeurs/data engineers. Responsabilités / Missions Piloter la conception et l’évolution de l’architecture data (batch & streaming) Concevoir et implémenter des pipelines de données temps réel basés sur Apache Kafka Garantir la scalabilité, la performance et la résilience des solutions data Encadrer techniquement une équipe de data engineers (revue de code, bonnes pratiques, mentoring) Participer aux choix d’architecture et aux orientations techniques Assurer l’intégration des solutions dans un environnement cloud (idéalement IBM Cloud) Collaborer avec les équipes métiers, DevOps et architecture Mettre en place des bonnes pratiques (CI/CD, DataOps, monitoring, sécurité) Gérer les problématiques de gouvernance et de qualité des données Assurer une veille technologique continue
Offre de stage
Business Analyst - Data & Performance RH (H/F)
ALTEN
Publiée le
Microsoft Excel
Microsoft Power BI
6 mois
Boulogne-Billancourt, Île-de-France
La Direction Transverse au Recrutement Ingénieurs a pour mission d’accompagner et d’améliorer la performance et l’expérience des équipes recrutement. Tu interviendras sur les sujets suivants : Audit et analyses : • Harmonisation et clarification de la data liée aux outils de recrutement • Collecte, suivi et analyse des KPIs • Optimisation des outils déployés : audit des processus existants, mise en place de nouvelles solutions digitales, etc. Projets transverses : • Participation à des projets spécifiques RH : tests de nouveaux outils IA, campagnes de recrutement, etc. • Animation de la communauté des recruteurs : mise à disposition de ressources, organisation d’ateliers, animation d’un podcast interne, etc. • Aide à l’animation des contrats jobboards : relation avec les prestataires, négociation, etc. Veille et études : • Veille concurrentielle sur les pratiques de recrutement et les stratégies marketing RH • Etudes sur les viviers de talents en France et à l’international
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
Offre d'emploi
Data Scientist et IA H/F
Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle
50k-60k €
La Roche-sur-Yon, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : La Roche Sur Yon (85) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
Offre d'emploi
Architecte Master Data Management F/H
COEXYA
Publiée le
50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3002 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois