L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 845 résultats.
Mission freelance
Data Analyst – Skywise / Data Products / Substances
Publiée le
Product management
Reporting
SAP
3 ans
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst pour rejoindre une équipe Data engagée dans l’optimisation et la valorisation des Data Products au sein de la plateforme Skywise. 📍 Toulouse - 3-4 jours de TT 📅 Démarrage ASAP ou Janvier possible Votre rôle : garantir la qualité, la cohérence et la disponibilité des données, tout en soutenant la création de nouveaux Data Products et le reporting associé. ✅ Créer et améliorer les Data Products (80+ existants) ✅ Maintenir le lien entre HazMat (SAP) et les données Skywise ✅ Concevoir des Data Products Composites (ex. : Chemicals x Logistics) et assurer leur officialisation dans le catalogue Skywise ✅ Développer et maintenir les cockpits et rapports Substances ✅ Fournir des extractions et analyses pour les clients internes
Offre d'emploi
Data Scientist
Publiée le
Azure
Data science
Paris, France
Télétravail partiel
Vous êtes passionné·e par la donnée, l’intelligence artificielle et l’impact business ? Rejoignez une équipe innovante qui met la data au cœur des décisions stratégiques et participez à la conception de modèles prédictifs et de solutions à fort impact pour des projets internationaux. 🚀 Vos missions En tant que Data Scientist , vous serez au cœur de la transformation data. Vos principales responsabilités : Concevoir, développer et industrialiser des modèles de machine learning et d’ IA répondant à des problématiques concrètes (prévision de la demande, optimisation marketing, performance industrielle, etc.) Collaborer avec les équipes Data Engineering et les métiers pour traduire les besoins business en solutions data performantes Analyser, structurer et valoriser de grands volumes de données issues de sources multiples Garantir la qualité, la robustesse et l’interprétabilité des modèles déployés Participer activement à la diffusion d’une culture data-driven au sein de l’entreprise
Offre d'emploi
Data Analyst
Publiée le
Microsoft SQL Server
Microsoft SSIS
Tableau Desktop
Paris, France
Télétravail partiel
En tant que Data Analyst au sein de la division e-banking d’une des principales institutions financières européennes, vous serez chargé·e de transformer des données complexes en insights exploitables, afin d’orienter les décisions stratégiques et l’innovation dans la banque digitale. Vous travaillerez en étroite collaboration avec des équipes pluridisciplinaires, en exploitant des outils analytiques avancés pour améliorer l’expérience client, optimiser la performance opérationnelle et soutenir la conformité et la sécurité dans un environnement dynamique et exigeant. Vos missions principales Concevoir, développer et maintenir des tableaux de bord et rapports interactifs pour soutenir l’intelligence décisionnelle. Extraire, transformer et charger (ETL) les données issues de divers systèmes bancaires via SSIS, en garantissant leur qualité et leur cohérence. Réaliser des analyses approfondies sur des bases MSSQL : requêtage, modélisation, nettoyage. Collaborer avec les parties prenantes pour recueillir les besoins métier et les traduire en solutions techniques. Surveiller et évaluer les flux de données, résoudre les problèmes et proposer des améliorations. Documenter les processus, standards et méthodologies pour assurer la transparence et la reproductibilité. Réaliser des analyses ponctuelles pour soutenir la conformité réglementaire, la gestion des risques et le développement produit. Participer à la migration et à l’intégration de systèmes legacy vers des plateformes analytiques modernes.
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Télétravail partiel
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
Chef de projet - Carve-in, fusion-acquisition - M&A
Publiée le
Data governance
3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients, dans le secteur de la distribution B2B, un chef de projet qui va venir assurer une intégration complète des processus et outils de la société rachetée. Le profil doit nécessairement avoir DÉJÀ fait des carves-in, fusion acquisition, M&A Missions principales : 1. Pilotage global du projet d’intégration • Orchestrer et coordonner l’intégration de la société dans la chaîne de publication standard du Groupe. • Définir le plan de transformation (cadrage, étapes clés, roadmap, risques, budgets, dépendances). • Assurer la synchronisation des chantiers fonctionnels et techniques • Superviser la gouvernance de projet, le reporting et les arbitrages auprès des sponsors et directions métier/IT. 2. Cadrage fonctionnel et harmonisation des processus • Cartographier les processus actuels de publication et de gestion produit de la société en question • Identifier les écarts avec le modèle standard et des solutions • Définir les flux cibles, les modèles de données et les interfaces inter-systèmes. • Garantir la cohérence des processus métiers à travers les différents outils. 3. Coordination multi-acteurs et conduite du changement • Fédérer les équipes locales et les équipes centrales autour d’une vision commune. • Organiser et animer les comités, ateliers et points d’avancement (métier, IT, data, publication). • Accompagner les équipes dans la montée en compétence sur les outils et standards Groupe. • Anticiper et gérer les impacts humains, organisationnels et techniques liées à l’intégration. 4. Data & publication : cohérence end-to-end • Garantir la qualité, fiabilité et complétude des données produits tout au long du processus. • S’assurer de l’alignement entre les systèmes • Suivre les indicateurs de performance et d’adoption (KPI qualité data, flux, taux de publication, délais). • Travailler en synergie avec les équipes Data / BI
Offre d'emploi
Ingénieur DevOps GCP Confirmé - ile de France (H/F)
Publiée le
Ansible
Gitlab
GitLab CI
1 an
Île-de-France, France
🔍 Contexte & Objectif de la mission RIDCHA DATA recherche un Ingénieur DevOps GCP – Confirmé pour accompagner un acteur majeur du secteur industriel dans le développement, la modernisation et la sécurisation de son infrastructure cloud. Vous intégrerez l’équipe Digital Backbone , en charge de la conception, de la construction et de l’exploitation d’une plateforme hybride alliant intranet, usines et cloud public (GCP) . Cette mission s’inscrit dans un projet stratégique d’ouverture vers le cloud , visant à faciliter les échanges de données entre les applications internes et cloud tout en garantissant sécurité, fiabilité et performance . ⚙️ Missions principales Concevoir, déployer et maintenir les services cloud GCP pour les environnements intranet et usines. Automatiser la création et la gestion de l’infrastructure via Terraform et Ansible . Mettre en place et maintenir les pipelines CI/CD (notamment GitLab CI ) pour les déploiements de bout en bout. Garantir la sécurité , la performance et l’ optimisation des coûts (FinOps) sur l’ensemble des environnements. Gérer et superviser les environnements Docker et Linux . Mettre en place des solutions de monitoring et de reporting (dashboards, alertes, indicateurs). Assurer le support L3 et le RUN sur la plateforme. Accompagner les équipes projets dans une démarche Site Reliability Engineering (SRE) et de coaching DevOps . 📦 Livrables attendus Plateforme Cloud GCP , intranet et usines opérationnelle. Documentation technique complète (architecture, procédures, déploiement). Dashboards de monitoring et reporting des services déployés. Bonnes pratiques SRE (SLO / SLI / SLA). Support et coaching des équipes projets du développement au RUN. 🧠 Expertises techniques recherchées 🔸 Compétences clés (impératives) : Cloud public GCP et services managés. Terraform & Ansible pour l’automatisation et le provisioning d’infrastructure. GitLab CI/CD (expérience pratique exigée). Systèmes Linux (background solide indispensable). Docker & conteneurisation. Gestion du code et versioning : Git. CI/CD et outils associés : GitLab CI, Jenkins (GitLab prioritaire). Monitoring et performance : Prometheus (souhaité). Kubernetes & microservices . 🔸 Compétences additionnelles (atouts appréciés) : Python pour le scripting et l’automatisation. Expertise en RUN / SRE avec bonnes pratiques (SLO, SLI, SLA). Bonnes notions en sécurité et FinOps dans les environnements cloud.
Mission freelance
Testeur ET Big data
Publiée le
Big Data
Data Lake
TestNG
3 ans
400 €
Nanterre, Île-de-France
Télétravail partiel
Testeur expert sur l'environnement big data Contexte : Mission N°1 La gestion de projet de test de bout en bout (cadrage, stratégie, conception, jeux de données, exécution, pilotage, livrable, PV) sur la mise en place d'un USE CASE KYC permettant d'automatiser la selection des abonnés envoyés en remédiation depuis des sources du datalake Mission N°2 Elaborer une stratégie de test à partir d'un process macro décrit sur les environnements BIG DATA / Etre référent de la cop data test qui va se monter ensuite
Mission freelance
IT Business Analyst - DATAHub & Finance
Publiée le
Agile Scrum
ALM
API Platform
12 mois
550-600 €
Paris, France
Télétravail partiel
Le poste consiste à cadrer les besoins, suivre leur réalisation, réaliser les tests IT et assister le chef de projet dans l’encadrement de certains projets. Mission Le Business Analyst aura pour responsabilités principales : Assurer le suivi des projets (Datahub, projets 2026) Cadrer les besoins métiers et proposer des solutions adaptées Planifier les différentes étapes des projets Coordonner avec les métiers et contributeurs Animer et préparer des ateliers de travail Rédiger les spécifications fonctionnelles et cahiers de recette Suivre et répondre aux questions des équipes de développement Réaliser les tests IT et assurer le suivi/support des recettes utilisateurs Maintenir à jour la documentation existante Fournir un support applicatif de niveau 3 Profil recherché Expérience significative en Business Analysis , idéalement sur des projets de Master Data / données de marché Connaissance des méthodologies Agile/Scrum et cycle en V Capacité à cadrer les besoins métiers , rédiger spécifications et cahiers de recette Expérience en tests fonctionnels et support utilisateur Bonnes compétences en coordination et communication avec les équipes métiers et techniques Autonomie et rigueur, sens de la priorisation et de la planification La maîtrise de l’anglais est un plus (interactions avec l’équipe de Lisbonne) Stack Technique / Outils Outils de gestion de projet : Jira, Confluence Outils de modélisation / spécifications : Excel, Word, Visio, Lucidchart Systèmes de données et référentiels : Datahub, Rialto, MDS ou équivalents Outils de tests et recettes : HP ALM, Jira, TestRail ou équivalents
Offre d'emploi
Consultant ISO 27001 Cloud Privé - Ivry sur seine(H/F)
Publiée le
Cloud
ISO 27001
Linux
1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte de la mission Nous recherchons un Consultant ISO 27001 Lead Implementor expérimenté pour accompagner une équipe Cloud dans la mise en œuvre et le suivi de son plan d’action de certification ISO 27001 sur un Cloud privé . La mission vise à formaliser l’ensemble des éléments nécessaires à l’ extension de la certification ISO 27001 , dans un environnement technique complexe basé sur les technologies VMware VCF/NSX, OpenStack et Rancher/RKE2 . ⚙️ Vos principales missions Accompagner les équipes dans la mise en conformité ISO 27001 / ISO 27002 . Rédiger, structurer et formaliser les éléments constitutifs du plan d’action. Apporter votre expertise sur les bonnes pratiques de sécurité et la gouvernance Cloud . Participer à la préparation de l’audit de renouvellement et d’extension de la certification ISO 27001 (prévu fin mars 2026). Conseiller et assister le RSSI Cloud dans le suivi et la mise à jour de la documentation de sécurité. 🧠 Compétences et expertise attendues Certification ou expérience confirmée en ISO 27001 Lead Implementor – impératif . Connaissance approfondie des normes ISO 27001 / ISO 27002 . Expérience significative dans la mise en œuvre de démarches de certification ISO (idéalement ISO 27001). Solide compréhension des architectures IaaS / CaaS / PaaS et des environnements Cloud hybrides . Bonne maîtrise des technologies Cloud : VMware, OpenStack, Rancher/RKE2 . Connaissances solides en systèmes Linux et sécurité des infrastructures. Excellente capacité de rédaction et de formalisation documentaire (procédures, politiques, plans d’action). Autonomie, rigueur et capacité à interagir avec des équipes techniques et sécurité.
Offre d'emploi
Automaticien de Tests Confirmé (Java / CI-CD / Linux) – Paris (H/F)
Publiée le
GED (Gestion Électronique des Documents)
ISTQB
Java
1 an
40k-45k €
330-430 €
Paris, France
🔍 Contexte de la mission Au sein du pôle Applications , rattaché(e) à la division Dématérialisation , vous interviendrez en tant qu’ Automaticien de Tests confirmé sur une application développée en interne , dans un environnement GED (Gestion Électronique de Documents) . L’objectif de la mission est d’assurer la qualité, la conformité et la robustesse des solutions, notamment sur les volets archivage, sécurité et traçabilité . Vous devrez également adapter les parcours de tests en fonction des parcours clients réels , afin de garantir une couverture fonctionnelle optimale. ⚙️ Vos principales missions Concevoir, développer et maintenir des scripts de tests automatiques . Construire et gérer les jeux de données nécessaires aux tests. Intégrer les tests dans les pipelines CI/CD . Réaliser et documenter des tests fonctionnels manuels lorsque nécessaire. Suivre, analyser et qualifier les anomalies détectées en lien avec les équipes de développement. Participer à la planification et à l’estimation des charges de test . Produire et suivre les indicateurs qualité et performance . Participer à la capitalisation des bonnes pratiques et à l’amélioration continue du process QA. Assurer un support technique et fonctionnel auprès des équipes internes. Adapter les parcours de tests automatisés aux parcours clients métiers , pour refléter les scénarios réels d’usage. 🧠 Compétences techniques recherchées Certification ISTQB (niveau Fondation minimum) – impératif Langages : Java / JavaScript – confirmé Environnements : Linux et Windows – confirmé Requêtes : SQL / Elasticsearch / MongoDB – confirmé Outils : Postman, SoapUI – souhaités Gestion de tests : SQUASH – souhaité Connaissance des technologies REST/SOAP et des méthodologies Agile – souhaitée Sensibilisation à la sécurité applicative appréciée
Mission freelance
Data Manager domaine RH
Publiée le
Data management
Ressources humaines
8 mois
620-640 €
Paris, France
Télétravail partiel
Pour le compte d’un acteur majeur du secteur bancaire, nous recherchons un Data Manager spécialisé dans le domaine des Ressources Humaines. La mission consiste à rationaliser le parc applicatif RH et à accompagner les projets de migration d’outils, en veillant à l’optimisation des processus et à la qualité des données. Le consultant devra collaborer avec les équipes métier RH et IT pour définir les standards de données, structurer les flux d’information, et garantir l’intégrité et la fiabilité des systèmes. La maîtrise des outils ORACLE et PeopleSoft est indispensable, ainsi qu’un excellent niveau d’anglais pour les échanges internationaux.
Offre d'emploi
Cybersécurité expert / Data N3 Varonis/Purview
Publiée le
Big Data
Microsoft Purview
1 an
40k-45k €
400-700 €
Île-de-France, France
Télétravail partiel
Cybersécurité Expert / Data N3 Mission Prestation d'accompagnement dans le but de proposer des services de sécurité autour de la donnée. La mission sera en charge du maintien en condition opérationnelle et du support niveau 3 de la plateforme de gestion de données et des services sur un périmètre de responsabilité international. (Varonis/Purview) Objectifs Principaux Mise en œuvre, maintien et suivi du déploiement de solutions de sécurité autour des données non structurées à l'aide de solutions de gestion et de sécurisation des données. Tâches Attendues Évaluation des exigences fonctionnelles de l'entreprise et détermination des solutions techniques adaptées
Offre d'emploi
Data Engineers H/F – Junior / Confirmé / Senior
Publiée le
Agile Scrum
BigQuery
Data quality
3 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre d’un projet stratégique de transformation numérique, une grande direction technique souhaite renforcer son pôle Data et constituer une équipe complète de Data Engineers . L’objectif : faire de la donnée un véritable levier de croissance et de pilotage interne. Adossée à une plateforme data moderne, cette équipe – pilotée par un Product Owner et déjà composée de plusieurs ingénieurs – développe et maintient un produit de reporting et d’analyse destiné aux directions métiers. Nous recherchons donc plusieurs profils de Data Engineers de niveaux variés (junior, confirmé, sénior) pour rejoindre cette équipe et contribuer à la mise en place et à l’évolution de la plateforme Data. Objectifs de la mission Les consultants interviendront sur : La maintenance et l’évolution de la plateforme data et des pipelines associés ; L’ accompagnement des utilisateurs internes dans l’exploitation des données ; La mise en place d’un contrôle qualité sur les données traitées ; Le développement et l’industrialisation de nouveaux flux de données sur un environnement Cloud moderne. Stack technique Langages : Python, SQL Data engineering : dbt, BigQuery, Dataplex, Airflow Infrastructure as Code : Terraform, Terragrunt CI/CD : GitLab CI/CD Cloud : Google Cloud Platform Responsabilités principales Concevoir et maintenir des pipelines de données robustes et scalables ; Garantir la qualité, la fiabilité et l’intégrité des données ; Organiser et structurer le stockage des données ; Mettre en œuvre des infrastructures scalables et sécurisées ; Participer à la documentation , au partage de bonnes pratiques et à la veille technologique ; Contribuer aux workflows CI/CD et à l’industrialisation de la plateforme. Profils recherchés Nous recherchons plusieurs niveaux d’expérience : 🧩 Junior : moins de 3 ans d’expérience ⚙️ Confirmé : 3 à 5 ans d’expérience 🧠 Senior : plus de 5 ans d’expérience Compétences clés attendues : Maîtrise de Python , SQL , BigQuery et dbt ; Bonne compréhension des architectures data et des pipelines ETL/ELT ; Expérience sur Google Cloud Platform ; Connaissance de Terraform / Terragrunt et GitLab CI/CD ; Bonnes pratiques Agile (Scrum ou Kanban) ; Capacité à vulgariser et à collaborer efficacement au sein d’une équipe technique. Modalités 📍 Lieu : Paris (présence sur site environ 50 %) 🕓 Démarrage : janvier 2026 📅 Durée initiale : 3 mois, renouvelable (jusqu'à 15 fois) 🗣️ Langue : français courant impératif Pourquoi rejoindre cette mission ? Participer à un projet data stratégique au cœur d’un écosystème numérique en pleine évolution ; Travailler sur une stack GCP moderne (dbt, Airflow, Terraform, GitLab CI/CD) ; Rejoindre une équipe pluridisciplinaire et contribuer à la construction d’une nouvelle plateforme data ambitieuse . 💡 À propos de cette offre : Cette publication unique vise à recruter plusieurs Data Engineers de niveaux variés (junior, confirmé, sénior) afin de constituer une équipe complète autour d’un même produit Data. Lors de votre candidature, merci de préciser votre niveau d’expérience, votre TJM et votre disponibilité .
Offre d'emploi
Consultant·e Data Analyst / Splunk ITSI – Dashboards & Data Infrastructure
Publiée le
Splunk
2 ans
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil spécialisé dans les transformations technologiques et organisationnelles. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour de la Data, du Cloud, du DevOps et du numérique responsable , dans des secteurs tels que la finance, l’énergie, l’IT et les télécommunications . Nous recherchons un(e) Consultant·e Data Analyst / Splunk ITSI pour accompagner les équipes dans la construction de dashboards et la mise en place d’une structure de données dédiée à la supervision des infrastructures. Vous interviendrez au cœur d’un projet long terme visant à renforcer la visibilité, la performance et la fiabilité des environnements techniques via Splunk et ITSI. Vos missions principales Concevoir et développer des dashboards Splunk ITSI pour le suivi et la supervision des infrastructures. Construire et structurer la donnée d’observation (logs, métriques) afin d’alimenter les tableaux de bord analytiques. Configurer et administrer Splunk et ses composants ITSI pour répondre aux besoins de reporting et d’exploitation. Analyser les données et traduire les résultats en indicateurs clairs et exploitables . Participer à l’ industrialisation des traitements de données et à la standardisation des processus analytiques. Collaborer avec les équipes techniques et métiers pour assurer la cohérence et la qualité des données. Fournir un appui analytique aux équipes de pilotage et de décision.
Mission freelance
DATA ARCHITECT FINANCEMENT
Publiée le
Big Data
12 mois
670-700 €
Paris, France
Télétravail partiel
Pour l’un de nos clients du secteur bancaire, nous recherchons un(e) Data Architect spécialisé(e) dans les métiers du financement (Corporate Banking, crédits structurés, syndiqués, etc.). Le consultant interviendra dans la définition et la mise en œuvre de l’architecture fonctionnelle et des flux de données liés aux activités de financement. Il contribuera à la conception des modèles de données, à l’optimisation des échanges entre les systèmes front, middle et back-office, ainsi qu’à la gouvernance de la donnée. Le rôle implique une compréhension fine des enjeux métiers du financement et la capacité à traduire ces besoins en solutions data performantes et sécurisées.
Offre d'emploi
Ingenieur de production FINANCIAL MARKET JUNIOR
Publiée le
Market data
1 an
40k-45k €
400-550 €
Paris, France
Missions : Apporter son expertise dans la mise en place, l’évolution et le suivi de production des solutions d’accès aux marchés (Fixed Income, Forex) Gérer les incidents, anomalies, et mener des investigations approfondies sur les problèmes fonctionnels complexes Rédiger des procédures et documentations pour assurer la pérennité des connaissances au sein de l’équipe Maintenir un échange constant avec les équipes projet pour rester informé des nouvelles fonctionnalités et évolutions applicatives Stack technique (extraits clés) Systèmes d’exploitation : Linux, Windows Monitoring : Geneos, ZABBIX Ordonnancement : Control-M Transfert de fichiers : CFT Bases de données : SQLServer, Oracle Réseaux : TibcoRV, FIX, Multicast Langages : Python, Shell, Powershell Outils de suivi : Jira, Service Now
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1845 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois