Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 891 résultats.
Freelance

Mission freelance
Architecte Data

Publiée le
Data Lake
Data Warehouse

6 mois
400-660 €
Paris, France
Nous recherchons pour notre client un Architecte Data dans le cadre d’un programme de transformation Data. Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager avec Apicil les REX sur des solutions et architectures mises en oeuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues.
Freelance

Mission freelance
Cloud, Network and Datacenter Solution Consultant(H/F)

Publiée le
Azure
Big Data

3 mois
240-650 €
Puteaux, Île-de-France
Anglais courant obligatoire Fournir une expertise avancée sur les solutions de datacenters directs, hybrides et cloud, ainsi que sur les infrastructures associées, grâce à un support d’ingénierie solide et une direction technique claire. Le rôle garantit que les plateformes technologiques respectent les exigences réglementaires, assurent la sécurité des données, optimisent l’efficacité opérationnelle et permettent une innovation évolutive et des services fiables pour soutenir l’entreprise et ses clients. C’est une excellente opportunité de travailler sur des besoins locaux tout en faisant partie d’une équipe mondiale, au service de l’ensemble de l’organisation. Nous recherchons une personne disposant de solides compétences techniques, organisée, rigoureuse et motivée par un environnement exigeant. Le rôle Évaluer l’infrastructure informatique existante et recommander des stratégies cloud et datacenter conformes aux réglementations du secteur financier (ex. : FCA, PRA, GDPR). Concevoir, architecturer et mettre en œuvre des solutions alignées sur la stratégie technologique régionale tout en répondant aux besoins métiers. Collaborer avec l’équipe de direction sur les feuilles de route et les initiatives stratégiques. Conseiller sur l’optimisation des coûts, la gestion des risques et la résilience des systèmes financiers critiques. Architecturer des solutions sécurisées et évolutives sur les plateformes cloud publiques (Azure) et au sein des datacenters on-premise. Collaborer avec les équipes transverses pour gérer dépendances, priorités, intégrations et impacts du changement sur les personnes, processus et technologies. Travailler avec les équipes techniques (Architectes, Plateformes, Cyber, Cloud Ops, etc.) pour créer des solutions équilibrant besoins métiers et exigences de cybersécurité, en conformité avec les standards et l’appétence au risque de l’entreprise. Mettre en œuvre des stratégies de cloud hybride pour supporter les charges sensibles et les obligations réglementaires. Diriger les migrations d’applications centrales vers les environnements cloud. Contribuer à la création de documents de processus, guides, procédures, outils et modèles favorisant l’efficacité et l’adoption du cloud. Veiller au respect des cadres de conformité financière (ISO 27001, PCI DSS, SOC 2). Mettre en place des contrôles de sécurité avancés, le chiffrement et la gestion des identités pour les données financières sensibles. Supporter les audits et fournir la documentation nécessaire pour les rapports réglementaires. Surveiller les performances et la disponibilité des systèmes critiques. Optimiser l’infrastructure pour garantir haute disponibilité, reprise après sinistre et continuité d’activité. Collaborer avec les équipes risques, conformité et sécurité pour aligner la technologie sur les standards de gouvernance. Compétences requises Diplôme universitaire, idéalement dans un domaine lié au business, à l’IT ou à la sécurité. Expérience avérée en architecture cloud et solutions datacenter dans le secteur financier. Expertise en Microsoft Azure, Hyper-V et forte connaissance des modèles hybrides. Compréhension des réglementations et cadres de conformité financière. Solides connaissances en réseaux, virtualisation et stockage. Certifications telles que Azure Solutions Architect Expert ou équivalent. Minimum 10 ans d’expérience dans les domaines mentionnés. Leadership avéré. Excellentes capacités d’analyse et souci du détail. Qualités de communication exceptionnelles, à l’écrit comme à l’oral (français et anglais indispensables). Capacité à communiquer clairement auprès de différents types d’audiences. Expérience en conseil technologique. Résilience et adaptabilité. Excellentes compétences d’écoute. Compétences souhaitées Expérience avec les systèmes de transaction financière et les traitements de données volumineux. Très bonne maîtrise de l’écosystème technologique Microsoft Azure. Expérience des méthodologies d’architecture. Connaissances en sécurité applicative Azure et déploiements associés. Familiarité avec le DevOps et l’Infrastructure as Code. Standardisation des bonnes pratiques, processus et procédures de sécurité Azure. Capacité à prioriser plusieurs demandes et à communiquer clairement ces priorités aux équipes et au management. Capacité à gérer les demandes complexes, instaurer des relations de confiance sur le long terme avec les parties prenantes internes et gérer les attentes métier.
Freelance

Mission freelance
Data Engineer Hadoop – Secteur Assurance

Publiée le
Big Data
Hadoop
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Freelance

Mission freelance
Architecte Technique Solution Data

Publiée le
Big Data
Cloudera

3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Freelance
CDI
CDD

Offre d'emploi
Consultant Dataviz & Reporting – Power BI / Alteryx / SQL (H/F)

Publiée le
Microsoft Excel
PowerBI
SQL

1 an
31k-36k €
280-350 €
Paris, France
Contexte Dans le cadre d’un projet de migration de bases de données d’envergure au sein d’un grand groupe bancaire, la DSI Corporate renforce son équipe Dataviz & Reporting , rattachée à une direction Fast Delivery Solutions intervenant auprès de nombreux métiers. Cette mission s’inscrit dans un contexte de transformation du système d’information et de mise à jour d’un patrimoine existant de reportings. Objectif de la mission Assurer la migration des sources de données et l’évolution des reportings existants impactés par le changement de bases de données, tout en garantissant la qualité, la fiabilité et la continuité des restitutions à destination des métiers. Missions principales Migrer le sourcing de plusieurs reportings appartenant au patrimoine de l’équipe Dataviz & Reporting. Faire évoluer les applications Power BI impactées par la migration des bases de données. Exploiter différentes sources de données issues de systèmes décisionnels bancaires. Préparer, transformer et fiabiliser les données à l’aide des outils de data préparation. Produire des restitutions sous forme de fichiers Excel et de reportings Power BI . Travailler en interaction directe avec les métiers pour comprendre, challenger et formaliser les besoins. Environnement technique et fonctionnel Connaissance du SI des Caisses d’Épargne (pré-requis). ODS et/ou Décisionnel ( VECEP ). Outils de data préparation : WPS / Altair , SQL , Alteryx . Outils de restitution : Power BI , Excel . Compétences attendues Rigueur et fiabilité dans l’analyse et la manipulation des données. Capacité à challenger les besoins métiers. Bon relationnel et esprit d’équipe. Autonomie et sens de l’organisation.
CDI

Offre d'emploi
Ingénieur data - Vannes

Publiée le
Big Data
Hadoop

28k-42k €
Vannes, Bretagne
Missions principales Contribuer au développement et à l’industrialisation des traitements Big Data. Intervenir en transverse auprès des différentes équipes (IT et métiers). Challenger les besoins métiers et proposer des solutions techniques pertinentes. Participer à l’amélioration continue des performances et de la qualité des données. Environnement technique Environnement technique : SPARK, CLOUDERA, HADOOP, Java, Hive Profil recherché – Hard & Soft Skills 5 à 8 ans d’expérience en environnement Big Data (Spark / Hadoop / Hive / Java). Solide culture data et environnement distribués (type Cloudera). Excellente capacité de prise de recul et de compréhension des enjeux métiers. Aisance relationnelle et posture transverse : capacité à challenger et à accompagner les équipes métiers. Présence à Vannes 3 jours par semaine - Non négociable
Freelance

Mission freelance
Data Lead (H/F)

Publiée le
Data management

1 an
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Véritable chef de projet, tu es le facilitateur de l’orchestration des sujets Data dans ton domaine métier. Tu apprécies comprendre les enjeux d’une direction métier et son environnement IT afin de proposer des solutions data adaptées et alignées avec la stratégie Data, en collaboration avec un Product Owner. Tu vas à la rencontre des utilisateurs pour comprendre, challenger et cadrer les besoins métier. Tu assumes la responsabilité d’un portefeuille de projets : rédaction, planification, pilotage et livraison. Tu pilotes et accompagnes une équipe data pluridisciplinaire : Data Analytics, Data Science, Data Engineering. Avec ton équipe, tu participes à la construction, l’évolution et l’amélioration continue des produits data, tout en contribuant à la consolidation de la plateforme data. Tu es garant de la cohérence technique et fonctionnelle de ton domaine, en collaboration avec l’ensemble de l’écosystème. Tu apportes ton soutien à ton équipe et à tous les acteurs (IT, métiers, data) de ton environnement de travail. Tu fais preuve de leadership et t’impliques sur des sujets transverses. Tu restes attentif aux enjeux de l’entreprise, à l’évolution du marché et aux avancées technologiques pour être force de proposition.
Freelance

Mission freelance
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps

Publiée le
Big Data
Cloudera

6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Openshift – Senior (H/F)

Publiée le
Ansible
Docker
Kubernetes

1 an
Île-de-France, France
Objectif global : Administrer et maintenir les plateformes de conteneurisation (Docker, Kubernetes, Openshift), en assurant la performance, la sécurité et l’automatisation des environnements. Description détaillée de la mission : La mission se déroule au sein de l'équipe Infrastructure CaaS. L’objectif est la prise en charge des plateformes d’orchestration de conteneurs pour les projets Cloud et les initiatives de transformation IT. L’équipe travaille en mode Agile, favorisant l’automatisation et l’amélioration continue des services. Tâches principales : Déployer, configurer et maintenir les plateformes Docker, Kubernetes et Openshift pour assurer l’isolation et la performance des applications. Rédiger et maintenir les playbooks Ansible pour automatiser déploiements et configurations. Collaborer avec les équipes ADM, APS et les partenaires métiers pour tous les sujets liés aux conteneurs. Mettre en place les politiques de sécurité, gérer les vulnérabilités et contrôler l’accès aux conteneurs selon les normes en vigueur. Assurer la maintenance préventive et curative des systèmes conteneurisés, suivi des incidents et disponibilité des services. Suivre les avancées technologiques en matière de conteneurs, stockage et sécurité pour proposer des solutions innovantes. Respecter la gouvernance CIB et ITO et coordonner avec les partenaires mondiaux pour garantir l’alignement sur l’architecture et les principes IT. Compétences techniques : Docker – Expert Kubernetes – Confirmé / Expert Openshift – Confirmé / Expert Linux / Systèmes – Confirmé Automatisation (Ansible, scripts) – Confirmé Sécurité des conteneurs – Confirmé Compétences linguistiques : Anglais professionnel (Impératif)
Freelance

Mission freelance
Chef de Projet Data / BI

Publiée le
BI
Data management

6 mois
550-580 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet BI / Data stratégique, notre client final basé à Paris recherche un Chef de Projet BI / Data freelance pour piloter la mission et assurer le lien entre les équipes internes et l’éditeur Suadeo . Le consultant interviendra comme véritable chef d’orchestre du projet, garantissant la bonne organisation des travaux, le respect des délais et la qualité des livrables. Missions principales Jouer le rôle de Chef de Projet BI / Data côté client final Assurer l’interface entre le client et l’éditeur Suadeo Organiser et animer les ateliers métiers et techniques Piloter le planning, le delivery et les priorités projet Coordonner les différents interlocuteurs (métiers, IT, éditeur) Suivre l’avancement, identifier les risques et proposer des actions correctives Arbitrer les sujets opérationnels et faciliter les échanges Assurer le reporting projet auprès des parties prenantes Gérer les allers-retours avec l’éditeur sur les spécifications, évolutions et correctifs Profil recherché Expérience confirmée en gestion de projets BI / Data Solide compréhension des environnements Data / BI Très bon relationnel et capacité à interagir avec des équipes métiers et techniques Capacité à structurer, organiser et piloter des projets complexes Autonomie, rigueur et sens des priorités
Freelance
CDI

Offre d'emploi
Data Steward (H/F)

Publiée le
Data governance

1 an
45k-50k €
450-480 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement de nos activités Data & IA , Winside recherche un Data Steward pour intervenir en régie chez un grand acteur national du secteur des services publics (nom volontairement anonymisé). Rattaché au Responsable Data du client, le Data Steward jouera un rôle clé dans l’ opérationnalisation de la gouvernance, de la qualité et de la valorisation des données , en collaboration avec les équipes IT et les équipes métiers. Le projet prioritaire du client en 2026 est la migration de son système d’information métier . L’enjeu consiste à capitaliser sur les travaux réalisés dans le cadre de cette migration pour structurer et documenter les données, tout en minimisant l’effort demandé aux équipes métiers. Les périmètres de données concernés sont : Les objets métiers impactés par les nouvelles fonctionnalités du SI cible. L’objet métier Client (référentiel client). Missions principales 1. Mise en place d’un Data Catalog & Glossaire métier Définir l’outil et la structure du data catalog dans une approche « juste nécessaire » (Excel, Notion… pas de solution outillée prévue en 2026). Rédiger les définitions fonctionnelles des données (glossaire). Formaliser le cycle de vie des données. Structurer, harmoniser et animer la documentation fonctionnelle et technique des données. 2. Mise en place d’un cadre de Data Quality Management Définir les principes, règles et contrôles de qualité des données. Concevoir les workflows de gestion entre acteurs IT et métiers. Participer à la conception des tableaux de bord de qualité et de l’alerting associé. 3. Appui à la conception du modèle de gouvernance des données Définir processus, rôles, responsabilités et instances de gouvernance. Accompagner la structuration du modèle opérationnel.
Freelance

Mission freelance
Architecte data

Publiée le
Architecture

1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Nous cherchons un Architecte Data, dont la mission sera de travailler sur différents aspects de l'architecture de données. Il sera le garant de l'urbanisation de la donnée, de sa cohérence et de sa circulation de la donnée au sein d'un écosystème complexe et siloté. Il assure l'interopérabilité, la qualité et la valorisation des données issues des différents silos applicatifs. Objectifs principaux de la mission : · Urbaniser le SI Data : Définir et piloter la trajectoire pour passer d'un SI siloté à une architecture data-centric (orientée service/API et/ou hub de données). · Garantir la cohérence technique : Assurer la définition d'un langage commun et la gestion des données de référence (MDM) à travers les applications. · Définir le cadre d’implémentation des données : proposer la méthode pour rendre les données accessibles et interopérables pour les usages Métier (BI, reporting opérationnel, information voyageurs temps réel, maintenance prédictive…) Activités et Responsabilités Clés Ø Architecture & Modélisation · Cartographie du SI Data en lien avec le gestionnaire des données : Établir et maintenir la cartographie des données (conceptuelle, logique) et des flux inter-applicatifs, en cohérence avec la cartographie globale du SI. · Modélisation des données : Définir et gouverner les objets métier centraux conformément aux spécifications fournies par les métiers et définir les modalités d’interactions des différents systèmes avec ces objets (fréquence, pattern, performance, liaisons entre les différents objets.) · Standards & Normes : Aider à l’intégration et la bonne implémentation des standards du transport public (NeTEx pour l'offre théorique et tarifaire, SIRI pour le temps réel…) dans les projets internes et externe, il doit également assurer une veille sur les standards. Ø Conception des Échanges & Interopérabilité · Définition des Interfaces : En collaboration avec les équipes d’architecture et de développement, concevoir les ‘contrats d'interface’ (API, Webservices, Messages, ETL) entre les solutions éditeur ou solutions maison en utilisant les plateformes d'intégration (ESB, API Management, Message Broker…). · Validation des flux : S'assurer que le dimensionnement des flux de données répondent aux besoins fonctionnels et aux contraintes de performance (ex : criticité du temps réel entre le SAE et l'application mobile). Ø Gouvernance, Qualité & Conformité des Données · Master Data Management (MDM) : En collaboration avec les gestionnaires de la donnée Identifier les applications ‘ maîtres ’ pour chaque donnée de référence (produit / billettique, véhicule/Mainta…) · Stratégie de Mise en Qualité (Data Quality) : Contribuer à la définition de la stratégie de qualité des données, en combinant des approches métier et techniques : o Stratégie Métier : Accompagner les référents métier (Ex : Gestionnaires des données) dans la définition des règles de gestion et dans les processus de correction des anomalies à la source o Stratégie Technique : Définir et contribuer à la mise en œuvre des contrôles de qualité automatisés (profiling, dédoublonnage, validation de format) au sein des flux de données (via l'ETL, l'ESB) et des tableaux de bord de suivi de la qualité des données (Data Quality Monitoring) à destination des métiers et de la DSI. · Sécurité & Conformité : Garantir que l'architecture data respecte les contraintes de sécurité (NIS2) et de protection des données personnelles (RGPD sur le CRM et la Billettique…). Ø Pilotage de Projets & Vision Stratégique · Support aux Projets : Agir en tant qu'expert Data pour tous les nouveaux projets · Cadrage Architectural : Rédiger les Dossiers d'Architecture Technique (DAT) sur le volet Data
CDI

Offre d'emploi
Architecte Data spécialisé Databricks (F/H)

Publiée le

80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
Freelance
CDI

Offre d'emploi
Data Scientist LCB-FT

Publiée le
Data science

3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Freelance

Mission freelance
Expert Azure Data Factory F/H - 3 mois

Publiée le
Azure Data Factory
ETL (Extract-transform-load)

3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Freelance
CDI
CDD

Offre d'emploi
Architecte calcul/Stockage et plateformes DATA

Publiée le
Architecture
Cloud

12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
891 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous