L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 850 résultats.
Offre d'emploi
Architecte Réseau FH
ASTRELYA
Publiée le
AWS Cloud
DNS
Firewall
Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant qu’Architecte Réseau, vous jouerez un rôle clé dans la définition, la cohérence et l’évolution des architectures techniques de nos clients. Vous interviendrez sur des environnements hybrides (on‑premise & Cloud), en coordination avec les équipes internes, les prestataires d’hébergement et les acteurs de l’infogérance. Votre rôle sera central dans la gestion des flux réseau, la sécurité, la gouvernance technique et l’amélioration continue des infrastructures. Concrètement, vous allez : 1. Architecture & Coordination Technique : • Assurer le rôle de back‑up du Lead Architecte Technique. • Coordonner les choix d’architecture, les flux réseau, les DNS, certificats et la validation des DAT. • Garantir la cohérence des architectures réseau & logicielles. 2. Amélioration Continue & Gouvernance : • Suivre les prestataires d’hébergement et piloter la résolution des incidents techniques. • Revoir et mettre à jour les procédures d’architecture, d’installation et d’exploitation. • Mettre à jour les schémas d’infrastructure et les flux réseau. • Assurer l’interface technique avec les hébergeurs et l’infogérance (architecture, infrastructure, réseau, sécurité). • Maintenir la documentation technique centralisée. 3. Contribution aux Projets : • Contribuer aux études et projets pour la mise en place de nouvelles fonctionnalités, infrastructures ou flux réseau. • Travailler en collaboration avec les chefs de projet pour cadrer les besoins techniques. 4. Sécurité & Pilotage SOC : • Piloter les interactions avec le SOC, notamment pour les demandes liées aux firewalls et règles de sécurité réseau. Votre futur environnement technique : • Réseaux : VPN, Firewall, Télécom, WiFi • Systèmes : Linux, Windows • Cloud : AWS • Services & protocoles : DNS, SSL, certificats • Bases de données : Oracle, PostgreSQL, SQL Server, MySQL • Méthodologies : ITIL, bonnes pratiques d’architecture & sécurité • Documentation & gouvernance : DAT, schémas d’architecture, référentiels techniques
Offre d'emploi
Senior Master Data Project Manager H/F (CDI)
Zenith Rh
Publiée le
Hauts-de-Seine, France
Dans un contexte de forte croissance et d'acquisitions internationales, nous recrutons un Senior Master Data Project Manager en CDI. Rattaché(e) à une équipe de 3 personnes, vous aurez pour mission de piloter les projets structurants liés aux données de référence tout en assurant un support business de haut niveau. Missions principales : Pilotage de projets : Cadrer, piloter et assurer la mise en place de projets Master Data complexes (intégration d'acquisitions, harmonisation de flux). Expertise SAP MDM : Garantir l'intégrité et la qualité des données au sein de l'environnement SAP MDM. Support Business International : Accompagner l'ensemble des pays du groupe dans leurs problématiques de gestion de données. Amélioration continue : Identifier les axes d'optimisation des processus de maintenance et de gouvernance des données.
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Mission freelance
Tech Lead Data (AWS/BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience
Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue
La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Developpeur .NET - Rennes
Tenth Revolution Group
Publiée le
.NET
Azure
Microsoft Dynamics
6 mois
100-400 €
Rennes, Bretagne
Développeur .NET - Rennes Dans le cadre d’un projet de modernisation des flux d’intégration pour l’un de nos clients, nous recherchons un Développeur .NET expérimenté afin d’intervenir sur la refonte de flux existants entre Dataverse et Dynamics 365 Finance & Operations . Démarrage ASAP. Déplacements sur site à Rennes. Durée : quelques mois. Missions Au sein de l’équipe technique, votre mission consistera à : Remplacer des flux existants Power Automate reliant Dataverse et Dynamics 365 F&O . Concevoir et développer des Azure Functions permettant de gérer ces intégrations. Analyser les flux Power Automate existants afin de comprendre la logique métier et technique. Mettre en place des mécanismes d’échange de données robustes entre Dataverse et D365 F&O . Participer aux phases de conception technique et proposer des solutions optimisées dans l’écosystème Azure. Profil recherché Compétences requises : Solide expérience en développement .NET (C#) Expérience avec Microsoft Azure , notamment le développement d’ Azure Functions Bonne compréhension des architectures d’intégration et des APIs Compétences appréciées : Expérience avec la Power Platform , notamment Power Automate Connaissance de Dataverse (lecture / écriture de données) Expérience avec Dynamics 365 Finance & Operations Environnement technique .NET / C# Microsoft Azure Azure Functions Power Platform / Power Automate Dataverse Dynamics 365 Finance & Operations
Offre d'emploi
Business analyst - Sénior - Montpellier
VISIAN
Publiée le
Business Analyst
3 ans
48k €
400-500 €
Montpellier, Occitanie
Contexte Dans le cadre d’un programme de digitalisation des parcours au sein d’un grand groupe bancaire, vous interviendrez au sein d’une équipe en charge de l’intégration de solutions digitales dans les processus métiers. Missions Suivi et accompagnement de parcours digitaux Accompagnement des processus métiers dans l’intégration de solutions digitales (méthode Kanban) Coordination avec les parties prenantes métiers et IT tout au long du cycle de vie des projets Relais des besoins et exigences auprès des équipes de développement (Build) Participation à l’intégration de solutions liées à la signature électronique et aux parcours omnicanaux Rédaction de documentation technico-fonctionnelle à destination des utilisateurs Environnement Méthodologie : Agile / Kanban Outils : Jira, Suite Office Contexte : multi-acteurs (métiers, IT, partenaires internes)
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Mission freelance
250824/Expert Talend, Talend Data management, Anglais Courant
WorldWide People
Publiée le
Talend
6 mois
Vélizy-Villacoublay, Île-de-France
Expert Talend, ETL, Talend Data management, Anglais Courant L’équipe Data Foundations souhaite bénéficier de l’assistance technique d’un expert technique Talend, disposant d’une solide expérience Data, afin d’accompagner les projets d’intégration de données. Goals and deliverables Le consultant interviendra notamment sur les activités suivantes : Application des bonnes pratiques et standards Talend Data Management, de la phase de développement jusqu’au déploiement, en collaboration avec le ETL Tech Lead Support aux projets lors des phases d’implémentation : qualification des données, transformation et intégration Mise en œuvre et respect de l’architecture cible, de la stratégie Data et des patterns ETL, en collaboration avec les experts techniques Analyse des besoins métiers et techniques, incluant l’évaluation de la faisabilité technique et de la charge associée Développement des jobs Talend, déploiement, réalisation des tests d’acceptation et rédaction de la documentation Réalisation d’audits de jobs ETL Définition des pré‑requis techniques et des templates Rédaction des spécifications techniques Expected skills Skills Skill level ETL Expert TALEND Expert Talend Data management Expert Languages Language level Anglais Bilingual
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
Mission freelance
Chef de projet BI (F/H)
Experis France
Publiée le
3000 mois
Vitrolles, Provence-Alpes-Côte d'Azur
Analyste d'exploitation F/H - Niort Vous intervenez au cœur des enjeux majeurs de la gestion complète de la chaîne Data : infrastructure, gouvernance et Business Intelligence. Dans un contexte à forts enjeux métiers (ex. croissance externe, rachat d'entreprises), vous pilotez des projets BI stratégiques et contribuez à la valorisation de la donnée au service de la prise de décision. Vos missions : En tant que Chef de Projet BI , vous êtes responsable du pilotage et de la mise en œuvre de projets décisionnels end-to-end : Pilotage de projets BI et d'intégration de données Recueil et compréhension des besoins métiers Traduction des besoins fonctionnels en solutions techniques data conception développement tests mise en production Mise en place de flux d'intégration de données (ETL) Création et maintenance de tableaux de bord décisionnels Coordination des différents acteurs (métier, IT, partenaires) Exemple de contexte projet : intégration et harmonisation des données suite à un rachat
Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Offre d'emploi
Expert Microsoft Exchange/M365
MGI Consultants
Publiée le
Active Directory
Microsoft Exchange Server
12 mois
55k-65k €
550-600 €
Fontenay-sous-Bois, Île-de-France
Rejoignez-nous pour une mission chez notre client du secteur bancaire basé à Val de Fontenay (94) en tant qu’Expert Microsoft Exchange/M365. Dans le cadre de la transformation des infrastructures IT, vous intervenez au sein des équipes en charge de la messagerie et des solutions collaboratives . Le programme inclut : · L’intégration de nouvelles entités au Groupe · La convergence des environnements messagerie · L’évolution vers des architectures hybrides et cloud Vous évoluez dans un environnement international anglophone, à forte criticité et volumétrie. Vos missions : En tant qu’Expert Technique vous intervenez sur l’ensemble du cycle de vie des infrastructures messagerie : Architecture & Design · Définition des architectures messagerie ( HLD / LLD ) · Conception d’environnements hybrides on-prem / cloud · Choix techniques et recommandations Migration & Transformation · Pilotage des migrations vers Microsoft Exchange Online · Intégration de nouvelles entités dans l’écosystème existant · Élaboration des stratégies de migration et procédures associées Exploitation & Optimisation · Support niveau 3 / 4 sur incidents complexes · Optimisation des performances et du monitoring · Gestion de la capacité et maintien de la cohérence des infrastructures Gouvernance & Pilotage technique · Estimation des charges et priorisation · Analyse d’impact et plans d’action · Rédaction de documentation technique et procédures Environnement technique · Microsoft Exchange (on-premise) · Microsoft 365 (Exchange Online, OneDrive, etc.) · Environnements hybrides · Active Directory / Azure AD · PowerShell · Outils de supervision Informations clés : Démarrage : ASAP Lieu : Val de Fontenay (94) Contrat : CDI ou Feelance Télétravail : 2 jours de Télétravail / 3 jours sur site Rémunération : CDI = 55/65 K€ - Freelance = 550/600 € selon expérience
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Mission à 600 km de chez moi - Frais de double résidence
- Recherche par mot clef KO ...
- 🚀 À la recherche d’une opportunité en IT – Disponible immédiatement
3850 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois