L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 621 résultats.
Offre d'emploi
Expert Data Engineering / DevOps AWS sur Plaisir
EterniTech
Publiée le
AWS Glue
DevSecOps
ETL (Extract-transform-load)
3 mois
Plaisir, Île-de-France
Je cherche pour un de mes client un Expert Data Engineering / DevOps AWS sur Plaisir Démarrage souhaité : ASAP Localisation : Plaisir Rythme : 3 jours sur site / semaine, 2 jours en télétravail Expérience requise : minimum 10 ans Langues : Français : échanges DSI / métiers Anglais : documentation et communication avec les filiales Contexte de la mission Dans le cadre de la mise en place de la dataplateforme SAO , un grand groupe industriel du secteur aéronautique recherche un expert Data Engineering / DevOps AWS capable de : Finaliser un premier use case d’ingestion de données ERP vers la dataplateforme. Industrialiser l’ingestion d’environ 120 tables. Automatiser les flux entre les couches Raw Data et Standardized . Accompagner la montée en compétence des équipes internes juniors. Documenter les travaux réalisés et sécuriser l’exploitabilité de la solution Attendus de la mission : Le profil devra intervenir sur la conception, l’industrialisation et l’accompagnement des équipes . 1. Volet Data Engineering AWS Analyse des besoins métiers autour des produits data Contribution aux spécifications fonctionnelles et techniques Conception d’architectures data adaptées à AWS Mise en place de pipelines d’ingestion robustes et automatisés Ingestion de données structurées, semi-structurées et non structurées Industrialisation des flux ERP / datalake vers la dataplateforme Automatisation du passage Raw Data → Standardized Production ou validation des data products Mise en place des bonnes pratiques de sécurité, scalabilité et conformité 2. Volet DevOps / industrialisation Mise en place ou optimisation des processus CI/CD Gestion des environnements DEV / PREPROD / PROD Déploiements non régressifs de data products Versioning du code, des schémas et de la data Supervision technique des traitements Pilotage des tests techniques, métiers, performance et sécurité Assistance au démarrage et suivi post-mise en production 3. Volet documentation / transfert de compétences Rédaction de la documentation projet, technique et utilisateur Rédaction des modes opératoires et cahiers de recette Transfert de compétences auprès des équipes internes Accompagnement des équipes juniors Digit SAO et Data Engineering Reporting hebdomadaire et remontée des risques / points d’avancement
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Offre d'emploi
Chargé (e) d'études Data SAS/SQL/PYTHON
K-Lagan
Publiée le
Python
SAS
SQL
1 an
35k-40k €
350-420 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet data faisait vraiment la différence dans votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, où la donnée est au cœur des décisions métier . Aujourd’hui, nous recherchons un·e Chargé·e d’Études Data / Data Analyst (F/H) pour rejoindre l’un de nos clients du secteur Assurance , basé à Niort . 🔍 Contexte Vous interviendrez sur des sujets data stratégiques, avec pour objectif d’exploiter et valoriser les données afin d’accompagner la prise de décision et optimiser les processus métier. 🎯 Missions Analyser et exploiter des volumes de données importants Développer et optimiser des requêtes SQL Réaliser des traitements et analyses statistiques (SAS / Python) Produire des études et reportings à destination des métiers Garantir la qualité, cohérence et fiabilité des données Participer à l’amélioration continue des outils et processus data
Offre d'emploi
Consultant Microsoft Dynamics 365 H/F
COEXYA
Publiée le
40k-45k €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE Pour accompagner la croissance de notre entité spécialisée en CRM et Marketing digital, nous recherchons notre futur consultant Microsoft Dynamics 365 F/H. Acteur reconnu de la transformation numérique des entreprises, Coexya propose une expertise en conseil et mise en oeuvre de solutions CRM nouvelle génération. Nos experts sont spécialisés sur les technologies Microsoft Dynamics, et maîtrisent les technologies innovantes du Web. Formation, partage de connaissances, ateliers techniques, suivi de carrière, processus agiles et bonne humeur sont des atouts pour faire évoluer nos collaborateurs. Nos engagements au forfait permettent à nos experts de trouver une stabilité dans nos équipes, une stabilité géographique et un challenge technique de haut niveau. CE QUE L'ON VOUS PROPOSE - Participer à des projets stimulants au sein du pôle de compétences Dynamics 365 CRM. - Apporter votre expertise sur les applications métiers Dynamics telles que Sales et Customer Service, et de façon plus générale sur la Power Platform - Contribuer à la personnalisation (paramétrage et développement) des solutions Dynamics afin d'offrir des fonctionnalités adaptées aux besoins des utilisateurs finaux.
Mission freelance
Architecte Système Senior (H/F)
HOXTON PARTNERS
Publiée le
Architecture
8 mois
320-350 €
Alpes-Maritimes, France
Architecte Système (H/F) 📍 Localisation : Vitrolles / Marignane (France) 📅 Démarrage : Mai 2026 📆 Durée : Jusqu’au 31/12/2026 🏢 Présence requise : 4 jours/semaine sur site 💼 Statut : Freelance Contexte de la mission Dans le cadre du lancement d’un projet SI stratégique, nous recherchons un Architecte Système Senior capable de définir l’architecture cible et de produire l’ensemble de la documentation technique de référence. Vous interviendrez sur un environnement exigeant, avec de forts enjeux de sécurité, de robustesse et de performance. Vos missions Définir l’architecture du SI cible : infrastructure, conteneurs, data, cloud privé Produire la documentation technique complète : HLD / LLD , documents d’interfaces, schémas de déploiement Intégrer une approche Security by Design : IAM, segmentation, durcissement, résilience Garantir la cohérence globale, la maintenabilité et la performance des solutions Collaborer avec les équipes Développement, Infrastructure, SecOps et Data Piloter les choix techniques et assurer leur formalisation Compétences requises Solide expérience en architecture système / infrastructure Très bonne maîtrise de Docker, Kubernetes, OpenShift Expérience sur des environnements cloud privé (VMware / OpenStack) Bonne compréhension des architectures data Forte sensibilité sécurité, robustesse et continuité de service Excellente capacité de rédaction et de modélisation ( UML, ArchiMate )
Offre d'emploi
Data Engineer F/H
VIVERIS
Publiée le
40k-45k €
Belgique
Contexte de la mission: Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle.Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring. Vos responsabilités: Vous serez en charge de: - Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming) - Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT) - Assurer la qualité, la fiabilité et la disponibilité des datasets critiques - Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse) - Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables - Contribuer aux choix techniques et à l'évolution de l'architecture data - Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
Expert KIBANA / Analyse de données H/F
LOMEGARD
Publiée le
Bitbucket
Elasticsearch
Jenkins
1 an
450-500 €
Île-de-France, France
Dans un environnement orienté observabilité et pilotage de la performance, la mission consiste à exploiter les données collectées et indexées dans Elasticsearch pour construire des dashboards Kibana complets, lisibles et actionnables . L’objectif est d’assurer une visibilité de bout en bout sur les flux de données, les performances applicatives et les processus métier, tout en garantissant la qualité et la pertinence des informations restituées. Concrètement, la personne devra : Concevoir et maintenir des dashboards Kibana clairs, performants et orientés suivi de bout en bout Transformer les besoins métiers et techniques en visualisations utiles, lisibles et actionnables Assurer la visibilité sur les flux de données, les performances applicatives et les processus métier Exploiter les fonctionnalités avancées de Kibana : visualisations, filtres interactifs, agrégations, drill-down Analyser et structurer les données issues de THEIA, Filebeat et Logstash pour maximiser leur valeur dans Kibana Collaborer avec les équipes Elasticsearch pour optimiser les requêtes, les index patterns et les performances d’affichage Utiliser le Machine Learning de Kibana pour détecter les anomalies, identifier les tendances et anticiper les dérives Garantir la qualité, la cohérence et la pertinence des données présentées dans les dashboards Mettre en place des indicateurs de suivi et produire des reportings clairs sur l’état des systèmes et des alertes Proposer des améliorations continues pour rendre l’analyse plus rapide, plus fiable et plus exploitable
Mission freelance
Consultant Azure Databricks (H/F) - 92
Mindquest
Publiée le
Azure
Azure Active Directory
Azure DevOps
3 mois
Hauts-de-Seine, France
Périmètre et responsabilités : 1. Mise en place de l’infrastructure Azure Databricks: - Contribuer à la définition de l’architecture cible de la plateforme Data Cloud - Déployer et configurer Azure Databricks (workspaces, clusters, environnements) - Mettre en oeuvre les intégrations avec les services Azure (Storage, Azure AD, Key Vault, réseau) - Gérer la séparation des environnements (dev / test / prod) 2. Infrastructure as Code et automatisation: - Concevoir et maintenir les scripts Infrastructure as Code (Terraform ) - Automatiser le provisioning et l’évolution de la plateforme - Participer à la mise en place et à l’amélioration des pipelines CI/CD infrastructure - Garantir la cohérence, la reproductibilité et la traçabilité des déploiements 3. Sécurité et gouvernance Cloud: - Implémenter les standards de sécurité Azure : - Gestion des identités et des accès (Azure AD, RBAC) - Sécurité réseau (VNet, Private Endpoints, règles de flux) - Gestion des secrets via Azure Key Vault - Contribuer aux règles de gouvernance de la plateforme data - Veiller à l’alignement avec les standards cloud et sécurité de l’entreprise 4. Exploitation et support plateforme: - Assurer le maintien en conditions opérationnelles du socle Databricks - Analyser et résoudre les incidents liés à l’infrastructure - Optimiser les performances et les coûts de la plateforme - Rédiger la documentation technique et les bonnes pratiques à destination des équipes métiers 5. Fonctionnement en équipe agile: - Intégrer une équipe agile (Scrum / Kanban) - Participer aux rituels agiles (daily, planning, review, rétrospective) - Travailler en collaboration avec les profils data, cloud et sécurité - Être force de proposition sur les choix techniques et organisationnels Environnement technique: - Cloud : Microsoft Azure - Data Platform : Azure Databricks - Infrastructure : Terraform - Sécurité : Azure AD, Key Vault, VNet - Outillage : Git, Azure DevOps - Méthodologie : Agile
Mission freelance
Consultant SAP PP QM Data Migration
SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM
9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Mission freelance
TOULOUSE - Expert Réseau & Sécurité -Fortinet / Automatisation
CAT-AMANIA
Publiée le
Ansible
F5
Fortinet
3 ans
400-440 €
Toulouse, Occitanie
Description du poste Dans le cadre du renforcement des équipes infrastructures, tu interviens en tant qu’ expert Fortinet au sein d’environnements datacenter critiques . L’équipe est en charge de la gestion des infrastructures de sécurité (hors gestion des politiques de sécurité), avec un fort enjeu de disponibilité et d’automatisation . Tes missions principales : Administrer et maintenir les infrastructures Fortinet en environnement build & run Participer au design et à l’évolution des architectures de sécurité Mettre en place et améliorer les processus d’ automatisation des infrastructures Contribuer au maintien en condition opérationnelle des plateformes de sécurité Assurer le support N3 sur les incidents complexes Participer à l’intégration des solutions de sécurité dans l’ écosystème réseau global Intervenir sur des environnements de production critiques avec des exigences fortes de disponibilité et de performance Participer aux astreintes, permanences et opérations en heures non ouvrées
Offre d'emploi
Data Analyst/Dataiku
OBJECTWARE
Publiée le
Dataiku
3 ans
40k-83k €
400-650 €
Île-de-France, France
Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Prestations demandées Réunions de cadrage avec les métiers afin de définir les règles de gestion : - Identification d'architecture et modélisation data - Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés - Scénarisation des flows DATAIKU - Recettage des projets, correction de bugs - Mise en production - Analyses ad hocs - Maintenance du run - Analyses ad hocs - Sécuriser la cohérence des KPIs produits et la qualité des données exploitées - Communication auprès des métiers - Responsable de la relation Marketing avec l'IT
Offre d'emploi
Administrateur Systeme et Réseaux
PHOEBE INFORMATIQUE
Publiée le
Administration Windows
LAN
Office 365
45k-55k €
Paris, France
EMBAUCHE EN CDI dans les équipes du client Missions du poste : . Administration Système Windows et Linux · Réaliser des nouveaux projets concernant l’infrastructure · Prendre en charge le suivi opérationnel des projets et sujets transverses à l’équipe production · Assurer le maintien en condition opérationnelle de l’infrastructure · Contribuer à la résolution des incidents de niveau 2 et 3 avec l’aide de nos partenaires extérieurs · Participer à l’installation et le maintien en condition opérationnelle de l’infrastructure informatique au sens large en direct ou avec le soutien de nos partenaires spécialisés · Rédiger des notes techniques dans la base de connaissance · Contribuer à assurer la surveillance de l’infrastructure · Apporter son expertise et son soutien opérationnel aux équipes Infrastructure et Support · Interface avec les équipes métiers de la DSI · Proposer de solutions d’optimisation des systèmes ou des plateformes · Veille technologique
Offre d'emploi
Consultant QA Automatisation monétique H/F
Aldemia
Publiée le
Automatisation
Azure DevOps
Gitlab
6 mois
45k-50k €
500-570 €
Paris, France
Nous recherchons un ou une Consultant(e) QA Automatisation monétique ( bancaire) pour rejoindre une squad dans laquelle se trouve 1 développeur, 1 PO, 1 BA, 1 QA manuel. Cette plateforme a pour ambition de devenir l’un des trois principaux processeurs de paiements. Son cœur d’activité couvre : - Issurance (émission) — pilotage et autorisation des transactions cartes, - Acquiring (acquisition commerçants) — gestion des flux et relations avec les acquéreurs, Contestation, compensation et règlement des paiements, - Intégration multi-scheme (CB, Visa, Mastercard, Wero), Plateforme tout-en-un de processing, y compris aspects cloud, sécurité, conformité européenne. En tant que spécialiste en assurance qualité, vous serez chargé(e) de concevoir, développer et exécuter des tests automatisés pour garantir la fiabilité et la performance de nos solutions monétiques. Vous participerez activement à l'amélioration continue de nos processus de test et collaborerez étroitement avec les équipes de développement, d'intégration et d'exploitation afin d'assurer la qualité optimale de nos produits. Responsabilités principales Concevoir, développer et maintenir des scripts de tests automatisés pour les applications monétiques mobiles et web. Mettre en œuvre des stratégies de test basées sur les meilleures pratiques en software testing, performance testing, unit testing et quality assurance. Participer à l'intégration continue (CI/CD) en utilisant des outils tels que Jenkins, GitLab, TFS ou Azure DevOps. Collaborer avec les équipes de développement pour analyser les causes des anomalies (cause analysis) et assurer une résolution efficace. Effectuer des tests fonctionnels, d’intégration, de performance et de sécurité sur diverses plateformes (Android, iOS, Windows). Gérer la configuration et le versionnage des scripts via SVN, Git ou GitHub. Contribuer à la gestion des releases et au suivi des bugs dans des outils comme Jira ou HP ALM. Participer aux réunions Agile ou Scrum pour planifier et suivre l’avancement des projets. Documenter les plans de test, résultats et recommandations pour améliorer la qualité globale du produit. Assurer une veille technologique pour intégrer les nouvelles tendances en automation monétique.
Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE
SMILE
Publiée le
Data science
IA Générative
RAG
6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- +229 57193023 Spécialiste du retour affectif de l'être aimé
- +229 57193023 Envoutement d'amour puissant par magie noir
- +229 57193023 Retour affectif rapide pratique magie rouge
- +229 57193023 Rituel d'affection puissant et resolution de conflits
- +229 57193023 Vrai rituel pour séparer deux personnes radical
- +229 57193023 Rituel puissant pour briser un couple
6621 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois