L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 766 résultats.
Offre premium
Mission freelance
Consultant ServiceNow (CMDB & International)
Publiée le
CMDB
Conduite du changement
ITIL
6 mois
600-680 €
Provence-Alpes-Côte d'Azur, France
Télétravail partiel
Contexte Type de mission : freelance / indépendant (full time) Client : Grand compte Localisation : Bouche-du-Rhône Télétravail : Hybride Durée de la prestation : mission longue durée (6 mois renouvelable) Début de mission : Dès que possible Notre Entreprise NEOTRUST est un Cabinet spécialisé en Cybersécurité créé par un RSSI et installé au Campus Cyber, à Rennes et au Canada. Nous sommes une entreprise à taille humaine animée par la passion du conseil et du recrutement à travers l’Europe et l’Amérique du Nord. Description du Besoin Dans le cadre du renforcement de l’équipe ITSM de notre client grand compte, nous recherchons un Consultant ServiceNow autonome, capable de définir, structurer et déployer la CMDB ainsi que les processus associés dans l’ensemble des pays du groupe. Votre Mission Définir, structurer et mettre en place la CMDB dans ServiceNow. Concevoir et déployer les nouveaux processus ITSM liés à la CMDB à l’échelle internationale. Assurer le paramétrage, l’administration courante et les évolutions nécessaires sur ServiceNow. Collaborer avec les équipes locales dans chaque pays afin de garantir l’alignement, l’adoption et la mise en conformité des processus. Participer à la gestion de projet : planification, suivi, coordination, reporting. Contribuer à l’amélioration continue du modèle CMDB et des processus ITSM.
Mission freelance
Data Engineering Manager – Data Platform & Transformation H/F
Publiée le
Azure
Snowflake
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Engineering Manager – Data Platform & Transformation H/F Description de la mission: L’entreprise accélère sa transformation Data & IA et structure son organisation Data autour d’un modèle opérationnel à deux squads : Data Product Squad (orientée métier et création de valeur) Data Engineering Squad (mise à disposition de la plateforme, exploitation et enablement) L’entreprise recherche un(e) Data Engineering Manager expérimenté(e) pour piloter la Data Engineering Squad durant une phase de transition critique. La mission couvre trois objectifs menés en parallèle : Lancer et structurer la future plateforme Data cible , dont le socle technologique est en cours de validation et devrait s’appuyer sur Databricks ou Snowflake sur Microsoft Azure Migrer progressivement les environnements data historiques vers la nouvelle plateforme Assurer la livraison des projets métiers et clients en cours , à la fois sur les stacks existantes et sur la nouvelle plateforme, sans perturber les opérations Ce rôle requiert un fort leadership et une excellente capacité d’exécution . Responsabilités principales Piloter et manager la Data Engineering Squad (équipes internes et partenaires externes) Être responsable de la delivery , de la capacité et de la performance opérationnelle sur les plateformes legacy et cible Garantir la fiabilité , la performance , la scalabilité et l’ optimisation des coûts Structurer et piloter le bootstrap de la plateforme Data cible Planifier et exécuter la migration progressive des stacks legacy vers la plateforme cible Sécuriser la livraison des projets métiers et clients en cours sur les deux environnements Définir et faire respecter les standards Data Engineering et les modes de fonctionnement Agir comme point de contact principal avec les équipes Data Product, Architecture et IT Accompagner et faire monter en compétence les équipes Data locales sur les stacks technologiques Data Compétences & Expérience requises Expérience avérée en tant que Data Engineering Manager / Lead dans des environnements complexes et en transformation Solide expertise en plateformes Data et en Data Engineering Expérience confirmée avec Databricks et/ou Snowflake , idéalement sur Azure Expérience du management d’équipes mixtes (internes, consultants, offshore / AMS) Bonne maîtrise des enjeux de run , de gestion des incidents et de pilotage des coûts Expérience de migration de plateformes legacy vers une plateforme cible Excellentes capacités de leadership et de gestion des parties prenantes Profil senior requis (autonome, pragmatique, orienté delivery) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Offre premium
Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)
Publiée le
AWS Cloud
Data analysis
DevOps
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Offre d'emploi
un Data Analyst Senior F/H
Publiée le
55k-65k €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Dans le cadre du développement de notre client, nous recherchons un Data Analyst Senior orienté DataViz , expert sur Power BI et disposant d’une très bonne maîtrise de Microsoft Fabric . Missions principales : Concevoir et réaliser des tableaux de bord interactifs et à forte valeur DataViz sous Power BI Transformer des données complexes en visualisations claires, impactantes et orientées décision Exploiter et modéliser les données via Microsoft Fabric Collaborer étroitement avec les équipes métiers pour comprendre les enjeux Garantir la qualité, la performance et la cohérence des rapports et modèles de données
Offre d'emploi
Data Engineer / Data Analyst (H/F)
Publiée le
Databricks
6 mois
55k-65k €
450-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👌 Dans le cadre du renforcement de son pôle dédié à l’architecture, la valorisation et l’exploitation de la donnée, une grande entreprise nationale du secteur de l’énergie recherche un Data Engineer / Data Analyst (H/F) .🚀 L’objectif : contribuer à la fiabilité, la qualité et l’analyse des données nécessaires à la gestion des réseaux, ainsi qu’au développement de plateformes Data avancées. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 Data Engineering 🔸Concevoir, développer et maintenir des pipelines de données robustes et scalables. 🔸Industrialiser les traitements dans un environnement Databricks (Spark, Delta Lake). 🔸Optimiser la qualité, la performance et la disponibilité des données. 🔸Participer à l’architecture des solutions Data, notamment dans un contexte cloud. Data Analysis 🔸Structurer, analyser et valoriser les données issues des réseaux et services. 🔸Construire des Dashboard et indicateurs fiables pour les équipes métiers et techniques. 🔸Contribuer à la mise en place d’une gouvernance efficace des données. Collaboration & Support 🔸Travailler étroitement avec les équipes Architecture, Exploitation et SI. 🔸Participer à la documentation, la standardisation et l’amélioration continue des pratiques Data. 🔸Accompagner les utilisateurs internes dans la compréhension et l’exploitation des datasets.
Mission freelance
POT8818 - Un Data Scientiste Senior sur Clermont-ferrand
Publiée le
SQL
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Scientiste Senior sur Clermont-Ferrand. PRESTATION Datascientist expérimenté en analyse de données télématiques gros volume et cartographie numérique PRINCIPALES ACTIVITES Analyse de données -Classification et clustering, machine learning dans les domaines de la topographie et de l’usage des véhicules (cinématique et dynamique) -Evaluation et développement d'algorithmes, services et process associés Prescripteur pour les évolutions futures de l'environnement d'analyse et bases de données -BD spatiale et navigation entre bases de données géospatiales et temporelles (en collaboration) COMPETENCES Expérimenté en machine learning Snowlake, PostgreSQL Python (geopandas, holoviews, datashader) SQL Expérience souhaitée en traitement de signal Expérience souhaitée sur QGIS ou ArcGIS Expérience souhaitée de geoservices: OSM, Here Développement de Web apps pour déploiement sur le terrain Outils de visualisation / BI : -Conception d'outils d'exploration visuelle de données spatiales et temporelles -Elaboration de dashboards d'analyse Localisation : Clermont-ferrand / 5 jours par semaine
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Expert Cybersécurité – GenAI / Azure
Publiée le
AI
Azure
Cybersécurité
3 ans
400-800 €
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles
Publiée le
BI
Data Lake
Microsoft Fabric
9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
Mission freelance
EXPERT IAM / CLOUD / DATA
Publiée le
Cloud
Cryptographie
IAM
6 mois
490-700 €
Paris, France
🎯 Missions principales : - Capacité à travailler sur les orientations et directions stratégiques du programme cyber, à comprendre les enjeux et la structure du programme, et à proposer des améliorations continues - Rédaction et/ou révision de thématiques opérationnelles du Group Cyber Framework (exigences cyber sur 25 thématiques applicables à toutes les entités du groupe) - Identification des risques cyber, les objectifs et les preuves associées aux exigences cyber sécurité (les preuves à collecter parles entités afin de vérifier qu'elles ont bien implémentées ces exigences - Expertise sur les thématiques typées "Cryptography" "network security" "Data Security" , "AM" and « secure configuration » - Animation des workshops avec les experts de ces sujets cyber, les équipes de productions et les entités afin d'identifier la faisabilité des exigences et les aspects opérationnels associés - Animation des espaces de partage des livrables et des forums mis en place à cet effet.
Mission freelance
Ingénieur Automatique - Intégration capteurs & bancs de tests
Publiée le
Big Data
C/C++
Linux
6 mois
200-310 €
Paris, France
Télétravail partiel
Contexte de la mission Vous rejoindrez l'équipe en charge de l'intégration des capteurs. Cette équipe pluridisciplinaire au sein du département Automatique : prototype et valide l'intégration des capteurs dans les différents produits, en collaboration avec les départements Mécanique et Électronique ; développe des méthodes de calibration innovantes, en collaboration avec l'équipe Bancs de Tests. Nous recherchons un candidat rigoureux, passionné, curieux, créatif, qui aime travailler dans un environnement dynamique et pluridisciplinaire, et qui n’a pas peur de s’attaquer à des challenges techniques nouveaux. Le candidat doit être diplômé d'une école d'ingénieur ou d'un master avec specialisation en Automatique, Mécatronique, Robotique ou similaire. Une experience professionnelle dans le domaine de l'automatique des systèmes embarqués ou dans la validation de capteurs MEMS est un gros plus. Objectifs et livrables Votre mission sera de contribuer au développement et à l'amélioration continue de nos produits en participant à l’ensemble des responsabilités de l’équipe. Vos missions : 1) Conception mécanique et électronique : Participer au design mécanique et électronique. S'assurer du respect des spécifications. 2) Validation du design & traitement des données des capteurs : Réaliser des tests de caractérisation des capteurs et de leur intégration. Prototyper, concevoir et documenter les méthodes de validation et calibration des capteurs. 3) Industrialisation des méthodes de validation et calibration & suivi de production : Développer et maintenir le code de test (C++, Python). Développer de nouveaux outils de tests. Industrialiser les méthodes de validation et calibration des capteurs. Analyser statistiquement les logs de production pour rejeter les valeurs aberrantes et détecter des problèmes de conception ou de production. Ces tâches nécessitent de : Rédiger des specifications techniques liées aux fonctions développées Réaliser un reporting régulier : documentation de résultats et méthodes, présentations au reste de l'équipe Respecter le planning projet Compétences demandées Compétences Python : Avancé Tests sur banc d'essai : Confirmé Big Data : Élémentaire Capteurs MEMS : Confirmé C++ : Avancé Automatique : Confirmé LINUX : Élémentaire Traitement du signal : Confirmé MATLAB : Confirmé Langues Anglais : Courant
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Offre d'emploi
Data Steward (H/F)
Publiée le
Data governance
1 an
45k-50k €
450-480 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement de nos activités Data & IA , Winside recherche un Data Steward pour intervenir en régie chez un grand acteur national du secteur des services publics (nom volontairement anonymisé). Rattaché au Responsable Data du client, le Data Steward jouera un rôle clé dans l’ opérationnalisation de la gouvernance, de la qualité et de la valorisation des données , en collaboration avec les équipes IT et les équipes métiers. Le projet prioritaire du client en 2026 est la migration de son système d’information métier . L’enjeu consiste à capitaliser sur les travaux réalisés dans le cadre de cette migration pour structurer et documenter les données, tout en minimisant l’effort demandé aux équipes métiers. Les périmètres de données concernés sont : Les objets métiers impactés par les nouvelles fonctionnalités du SI cible. L’objet métier Client (référentiel client). Missions principales 1. Mise en place d’un Data Catalog & Glossaire métier Définir l’outil et la structure du data catalog dans une approche « juste nécessaire » (Excel, Notion… pas de solution outillée prévue en 2026). Rédiger les définitions fonctionnelles des données (glossaire). Formaliser le cycle de vie des données. Structurer, harmoniser et animer la documentation fonctionnelle et technique des données. 2. Mise en place d’un cadre de Data Quality Management Définir les principes, règles et contrôles de qualité des données. Concevoir les workflows de gestion entre acteurs IT et métiers. Participer à la conception des tableaux de bord de qualité et de l’alerting associé. 3. Appui à la conception du modèle de gouvernance des données Définir processus, rôles, responsabilités et instances de gouvernance. Accompagner la structuration du modèle opérationnel.
Mission freelance
Expert Azure Data Factory F/H - 3 mois
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
3766 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois