Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 664 résultats.
Freelance
CDI
CDD

Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)

Publiée le
BI
Cognos
Microsoft Power BI

12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Freelance

Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops

Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Le Plessis-Robinson, Île-de-France
Télétravail partiel
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Freelance
CDI

Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau

Publiée le
Data analysis
Dataiku
Product management

2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Freelance
CDI

Offre d'emploi
Data Analyst - Qlik Sense - Rennes

Publiée le
Data visualisation
Qlik Sense
Qlikview

3 mois
40k-45k €
400-450 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.
Freelance

Mission freelance
Business Analyst (Bordeaux)

Publiée le
Azure DevOps
JIRA
Méthode Agile

3 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre d'un programme de refonte du Back Office, une importante reprise de données de l'ancien vers le nouveau système de gestion est a réalisé et pour venir renforcer les équipes vos missions principales en tant que Business Analyst seront de : Animer de manière dynamique les ateliers (préparer, animer, reporter) Être porteur du champ analytique : capacité à adresser les thématiques Santé, d’échanger avec les développeurs sur la manière d’obtenir les résultats, de mener la réflexion sur les règles de transformation en atelier Être force de proposition Rédiger rigoureusement des spécifications détaillés Piloter les outils de ticketing
Freelance
CDI

Offre d'emploi
DBA senior PostgreSQL / Oracle H/F

Publiée le
Oracle
PostgreSQL

1 an
55k-80k €
580-600 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Contexte Dans le cadre du renforcement de ses équipes Data & Infrastructure, notre client – éditeur de logiciels à forte criticité métier (environnement santé / SI complexes) – recherche un DBA senior PostgreSQL / Oracle pour intervenir sur des plateformes à forts volumes et haute disponibilité. Le poste s’inscrit dans un contexte d’internalisation des compétences DBA chez le client , avec un fort enjeu de montée en expertise et de pérennisation des savoir-faire en interne. À noter : cette mission s’inscrit dans un projet d’internalisation Missions principales Administration et exploitation des bases de données PostgreSQL et Oracle Garantir la disponibilité, la performance et l’intégrité des données Mise en place et maintien des stratégies de sauvegarde / restauration (PRA / PCA) Supervision, monitoring et tuning des bases (requêtes, index, plans d’exécution) Gestion des montées de version, patchs de sécurité et migrations Participation aux projets d’architecture et d’évolution des plateformes Data Support de niveau 3 auprès des équipes applicatives et techniques Contribution à l’ internalisation des compétences (documentation, bonnes pratiques, transmission) Collaboration étroite avec les équipes Infra, Sécurité, DevOps et Applicatives
Freelance

Mission freelance
Data Engineer Python AWS

Publiée le
AWS Cloud
Python

12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment :  Collecter les exigences des métiers et des utilisateurs  Concevoir l'architecture de données  Concevoir les pipelines de données  Mettre en production l'architecture  Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Freelance

Mission freelance
Data Engineer / Python / Azure MS Fabric (H/F)

Publiée le
Azure
Microsoft Fabric
PySpark

8 mois
550-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Engineer / Python / Azure pour l'un de ses clients qui opère dans le secteur de l'énergie Description 🧩 Contexte de mission Dans le cadre du renforcement de l’équipe Data, nous recherchons Data Engineer spécialisé en Python, PySpark et Microsoft Fabric , évoluant dans un environnement Azure Cloud . Les consultants seront responsables de la conception, du développement et de la mise en production de pipelines et architectures data au sein d’un contexte orienté performance, scalabilité et industrialisation. 🎯 Missions principales & rôle Le Data Engineer interviendra sur : La collecte et l’analyse des besoins métiers et utilisateurs La conception d’architectures de données robustes et scalables Le développement de pipelines de données (ingestion, transformation, modélisation) La mise en production des pipelines et leur optimisation continue La maintenance et l’évolution des architectures existantes Le respect des bonnes pratiques et standards d’ingénierie data 📌 Objectifs Concevoir une architecture data fiable, évolutive et documentée Industrialiser les pipelines pour garantir performance et qualité Assurer un haut niveau de disponibilité et de maintenabilité des solutions Accompagner les équipes internes dans la compréhension et l’usage des pipelines Contribuer à la structuration et à la maturité data de l’organisation
Freelance

Mission freelance
Développeur .NET 8 | Azure Cloud | Blazor | API REST

Publiée le

12 mois
500 €
75001, Paris, Île-de-France
Lieu : Paris - Présence physique requise 4 jours/semaine Durée : 12 mois (renouvelable) Date de démarrage : 19 janvier 2026 Langues : Français et Anglais (maîtrise requise) Contexte Nous recherchons un Développeur IT Senior pour intervenir sur le projet UniqueRef au sein de l'équipe Referential. Ce projet stratégique consiste à migrer une application OnPrem vers Azure, intégrer un nouveau fournisseur de données et mettre en place des flux d'alimentation pour nos référentiels (instruments, émetteurs, données extra-financières). Vos missions Développer les nouveaux composants et assurer la cohérence technique des modules. Rédiger les spécifications techniques et documents d'architecture (architecture review, dossier d'exploitation). Planifier les travaux, estimer les charges et anticiper les risques. Collaborer avec les équipes infrastructures pour la mise en place de l'environnement Azure. Tester, déployer et accompagner les phases UAT et PROD. Garantir la qualité des livrables et des développements (tests unitaires, Sonar, automatisation). Profil recherché (détails) Formation : Bac+5 (école d'ingénieur ou équivalent). Expérience : Minimum 5 ans en développement informatique. Expertise dans le développement sur Azure et la définition d'architectures applicatives. Expérience confirmée en API REST , ETL, batchs et services. Connaissance des frameworks Microsoft pour accélérer la mise en place de nouvelles fonctionnalités. Maîtrise des modèles et bases de données (SQL Server). Expérience dans la mise en place de la qualité du code (Sonar) et amélioration continue. Une expérience en automatisation des tests est un plus. Familiarité avec les environnements Agile (SCRUM) et les process DevOps . Atout : Expérience en finance de marché ou gestion d'actifs, avec un intérêt pour les problématiques data (produits financiers, référentiels). Compétences techniques (détails) Langages & Frameworks : .NET 8, C#. Blazor WebAssembly / Server App (Front-end). Outils & Environnements : Visual Studio, GIT. Microsoft SQL Server. Azure (déploiement, services, migration). Méthodologies & Qualité : Tests unitaires, automatisation des tests. Sonar pour la qualité du code. Jira ou Azure DevOps pour la gestion Agile (board, test plans). Soft skills Rigueur, pragmatisme, adaptabilité. Esprit d'équipe et communication claire. Résistance au stress.
Freelance

Mission freelance
Data Analyst - Infogérance - Lille (H/F)

Publiée le
Microsoft Power BI
SQL

6 mois
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Rejoignez l'une des entreprises leaders dans l'optimisation et la transformation digitale au sein du secteur des services numériques. Basée à Lille et rayonnant sur tout le territoire français, notre entreprise s'engage à offrir des solutions innovantes à ses clients afin de les accompagner dans leur évolution. Face à une croissance constante et à une demande accrue pour des analyses de données précises et transformantes, nous recherchons activement un(e) Data Analyst pour renforcer notre pôle Data. Vous travaillerez étroitement avec les métiers pour transcrire leurs besoins en solutions data-driven, assurant la qualité et la pertinence des insights. Missions - Élaborer le cadrage fonctionnel des cas d’usage avec les différents métiers de l'entreprise. - Traduire des besoins métier en datasets, KPIs et tableaux de bord efficaces. - Réaliser des explorations approfondies de données avec un fort accent sur le storytelling. - Assurer la documentation et la qualité des données. - Contribuer à la mise en œuvre des cas d’usage sur Power BI / Fabric en tant que data consommateur. - Fournir un support aux POC/expérimentations IA en collaboration avec les Data Engineers.
Freelance

Mission freelance
Ingénieur DevOps Cloud Azure – Confirmé / Expert (Data & BI)

Publiée le
Architecture ARM
Azure
Azure DevOps

6 mois
Île-de-France, France
Description du poste : Intégré au Data Lab de la Direction Digital & Data d'un grand groupe Retail, vous pilotez l'architecture et l'industrialisation des projets BI et Data sur le Cloud Microsoft Azure. Au sein d'une équipe Agile d'une dizaine de personnes, vous assurez la liaison entre les équipes techniques (Dev, Sécurité, Ops) et projets. Vos missions s’articulent autour de trois axes majeurs : Construction et Déploiement : Vous concevez et dimensionnez les infrastructures Cloud Public (Azure). Vous déployez les architectures cibles pour les projets Big Data (DataLake, EventHub, Databricks). Industrialisation (DevOps) : Vous garantissez l'approche "Infrastructure as Code" (IaC) via ARM et YAML. Vous configurez et maintenez les pipelines CI/CD (Azure DevOps, Git) pour automatiser les déploiements. Exploitation et Sécurité : Vous mettez en place la supervision et assurez la haute disponibilité des services. Vous gérez le Maintien en Condition Opérationnelle (MCO), les sauvegardes, les accès et la sécurité, tout en participant aux validations techniques et aux audits.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps / Data Platform (Kubernetes – GitLab – Vault)

Publiée le
Azure Kubernetes Service (AKS)
CI/CD

3 ans
Île-de-France, France
Contexte Nous recherchons un Ingénieur DevOps / Data Platform pour accompagner notre client dans le cadre du service de Data Architecture Doc Factory . L’objectif est de fournir et de maintenir l’outillage facilitant l’intégration des solutions Data du Groupe, de définir des standards d’intégration, et d’accompagner les équipes projet dans leurs usages. 🎯 Missions Vous intervenez au sein de la Data Factory et êtes responsable de : Maintenance & Exploitation Assurer le MCO des outils d’intégration (CodeHub, Vault, Consul, GitLab CI, ArgoCD, Kubernetes). Suivre la stabilité, la performance et la sécurité des environnements. Industrialisation & Automatisation Améliorer l’industrialisation des outils et pipelines CI/CD. Automatiser les déploiements, renforcer la standardisation via des templates. Migration OpenShift & Sécurité Participer au projet de migration vers OpenShift BNP Paribas. Sécuriser les environnements (RBAC, secrets, policies, durcissement). Standardisation & Templates Maintenir et enrichir les modèles d’intégration (pipelines, charts Helm, manifests K8s). Garantir leur conformité aux standards Data & sécurité du Groupe. Accompagnement & Support Accompagner les équipes Data dans le design et l’intégration de leurs solutions. Former et conseiller sur les bonnes pratiques DevOps/DataOps. Monitoring & Observabilité Contribuer à l’amélioration du monitoring (Dynatrace, alerting, dashboards). Suivre la fiabilité et la performance des solutions intégrées. Innovation Tester de nouvelles technologies et proposer des améliorations pour enrichir l’offre de service. Participer aux études d’architecture et PoC Data Platform.
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
CDI

Offre d'emploi
Expert Cybersécurité GRC - Full remote (H/F)

Publiée le
Cybersécurité
EBIOS RM
Gouvernance, gestion des risques et conformité (GRC)

45k-60k €
France
Télétravail 100%
Contexte du poste Nous sommes une entreprise réputée dans le secteur de la cybersécurité, avec une ouverture vers le full remote pour favoriser une flexibilité optimale. Forts de notre expertise technique inégalée, nous accompagnons des clients de divers secteurs, allant des PME aux ETI, dans la gestion et la sécurisation de leurs systèmes d'information. Notre équipe, composée de 35 collaborateurs, est divisée en deux pôles principaux : audit technique et GRC (Gouvernance, Risque et Conformité). Actuellement en pleine croissance, nous recherchons un consultant GRC pour rejoindre notre équipe et participer à des projets stimulants et variés, toujours en mode forfait. Ce poste d'expert Cybersécurité GRC est essentiel pour soutenir notre montée en compétence et renforcer notre expertise. Missions Réaliser des audits de sécurité organisationnels. Accompagner nos clients dans l'élaboration de documentation, PSSI, et procédures. Conduire des analyses de risque en utilisant la méthode EBIOS Risk Manager. Intervenir dans la mise en conformité réglementaire (ISO 27001, NIS2, RGPD, etc.). Concevoir et animer des formations et ateliers de sensibilisation. Offrir une assistance en tant que RSSI pour nos clients. Participer à la préparation de PCA/PRA et la gestion de crise. Contribuer à l'architecture de sécurité. Stack technique ISO 27001, EBIOS RM, NIS2 Environnement technique global Directives NIS2, RGPD, LPM, HDS, RGS Outils de gestion de crise et continuité d'activité
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance

Mission freelance
Actuaire SENIOR - Gouvernance & Validation Modèles Internes

Publiée le

6 mois
500 €
75001, Paris, Île-de-France
Objectif : Refonte du modèle interne partiel pour répondre aux exigences réglementaires (ACPR). Renforcement du dispositif de gouvernance et du plan de validation des modèles internes. Missions principales : Revue des modèles stochastiques (catastrophe, frais, rachats, agrégation). Développement des tests de sensibilité et intégration des critères de validation. Validation des changements de modèles selon les guidelines EIOPA. Contribution à la gouvernance et documentation des modèles (axes MRM : entrées, conception, implémentation, monitoring, performance, gouvernance, documentation). Refonte du plan de validation avec seuils de matérialité et processus de validation des évolutions. Compétences requises : Expérience en validation et gouvernance des modèles internes. Solide connaissance du cadre prudentiel Solvabilité II et des guidelines EIOPA . Bon niveau en Python (lecture et compréhension de code). Autonomie, esprit critique, excellentes qualités rédactionnelles et relationnelles. Profil recherché : Actuaire senior confirmé ( +9 ans d'expérience ). Expertise en gouvernance des risques et modélisation. Durée : 6 mois (01/01/2026 - 30/06/2026). Lieu : Paris (75013).
2664 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous