Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 665 résultats.
Freelance
CDI

Offre d'emploi
Business Analyse - Migration SO

Publiée le
Business Analysis
Migration

1 an
40k-69k €
400-640 €
Levallois-Perret, Île-de-France
Télétravail partiel
L'équipe porte la mise en œuvre d'un projet , qui consiste à migrer l’activité France et Italie sur le SI cible de la JV, dans le but de rassembler toute l’activité sur un seul SI couvrant 7 pays. Cette équipe recherche un Business Analyst pour prendre en charge la préparation de la migration de données de l’ancien système vers le nouveau. Cette migration couvre plusieurs applicatons : CRM, gestion des contrats, portail client. Elle sera opérée pays par pays. Mission • Intégration de la squad « 3StepIT » du domaine Complementary Offerings, en charge du projet Apollo. Participation aux différents comités organisés au sein de la squad • Participation à la préparation du scénario de migration • Préparation de la migration de données : analyse des pivots, conception des pipelines, mapping des données • Identification des parties prenantes côté métier, développement et test, communication entre elles et vérification de leur compréhension mutuelle • Participation à la préparation des tests de migration ; participation et accompagnement du métier sur la recette fonctionnelle de la migration. • Participation aux opérations de migration : participation au suivi et au monitoring des traitements.
Freelance
CDI

Offre d'emploi
Business Analyst Lead Expert – Solutions Achats / Coupa

Publiée le
Coupa
P2P

3 ans
75017, Paris, Île-de-France
Télétravail partiel
Nous recherchons un Business Analyst senior pour intervenir au sein d’une équipe Transformation & Governance dédiée à la construction d’un écosystème global d’outils achats. Objectif : soutenir le Product Owner Coupa dans le déploiement et l’évolution des solutions Procure-to-Pay au sein d’un groupe international. 🎯 Votre mission 1. Support au Product Owner Coupa Participation à la définition de la roadmap , de la stratégie d’adoption et des évolutions de la solution. Contribution à la conception , la construction et la maintenance de l’écosystème Coupa. 2. Déploiement de la solution Procure-to-Pay (P2P) Accompagnement des nouvelles entités dans le déploiement de Coupa. Coordination avec les équipes locales et les équipes IT globales. 3. Intégration & nouveaux modules Exploration, analyse et support à la mise en œuvre de nouveaux modules ou solutions externes de la suite Coupa. 4. Analyse & Data Procurement Production d’ analyses , dashboards, insights et recommandations pour améliorer la performance et l’usage de Coupa. Contribution aux initiatives de gestion et valorisation des données achats . 5. Collaboration internationale Interactions régulières avec une diversité de parties prenantes : Achats locaux, Finance, IT, Entités pays, équipes offshore (Inde). Participation à des projets transverses impliquant plusieurs directions métiers.
CDI
Freelance

Offre d'emploi
Développeur Python Flask Fast API - IA - Celery - Pydantic

Publiée le
Docker
FastAPI
Flask

3 ans
40k-70k €
100-600 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Fiche de poste – Développeur IA (H/F) Localisation : Issy-les-Moulineaux Secteur : Assurance Type de mission : CDI / Freelance Contexte : Multi-projets – organisation agile et adaptative Contexte de la mission Dans un environnement assurance en forte transformation digitale, le Développeur IA intervient au sein d’équipes pluridisciplinaires sur plusieurs projets à forte valeur ajoutée autour de l’ Intelligence Artificielle et de la data . L’organisation est adaptative et orientée priorités business Le consultant évolue dans un cadre multi-projets , avec une forte interaction entre les équipes IT, Data, Produit et Métiers. Environnement technique / Stack Langage : Python Frameworks API : Flask, FastAPI Traitement asynchrone : Celery Validation & modélisation des données : Pydantic CI/CD : GitLab CI Conteneurisation : Docker Orchestration : Kubernetes Architecture : Micro-services, API REST Méthodologies : Adaptative / Agile / Cycle en V / En fonction des priorités Profil recherché Formation Bac+5 (école d’ingénieur ou université) Expérience confirmée en développement Python Bonne compréhension des enjeux d’industrialisation IA À l’aise dans des environnements multi-projets et évolutifs Sens des priorités et forte capacité d’adaptation Bon relationnel et esprit collaboratif
Freelance
CDI

Offre d'emploi
Data Science/Analyse

Publiée le
BigQuery
SQL

1 an
40k-45k €
310-450 €
Île-de-France, France
Télétravail partiel
Data Science/AnalyseContexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande organisation audiovisuelle. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste L'équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Déroulement des analyses Être à l'écoute et comprendre les besoins métier Proposer des méthodes et des axes d'analyses pertinents pour y répondre Tirer des enseignements et faire des recommandations en se basant sur les résultats de l'analyse Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l'oral aux équipes métier Communiquer régulièrement sur les résultats des analyses réalisées à l'ensemble de la direction Analyses pour enrichir l'animation et la stratégie éditoriales Profiling utilisateurs : par catégories de contenus, programmes, par chaînes, par device… Analyses de parcours : programmes ou catégories recrutants, fidélisants Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation… Analyses pour enrichir la stratégie produit Audit des données issues des nouvelles fonctionnalités Analyse de l'usage des fonctionnalités, profiling Analyse de l'impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus… Dashboards Être référent sur les dashboards de connaissance utilisateurs Garantir la maintenance et la bonne mise à jour des dashboards existants Ajustement des existants (nouveaux indicateurs, modifications de calculs…) Être force de proposition sur les évolutions des dashboards existants Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos…
Freelance

Mission freelance
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis/ko

Publiée le
ETL (Extract-transform-load)

6 mois
400-420 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis Date de début : 05/01/2026 Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple. Objectif de la mission Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : → sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky (ENEDIS) et Gaspar (GRDF) → fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
CDI

Offre d'emploi
 Ingénieur Mathématiques Appliquées / ML Data Scientist

Publiée le
Azure
Google Cloud Platform (GCP)

40k-54k €
Paris, France
Redlab cherche pour son client parisien , un Data scientist confirmé ( 4-6 ans d'expérience ) pour un démarrage en début d'année 2026 , le consultant interviendra sur : Rôle Modélise, développe et optimise des algorithmes d’IA : ML, Deep Learning, LLM, optimisation et pipelines cloud. Missions clés Concevoir pipelines de données (Azure/GCP/AWS). Développer modèles ML/DL/LLM (TensorFlow, PyTorch). Fine-tuning (BERT, LLaMA, etc.). Optimiser modèles (pruning, quantification). Collaborer avec équipes Data & Dev pour intégration.
CDI

Offre d'emploi
Data Engineer AWS

Publiée le
Amazon S3
AWS Cloud
AWS Glue

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Freelance

Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)

Publiée le
Azure
Python

1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance

Mission freelance
Expert Data IA Senior

Publiée le
Cloud
Deep Learning
DevOps

6 mois
560 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Cette mission, basée à Lyon avec une présence requise de deux jours par semaine sur site, vise à accompagner une organisation dans l’intégration avancée de solutions d’Intelligence Artificielle. D’une durée de six mois, du 2 janvier au 30 juin 2026, elle s’adresse à un profil Senior disposant de 5 à 7 années d’expérience et maîtrisant l’ensemble des enjeux Data et IA. Le tarif d’achat maximum est fixé à 576 euros. L’expert Data IA aura pour principale responsabilité de comprendre et d’analyser les besoins métiers afin d’identifier les opportunités de création de valeur grâce à l’IA. Il interviendra dans la conception, le développement et la mise en œuvre de prototypes et de Proofs of Concept, en évaluant rigoureusement leurs performances pour garantir leur pertinence et leur efficacité. Il devra également formuler des recommandations techniques et stratégiques pour orienter le choix des solutions IA à déployer. Les compétences attendues couvrent un large spectre : connaissance approfondie des modèles d’IA, des frameworks et des LLM, maîtrise de la programmation, du Machine Learning et du Deep Learning, ainsi que des environnements DevOps et Cloud. La capacité à communiquer clairement, à vulgariser des concepts complexes et à travailler selon les méthodologies agiles est également essentielle pour mener à bien cette mission.
CDI

Offre d'emploi
Data Scientist

Publiée le
Data science
Machine Learning

40k-62k €
Levallois-Perret, Île-de-France
Télétravail partiel
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Freelance

Mission freelance
Architecte Technique Solution Data

Publiée le
Big Data
Cloudera

3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Freelance

Mission freelance
Business Analyst (DataHub)

Publiée le
Business Analysis
Data management

12 mois
550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Business Analyst (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine bancaire. Description📝 Contexte de la mission La direction informatique d’un grand établissement financier recherche un Business Analyst pour assurer le suivi d’un portefeuille de projets relatifs aux référentiels de données . La mission s’inscrit dans la filière Master Data Services (MDS) , en coordination avec l’équipe de développement externe et les équipes métiers internes. 🎯 Objectifs de la mission Cadrer les besoins et suivre les réalisations des projets référentiels. Participer aux tests IT et à la recette utilisateur des solutions développées. Assister le chef de projet dans la coordination et le suivi des projets. 🧭 Missions principales & rôle Suivi de l’avancement des projets principaux et des nouveaux projets à venir. Cadrage des besoins métier et proposition de solutions adaptées. Planification et coordination des activités avec les métiers et contributeurs. Animation et préparation des ateliers de travail. Rédaction des spécifications fonctionnelles et cahiers de recette . Suivi des questions des équipes de développement. Réalisation des tests, support et suivi des recettes utilisateurs. Maintien de la documentation existante à jour. Support applicatif de niveau 3.
Freelance
CDI

Offre d'emploi
Business Analyst – Paiements & Litiges Monétiques F/H

Publiée le
Business Analyst
Monétique

12 mois
50k-55k €
500-600 €
Paris, France
Télétravail partiel
🎯 Contexte de la mission Dans le cadre de notre développement, nous accompagnons un acteur majeur du secteur bancaire, qui constitue une nouvelle équipe produit dédiée au Domaine Opérations Litiges, sur le périmètre stratégique de la gestion des contestations monétiques. conformité réglementaire (DSP2, VCR…), amélioration du parcours client, modernisation des échanges (selfcare, notifications, réduction des délais de remboursement…). Rejoindre cette équipe, c’est intervenir sur un périmètre riche, dynamique, à forte visibilité, et au cœur de l’innovation monétique des années à venir. 🎯 Rôle & Responsabilités En tant que Business Analyst, vous serez garant du maintien en condition opérationnelle et de l’évolution fonctionnelle du patrimoine applicatif Smart Contestation. À ce titre, vous interviendrez notamment sur : Analyse & conception Analyser les besoins utilisateurs et les problématiques métiers. Étudier les impacts applicatifs dans un environnement multiplateforme et multi-clients. Participer aux estimations de charges et de complexité. Rédiger les spécifications fonctionnelles et documents clients. Suivi fonctionnel & MCO Prendre en charge les incidents (validation, homologation, production) via Jira : analyse, diagnostic, contournement et suivi jusqu’à résolution. Contribuer à l’application d’un processus industriel de gestion des incidents. Assurer une communication régulière sur l’avancée des sujets auprès des parties prenantes internes. Contribution produit Participer à la définition des évolutions réglementaires et métier. Proposer des axes d’amélioration pour optimiser les coûts récurrents. Monter en compétences progressivement pour couvrir l’ensemble des activités du produit.
Freelance
CDI

Offre d'emploi
Consultant Développeur Python / DevSecOps – Programme AML

Publiée le
DevSecOps
Python

3 mois
Paris, France
Télétravail partiel
Consultant Développeur Python / DevSecOps – Programme AML (H/F) Localisation : France / Europe • Mission longue durée • Freelance / Régie/ Le bénéficiaire recherche un consultant expérimenté pour intervenir dans le cadre d’un programme d’investigation et de traitement d’alertes AML (Anti-Money Laundering). Le projet consiste à contribuer au développement et à l’évolution d’une plateforme technologique interne orientée data et investigation, intégrant progressivement des fonctionnalités avancées et des composants “AI-ready”.
Freelance
CDD
CDI

Offre d'emploi
Business Analyst Assurance Vie / Kélia

Publiée le
Business Analyst
kelia

6 mois
Nantes, Pays de la Loire
Télétravail partiel
Dans le cadre d’une mission pour l’un de nos clients du secteur de l’assurance vie, YGL Consulting recherche un Business Analyst disposant d’une bonne connaissance du domaine Assurance Vie et idéalement d’une expérience sur Kélia Contexte de la mission Le client conduit plusieurs projets d’évolution fonctionnelle, réglementaire et de modernisation de son SI Assurance Vie. Le Business Analyst interviendra au sein de la MOA pour contribuer à la définition, la clarification et la formalisation des besoins métiers, ainsi qu’au suivi des évolutions applicatives et réglementaires. Responsabilités Recueillir, analyser et formaliser les besoins métiers et réglementaires. Rédiger les expressions de besoins, user stories, cas d’usage et spécifications fonctionnelles. Participer et animer les ateliers métiers, IT et conformité. Analyser les impacts liés aux évolutions réglementaires (ex. : DDA, LCB-FT, RGPD, PRIIPs, transparence, SRD II…). Contribuer à la conception fonctionnelle et aux arbitrages. Accompagner les phases de recette : préparation, exécution, suivi des anomalies. Assister la mise en production et le suivi post-déploiement. Veiller à la cohérence fonctionnelle et réglementaire des évolutions du SI.
CDI

Offre d'emploi
Data Architect - SI Energie H/F

Publiée le

50k-60k €
France
Télétravail partiel
Contexte de la mission : Dans le cadre d'un programme de transformation Data d'envergure, notre client souhaite renforcer son équipe Data avec un Data Architect expérimenté. La mission s'inscrit au sein d'un environnement regroupant des équipes de transformation, d'ingénierie et de développement, avec un fort niveau d'interaction entre les directions métiers et les équipes techniques. Le consultant interviendra dans un contexte structuré autour d'une plateforme Data moderne (Data Lake, Data Warehouse, services de traitement & de gouvernance), et contribuera activement à la définition, l'évolution et la cohérence de l'architecture Data globale. Responsabilités : Cadrer, concevoir et sécuriser l'ensemble de la chaîne de valeur Data ; Garantir la cohérence, la performance et la qualité des modèles et flux de données ; Etre garant des bonnes pratiques d'architecture ; Participer aux choix technologiques et contribuera à la roadmap des services Data ; Assurer la promotion des services Data ; Participer à la cartographie et à la gouvernance des usages.
3665 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous