Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 195 résultats.
Offre d'emploi
Data Scientist / ML Engineer IA Générative (Data & IA) -(F/H)
Publiée le
Data science
Docker
IA Générative
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Data Scientist / ML Engineer spécialisé en IA Générative et Agentic AI pour intégrer l’équipe Data & IA . Vous interviendrez sur la conception, l’entraînement et le déploiement de solutions d’IA avancées visant à optimiser des processus métier critiques : analyse de documents, support aux traders, automatisation de workflows, conformité réglementaire et reporting. Missions principales 1. Modélisation & Machine Learning Développer des modèles de Machine Learning avancés en Python pour des cas d’usage bancaires : fraude, scoring, gestion et anticipation des risques. Préparer, nettoyer et transformer des données structurées et non structurées (logs, documents réglementaires, rapports, données métiers). 2. Large Language Models (LLM) Fine-tuning et intégration de LLM industriels (GPT-4/5, LLaMA, Mistral…). Conception et implémentation de pipelines RAG (Retrieval-Augmented Generation) pour un accès contextualisé aux données internes (politiques internes, réglementations, Knowledge Base). Mise en œuvre de prompting avancé et d’architectures adaptées aux besoins CIB . 3. Agentic AI Prototyper et déployer des agents autonomes capables d’interagir avec : APIs internes Workflows Services bancaires (ex. assistant trader, extraction d’informations réglementaires). Orchestration de tâches complexes via des frameworks tels que : LangChain, LangGraph, AutoGPT . 4. Production & Industrialisation Packager et déployer les modèles en production : Docker API REST / GraphQL Environnements cloud privé ou hybride Collaboration avec les équipes MLOps, Cloud et Sécurité pour garantir : Scalabilité Monitoring & observabilité Respect des contraintes réglementaires. 5.Gouvernance & Compliance IA Garantir l’application des règles internes d’ Ethics & Compliance liées à l’IA. Mise en place de tests de : Robustesse Biais Traçabilité et explicabilité des modèles. Profil recherché Formation supérieure en Data Science, IA ou Informatique Solide expérience en Machine Learning et IA Générative Excellente maîtrise de Python Bonne connaissance des environnements bancaires / financiers appréciée Capacité à travailler sur des sujets à forte valeur métier et forte exigence réglementaire
Offre d'emploi
Data Analyst (Junior/Confirmé) H/F
Publiée le
Dataiku
PySpark
40k-45k €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de nos activités Data, nous souhaitons recruter en CDI un(e) Data Analyst capable de contribuer à la préparation des données , à l’ analyse , et à la mise à disposition d’indicateurs pour les métiers, avec une forte utilisation de Dataiku et PySpark . Périmètre du poste: Le/la Data Analyst interviendra sur des sujets d’analyse et de transformation de données, en lien avec les équipes métier et data. Missions principales (à adapter) : Explorer, nettoyer et préparer les données pour l’analyse (qualité, cohérence, complétude) Construire des jeux de données analytiques et des transformations via Dataiku et/ou PySpark Produire et maintenir des indicateurs (KPI), reportings et analyses ad hoc Documenter les sources, la logique de calcul, et les règles métier Contribuer à l’amélioration continue : automatisation de tâches, fiabilisation des pipelines, contrôle qualité
Mission freelance
Data Engineer GCP / Big Data (H/F)
Publiée le
Google Cloud Platform (GCP)
Java
Spark Streaming
3 mois
Paris, France
Télétravail 100%
En tant que Data Engineer, vous serez responsable de : Conception & Développement (Big Data / Java / Spark) – 40% Développer et optimiser des traitements Big Data en Java et Spark. Créer, maintenir et améliorer des pipelines de données robustes et scalables. Assurer la qualité, la performance et la fiabilité des traitements batch et streaming. Cloud Engineering – GCP (DataProc / Workflows / Cloud Run) – 30% Concevoir et maintenir des solutions data sur GCP. Déployer et orchestrer les traitements via DataProc, Workflows et Cloud Run. Optimiser les coûts, la sécurité et les performances des environnements GCP. Data Warehousing – BigQuery – 15% Modéliser, structurer et optimiser les tables BigQuery. Mettre en place des requêtes performantes et adaptées aux usages analytiques. Assurer la gouvernance et la qualité des données. Systèmes & DevOps – 5% Intervenir sur des environnements Linux. Contribuer au monitoring et à l’amélioration continue des systèmes. Outils complémentaires – 10% Participer à l'infrastructure-as-code via Terraform. Déployer et automatiser via GitHub Actions. Contribuer aux bonnes pratiques CI/CD.
Offre d'emploi
Data Business Analyst
Publiée le
Data analysis
KPI
Méthode Agile
6 mois
Roissy-en-France, Île-de-France
Télétravail partiel
Description du poste Nous recherchons un Data Business Analyst expérimenté pour intervenir en tant qu’expert data et business auprès des équipes et des clients. Vous serez responsable de l’analyse des besoins métiers liés à la donnée, de la conception de solutions de reporting et d’aide à la décision, ainsi que de l’accompagnement des utilisateurs dans l’exploitation des données. Responsabilités Recueillir et formaliser les besoins métiers liés à la donnée et au reporting Traduire les enjeux business en spécifications data claires Concevoir et maintenir des dashboards (Power BI, Tableau) Garantir la qualité et la cohérence des données Réaliser des analyses quantitatives et qualitatives avancées Accompagner les utilisateurs et animer des formations Travailler en environnement Agile / SAFe
Offre d'emploi
CHARGE DE PROJET DATA H/F
Publiée le
Data analysis
6 mois
31k-40k €
Marseille, Provence-Alpes-Côte d'Azur
Rejoignez une organisation bancaire de premier plan, acteur majeur du financement et de la gestion des risques en France, qui accompagne plus de 2 millions de clients et s'engage dans une transformation digitale ambitieuse. Au sein d'une DSI innovante basée à Marseille, vous intégrerez une équipe dynamique composée d'experts métiers (gestion des risques, crédits, financements spécialisés) et participerez à des projets stratégiques pour le Comité de Direction et les différentes parties prenantes. Imaginez-vous intervenant sur des technologies de demain en exploitant des outils de data management, proposer des solutions techniques pour automatiser des process stratégiques, interagir avec des experts dans le secteur bancaire et la gestion des risques qui vous formeront à leurs métiers. Dans ce cadre, vos missions sont les suivantes : Automatisation des reportings du service et des indicateurs clés Transfert des reportings et tableaux de bord vers les nouveaux outils de requêtage Analyse et suivi de la situation et de l'évolution des portefeuilles spécialisés Prise en charge, réalisation et analyse des reportings récurrents Contribuer à la réalisation des livrables à destination du Comité de Direction Générale Environnement technique : Data mangement et BI (PowerBI, Alteryx, SQL, DENODO) et des langages de programmation (Python, R, DAX)
Offre d'emploi
Data Ingénieur Spark
Publiée le
Apache Spark
PySpark
Spark Streaming
12 mois
35000, Rennes, Bretagne
Télétravail partiel
ans le cadre d’un programme de transformation Data mené au sein d’une grande organisation, une équipe projet pluridisciplinaire travaille à la mise en place d’une nouvelle plateforme Data. Nous recherchons un Data Engineer senior disposant d’une expérience confirmée sur les traitements de données en Spark et Python , capable d’intervenir sur l’ensemble de la chaîne de valeur de la donnée. Responsabilités principales En tant que Data Engineer Senior, vous serez amené à : Concevoir, développer et faire évoluer des pipelines d’ingestion de données en batch et en temps réel Mettre en œuvre des traitements Data fiables, industrialisés et facilement observables Participer à la définition et à la construction d’une architecture Lakehouse moderne Assurer la qualité, la traçabilité et la cohérence des données tout au long de leur cycle de vie Contribuer aux démarches d’ industrialisation et d’automatisation (CI/CD, DataOps) Travailler en étroite collaboration avec les architectes Data, les équipes plateforme, les responsables produit et les métiers Appliquer les principes de sécurité by design et veiller au respect des exigences de conformité Produire la documentation technique et participer au partage de connaissances au sein des équipes
Offre d'emploi
Data Product Manager
Publiée le
Data management
1 an
40k-45k €
270-540 €
Paris, France
Télétravail partiel
Mission Overview La mission au sein du Data office a pour objectif d'accompagner la transformation autour de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur. Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Mission freelance
Data Analytics - Gestion de projet Data (F/H)
Publiée le
1 an
400-430 €
Dijon, Bourgogne-Franche-Comté
Télétravail partiel
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Dijon - Expérience de 5 ans minimum Et si votre prochain poste vous permettait d’influencer directement les décisions de directions métiers ? Si vous aimez donner du sens aux chiffres, structurer la donnée pour éclairer la décision et travailler au cœur de la gouvernance de portefeuilles de projets, ce poste mérite clairement votre attention. Nous renforçons aujourd’hui une équipe Data intervenant auprès d’un grand acteur bancaire, sur des sujets de mesure de performance, pilotage de portefeuille projets et restitution stratégique. Pourquoi ce poste existe ? Les directions métiers pilotent de nombreux projets Data et ont besoin d’une vision fiable, lisible et partagée de leur performance. Votre rôle : transformer des mesures brutes en indicateurs exploitables, puis en leviers d’amélioration concrets. Concrètement, à quoi va ressembler votre quotidien : Vous intervenez comme référent Data & pilotage de la performance sur un portefeuille de projets : - Vous pilotez l’échantillonnage des projets soumis à mesure de performance, en lien avec des prestataires externes, - Vous suivez la production des mesures, challengez leur qualité et sécurisez la fiabilité des données, - Vous construisez, analysez et faites vivre les indicateurs de performance du portefeuille projets, - Vous préparez et restituez les analyses lors de points mensuels avec des directeurs et instances de gouvernance, - Vous proposez et animez des plans d’actions concrets pour aider les directions à progresser dans le pilotage de leurs projets. Ici, la Data n’est pas décorative : elle sert à décider et à améliorer.
Offre d'emploi
Data Engineer - Spécialisation GenAI & LLM
Publiée le
CI/CD
GenAI
Git
24 mois
Paris, France
Télétravail partiel
Panda Services , société de services informatiques, recherche pour l’un de ses clients basé à Paris (75) un(e) Data Engineer - Spécialisation GenAI & LLM Contexte Nous renforçons notre équipe Data pour accompagner le déploiement de cas d’usage stratégiques en IA générative et LLM . Vous rejoindrez une plateforme data cloud moderne, au cœur des enjeux de valorisation des données structurées et non structurées , avec un objectif clair : rendre la donnée directement exploitable par des modèles LLM à l’échelle industrielle . Vos missions 🔹 Data Engineering moderne Concevoir et développer des pipelines ELT performants et scalables sur Snowflake Construire des modèles de données analytiques optimisés pour les usages BI et GenAI Optimiser les coûts, la performance et la sécurité de la plateforme data cloud 🔹 DataOps & qualité des données Mettre en place des tests, contrôles qualité et standards data indispensables à des projets LLM fiables Industrialiser les pipelines via Git, CI/CD et automatisation Participer à l’outillage DataOps / MLOps orienté LLM 🔹 Données & IA générative (axe clé du poste) Ingestion et préparation de données structurées, semi-structurées et non structurées (textes, documents, etc.) Contribution directe à des projets GenAI & LLM : génération et gestion d’ embeddings mise en œuvre d’architectures RAG (Retrieval Augmented Generation) exploitation et structuration de corpus documentaires pour les LLM Travailler avec les équipes IA pour garantir la qualité, la fraîcheur et la traçabilité des données exposées aux modèles 🔹 Collaboration Travail en étroite collaboration avec les équipes Data, BI, IA et Produit Force de proposition sur les bonnes pratiques Data & GenAI Profil recherché Compétences techniques Snowflake SQL avancé Python (data processing, préparation de données pour IA) Data modeling analytique Environnements cloud Git / CI-CD / DataOps Solides bases ou forte appétence pour les LLM & l’IA générative : embeddings RAG traitement de données textuelles Profil Forte curiosité pour les usages concrets de l’IA générative Capacité à évoluer dans des environnements data modernes et transverses Esprit d’optimisation, autonomie et sens de la qualité Envie de participer à des projets GenAI à fort impact business
Mission freelance
Business Analyst / Data Modeler – Référentiel Assurance
Publiée le
Business Analyst
Java
Modélisation
6 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte & missions (2 phases) 2–3 mois – Modélisation data (3NF) Collecte/qualification des données, conception schéma logique + DDL (tables, PK/FK, contraintes, index). Cohérence & performance (tuning SQL), traçabilité/audit/historisation. Catalogue de données, doc technique/fonctionnelle, participation ateliers. Conseil aux BA/devs pour écrans, interfaces, workflows, règles métiers. Expérience prouvée en modèle de données complexe requise. 2–3 mois – Rôle BA (Agile) Ateliers Métiers/IT, rédaction user stories + critères d’acceptation. Support devs, qualification avant recette, suivi anomalies. Specs fonctionnelles, modes opératoires, accompagnement au change. Compétences Modélisation data (Expert) , DBA Oracle/SQL (Confirmé) . Java 21, Spring Boot 3, Security, Batch, Angular 19, JS/TS, REST (Confirmé) . Sécu applicative (notions), JIRA/Confluence (Confirmé) , API/DB/Webservices (Confirmé) . Communication, rigueur, leadership d’ateliers. Modalités Lyon (3 j/sem sur site), hybride.
Mission freelance
Senior Data Analyst
Publiée le
Azure Data Factory
Business Analyst
Dataiku
6 mois
400-550 €
Paris, France
Télétravail partiel
1. Outils de suivi des risques Développer des visualisations pour le suivi des risques. Créer et maintenir des bases de données fiables. Créer des tableaux de bord dans *Power BI**. Documenter les outils et les transmettre à l’équipe. 2. Analyse métier Quantifier les risques et identifier les leviers d’action. Présenter et défendre les analyses lors des discussions métiers. Traiter les demandes ponctuelles des unités opérationnelles. 3. Gestion de projet et collaboration Gérer les projets avec les clients internes (analyse des besoins, intégration, livraison). Collaborer avec les autres profils de données et la communauté Data Citizens de CAL&F.
Mission freelance
Data Engineer Kafka/JAVA
Publiée le
Apache Kafka
Java
Spark Streaming
4 mois
Paris, France
TEKsystems recherche pour le compte de son client dans le secteur de l'assurance : Un data engineer Spark/ JAVA (H/F) Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs. Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe. Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle Les principaux déclaratifs concernés sont les suivants : • FICOVIE • EAI / FATCA • IER • ECKERT •AGIRA / RNIPP Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data. La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Mission freelance
Proxy Product Owner Data H/F
Publiée le
Proxy
3 mois
420-480 €
Paris, France
Télétravail partiel
Notre client Grand Compte situé à Paris, recherche un Proxy Product Owner Data . Projet : Mise à disposition des managers/analystes/cadres du client d’un outil intuitif d’analyse massive des courses conducteurs conçu pour renforcer la sécurité ferroviaire et la régularité des circulations sur le réseau RER : Fournit une visualisation claire des indicateurs clés de conduite et des courbes de vitesse permettant d’identifier les pratiques/tendances/zones de vigilance Devient un support central pour accompagner la montée en performance des conducteurs Permet un suivi précis des gestes métiers (individuellement et par groupes de conducteurs) : Anticiper les écarts impactant la sécurité ferroviaire Vérifier la conformité de la conduite par rapport aux exigences de régularité Cibler les actions d’instruction ou de sensibilisation Améliorer la connaissance collective et indicateurs d’exploitation S’inscrit dans une démarche d’amélioration continue au service de la performance du RER
Offre d'emploi
Data scientist IA gen
Publiée le
Deep Learning
Large Language Model (LLM)
Natural Language Processing (NLP)
1 an
Courbevoie, Île-de-France
StarClay recherche un Data Scientist spécialisé en Intelligence Artificielle pour une mission auprès de son client, leader de l'information juridique. La mission s'inscrit dans un contexte de développement et d'industrialisation de solutions d'IA avancées visant à enrichir les contenus et les produits juridiques du client à l'international. Le consultant interviendra sur l'ensemble du cycle de vie des solutions data et IA. Sa mission principale consistera à concevoir, développer et mettre en production des modèles et solutions basées sur l'IA (Agentic, LLM, Deep Learning). Les responsabilités clés incluent : - Définir et implémenter des solutions basées sur : - le prompt engineering - des modèles de deep learning (NLP, classification, ranking) - des workflows agentiques - Exploiter des données textuelles complexes (juridiques, doctrinales) pour concevoir des solutions innovantes - Mettre en oeuvre des mécanismes garantissant la qualité, la robustesse et le monitoring des modèles en production - Collaborer étroitement avec les équipes Produit, Data Engineering et les experts métiers
Offre d'emploi
Data Manager Senior – Gouvernance des données
Publiée le
RGPD
SQL
1 an
45k-55k €
400-550 €
Île-de-France, France
Télétravail partiel
Data Manager Senior – Gouvernance des données Missions : Piloter la stratégie de gouvernance des données et être référent sur le sujet. Garantir la qualité, l’intégrité et la conformité des données. Définir les standards, référentiels et bonnes pratiques. Accompagner et fédérer les équipes métiers et IT autour des enjeux data. Suivre les KPI et assurer le respect des réglementations (RGPD, normes sectorielles). Profil : Bac +5 en informatique, data ou équivalent. 5 à 10 ans d’expérience en data management/gouvernance. Leader reconnu, autonome et force de proposition. Maîtrise des outils de gouvernance (Collibra, Talend…) et SQL. Capacité à fédérer et former les équipes. Conditions : CDI – Poste basé à [Ville] Rémunération attractive selon expérience
Offre d'emploi
MLOps / DevOps Senior - Move2Cloud - GCP
Publiée le
CI/CD
Data science
DevOps
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission Dans le cadre du programme Move2Cloud du projet Prognos, une migration majeure vers le cloud est en cours. Afin d’assurer la poursuite et la consolidation de cette migration en 2026 , nous recherchons un profil MLOps / DevOps Senior . Au-delà de la migration, le projet fait face à de nouveaux enjeux techniques majeurs, notamment : l’ automatisation du réentraînement des modèles de Machine Learning sur le cloud , la gestion et l’orchestration de plusieurs milliers de pipelines (jusqu’à 4 000) en simultané , la scalabilité, la robustesse et l’industrialisation de la plateforme ML. Missions principales Finaliser et sécuriser la migration Move2Cloud de la plateforme Prognos Concevoir et maintenir des pipelines MLOps industrialisés (entraînement, validation, déploiement) Mettre en place le réentraînement automatique des modèles ML sur le cloud Garantir la scalabilité et la performance d’un grand nombre de pipelines exécutés en parallèle Déployer et maintenir les infrastructures cloud (Infrastructure as Code) Mettre en place les bonnes pratiques CI/CD, monitoring, logging et observabilité Collaborer étroitement avec les équipes Data Science, Software et Architecture Contribuer aux choix d’architecture et aux standards MLOps du projet Profil recherché Séniorité : Senior (autonomie et capacité de prise de décision attendues) Expérience significative sur des environnements MLOps et DevOps en production Solide compréhension des problématiques de Machine Learning à l’échelle industrielle Capacité à intervenir dans des environnements critiques et complexes (haute disponibilité)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- deduction loyer et contrat de mise à disposition
- Mes données de la CIPAV (trimestre, droit) ont disparues sur lassuranceretriate
- Micro-entreprise après EURL ?
- Ajout d'une deuxième activité en tant que micro-entrepreneur
- domiciliation et etablissement principal
- Compte Autoentrepreneur - Création ou modification
1195 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois