Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 631 résultats.
Freelance

Mission freelance
Data Engineer Senior

Comet
Publiée le
Azure
Data Lake
Pandas

24 mois
400-650 €
Paris, France
Objectifs et livrables Dans le cadre du lancement de notre nouveau projet, nous recherchons une prestation de Data Engineer senior pour concevoir et mettre en œuvre des pipelines de données dans un environnement serverless exigeant. Le prestataire Data Engineer senior doit être capable de produire, mais aussi de comprendre les enjeux métier, de cadrer les sujets en amont, de faire les bons choix de conception et de diffuser son savoir-faire au sein de la squad. Missions principales : Concevoir et développer des pipelines de données en Python Implémenter des traitements batch et des orchestrations via Azure Durable Functions Manipuler des données volumineuses, notamment au format Parquet Mettre en place des validations de schémas et des contrôles de qualité de données Assurer l’intégration avec des APIs externes Participer à la modélisation et à l’optimisation des bases Azure SQL Mettre en œuvre l’observabilité de la solution : traces, métriques, logs Industrialiser les déploiements via CI/CD • Garantir la qualité et la sécurité du code Contribuer à l’analyse des besoins et au cadrage des sujets avant implémentation Porter une réflexion de conception sur les choix techniques, les compromis et la maintenabilité Utiliser l’IA comme un levier d’ingénierie concret : accélérer l’exécution, explorer des options, challenger des choix, améliorer la qualité et gagner en efficacité, sans déléguer la réflexion ni baisser le niveau d’exigence Partager ses pratiques, expliciter ses choix et contribuer à la montée en compétence de la squad Travailler efficacement dans un environnement international, y compris en anglais sur des sujets techniques et de conception Profil recherché : Capable de comprendre rapidement les enjeux métier et de les traduire en solutions robustes et pragmatiques Capable de penser le problème avant de se focaliser sur l’implémentation Doté d’une vraie expertise d’ingénierie et de conception, au-delà de la seule maîtrise d’un langage, d’un framework ou d’une version spécifique Capable d’utiliser les outils d’IA de manière avancée, critique et pertinente, et non comme un simple générateur de code Proactif, précis et honnête sur ses capacités, ses limites et les risques associés à ses choix Capable de produire de la synthèse utile à la décision Attiré par l’immersion dans les sujets, le partage, la transmission et le travail transverse Compétences requises : Langage : Python Cloud : Expérience des Azure Functions, notamment Durable Functions v2 Capacité à récupérer et exploiter des données depuis différentes sources Azure : Data Lake, Blob Storage, Azure DB Data processing: Pandas Polars PyArrow Langues : Bon niveau d’anglais, permettant de participer de manière autonome à des échanges techniques et de conception, à l’écrit comme à l’oral La valeur attendue réside aussi dans la capacité à comprendre les enjeux, concevoir les bonnes solutions, utiliser l’IA avec discernement, expliciter les choix et faire progresser l’équipe. Compétences demandées PYTHON - Expert POLARS - Confirmé PYARROW - Confirmé PANDAS - Confirmé Fonctions Azure - Expert Niveau de langue Anglais - Courant
Freelance

Mission freelance
Data Analyst Dataiku

BEEZEN
Publiée le
Dataiku
SQL
Tableau software

12 mois
400-550 €
Paris, France
Je recherche un Data Analyst Dataiku ayant un anglais fluent et ayant une experience en marketing Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : Reprendre et finaliser la Refonte des projets data marketing DMK Securiser et stabiliser le run Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) Construire des modèles prédictifs/scorings simples Automatiser le production de reportings mensuels pour direction Marketing Documentation Réunions de cadrage avec les métiers afin de définir les règles de gestion : Identification d'architecture et modélisation data Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés Scénarisation des flows DATAIKU Recettage des projets, correction de bugs Mise en production Analyses ad hocs Maintenance du run Analyses ad hocs Sécuriser la cohérence des KPIs produits et la qualité des données exploitées Communication auprès des métiers Responsable de la relation Marketing avec l'IT
Freelance

Mission freelance
Product Manager Data Mesh

SURICATE IT
Publiée le
Data Mesh
Product management

3 ans
400-750 €
La Défense, Île-de-France
Product Manager Data Mesh 📍 Localisation : Puteaux 📅 Type de mission : Mission longue 🏠 Télétravail : 1 jour / semaine (non négociable) 💰 TJM : 750€ Max 🏦 Secteur d’activité : Finance 🚨ATTENTION : Expérience pratique du Data Mesh obligatoire Contexte de la mission Dans un contexte de transformation data à grande échelle, notre client recherche un Senior Data Product Manager pour piloter la conception, la construction et le déploiement de sa plateforme Data Mesh (Group Data Platform – GDP). Il s’agit d’un rôle stratégique mais fortement opérationnel, avec une responsabilité directe sur la livraison, l’industrialisation et l’adoption de la plateforme à l’échelle de l’entreprise. Vos missions 🎯 Pilotage produit & amélioration continue Recueillir les besoins utilisateurs et définir la vision produit Construire et piloter la roadmap Suivre les KPIs d’usage et de valeur Améliorer en continu l’expérience utilisateur et développeur 🏗️ Delivery de la plateforme Data Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité…) Mettre en place les standards techniques et les patterns d’architecture Prendre des décisions techniques et valider les solutions ☁️ Architecture Cloud & Infrastructure Coordonner l’architecture cloud et hybride (AWS / Azure) Piloter l’intégration des systèmes on-premise Garantir la sécurité et la conformité 🚀 Exécution & delivery Piloter le cycle de vie produit (backlog, priorisation, releases) Gérer les déploiements en production Suivre performance, fiabilité et risques 📊 Déploiement & adoption Data Mesh Déployer la plateforme dans les différents domaines métiers Accompagner les équipes dans la création de data products Structurer et piloter l’adoption du modèle Data Mesh 📚 Gouvernance & documentation Formaliser les standards, processus et bonnes pratiques Assurer la conformité avec la gouvernance data du Groupe 📢 Communication & pilotage Assurer le reporting auprès des parties prenantes et du top management Produire dashboards, KPIs et supports de pilotage Animer les comités de suivi 🌟 Évangélisation & adoption Promouvoir la plateforme en interne Construire une communauté autour de la data Développer des cas d’usage et démonstrateurs Indicateurs de succès Plateforme déployée et opérationnelle en production Adoption effective par les métiers Qualité et volume des data products livrés Performance et fiabilité de la plateforme Satisfaction utilisateurs Réduction du time-to-market des cas d’usage data
Freelance

Mission freelance
Azure DevOps – IA & Automation

ESENCA
Publiée le
Azure
CI/CD
IA

3 ans
Lille, Hauts-de-France
📍 Localisation : Lille (présence sur site obligatoire) 👉 Les profils ne pouvant pas être présents à Lille ne seront pas considérés. 🎯 Périmètre & prérequis indispensables (critères éliminatoires) Nous recherchons un profil très opérationnel , capable de concevoir, déployer et maintenir une plateforme cloud Azure moderne et sécurisée . 👉 Les candidatures ne seront pas retenues sans : Expérience solide sur Microsoft Azure (production) Maîtrise des environnements conteneurisés (Docker) Expérience en CI/CD (GitHub Actions ou Azure DevOps) Bonne compréhension des réseaux Azure (VNet, private endpoints, sécurité) Expérience en exploitation / run (monitoring, incidents, logs) 🎯 Contexte de la mission Vous interviendrez sur la mise en place et l’exploitation d’une plateforme cloud orientée automation et IA , avec des enjeux forts de : scalabilité sécurité performance industrialisation 🚀 Vos missions principales 🔹 Architecture & déploiement cloud Concevoir et déployer des architectures sur Azure Mettre en place des services type : App Service / Container Apps / AKS Gérer les ressources : stockage, bases de données, cache 🔹 Conteneurisation Construire et maintenir des environnements Docker Gérer les images (Dockerfiles, registry, optimisation) Déployer des applications conteneurisées 🔹 Réseau & scalabilité Configurer : VNet, NSG, private endpoints Mettre en place : load balancing (Application Gateway / Front Door) reverse proxy (Nginx / Traefik) Gérer la haute disponibilité et la montée en charge 🔹 CI/CD & exploitation Mettre en place et maintenir des pipelines CI/CD Superviser : logs monitoring alerting Gérer : incidents mises à jour sauvegardes / restauration 🔹 Sécurité Gérer les identités (Entra ID, managed identities) Mettre en place : gestion des secrets (Key Vault) RBAC isolation réseau Assurer la conformité (RGPD, données sensibles) 🛠️ Environnement technique Cloud : Azure (App Service, AKS, Container Apps…) Data : PostgreSQL, Redis, Azure Storage Sécurité : Key Vault, Entra ID Containers : Docker, Azure Container Registry CI/CD : GitHub Actions / Azure DevOps Monitoring : Azure Monitor, Log Analytics ➕ Bonus (fortement apprécié) Expérience avec : Azure OpenAI API LLM architectures RAG / vector databases Connaissance de : LangChain, LlamaIndex Sensibilité aux : coûts et performance des modèles IA
Freelance
CDI

Offre d'emploi
Technical Business Analyst Senior – Market Data to Data & Migration Plateforme Analytics (Trading)

Avanda
Publiée le
Business Analyst
Data analysis

2 ans
Paris, France
Avanda est une société de conseil en services professionnels basée en Suisse. Nous recherchons actuellement un(e) Analyste Métier Technique Senior pour rejoindre notre équipe internationale chez notre client final mondial dans la région de Zurich. Il s'agit d'une opportunité à long terme (le projet s'étend jusqu'en 2028). Le travail à distance est accepté, avec une présence sur site toutes les 4 à 6 semaines. Vous intégrerez un programme pluriannuel de migration de données de marché vers une plateforme Data & Analytics dans le secteur du Trading. En tant qu'Analyste Métier Technique, vous apporterez votre soutien au Chef de Projet et aux responsables de chantiers sur les sujets techniques et métier liés à la migration, avec un focus sur la réconciliation, la validation, l'ingénierie des exigences et le déblocage des équipes techniques lorsqu'un contexte métier ou risque est nécessaire. VOS RESPONSABILITÉS Traiter les sujets de réconciliation entre les sources de données de marché legacy et la nouvelle plateforme, et les conduire jusqu'à la validation formelle avec les parties prenantes métier et risque Recueillir et clarifier les exigences auprès des utilisateurs métier et risque, et les traduire à destination des équipes techniques fédérées Accompagner les utilisateurs métier sur les problématiques de données et servir de pont avec les équipes techniques Débloquer les équipes techniques sur les questions métier ou risque en suspens Soutenir le Chef de Projet dans le suivi des actions techniques, le suivi des points ouverts et les clarifications avec les parties prenantes
Freelance

Mission freelance
Data Quality Engineer Senior

INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality

6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Freelance

Mission freelance
Business Analyst Technique – Plateforme Data & Investigations

ABSIS CONSEIL
Publiée le
Méthode Agile
Python
SQL

1 an
550-580 €
Île-de-France, France
Contexte Dans le cadre du renforcement de ses dispositifs de conformité, une organisation internationale met en place une plateforme technologique innovante dédiée à l’analyse et au traitement des alertes financières. Cette solution vise à améliorer l’efficacité opérationnelle, la qualité des analyses et la gestion des risques, en s’appuyant sur des technologies avancées orientées data et intelligence artificielle. Le projet s’inscrit dans une dynamique de transformation des outils internes, avec une approche moderne, évolutive et interconnectée. Mission Vous interviendrez dans le cadre du développement et de l’optimisation de cette plateforme, en lien avec des équipes métiers et techniques. Vos responsabilités incluent : Formalisation des processus fonctionnels de bout en bout Rédaction de spécifications fonctionnelles détaillées Élaboration et exécution des cahiers de tests Analyse et traitement de volumes importants de données Contribution à l’amélioration continue dans un environnement agile Participation à l’intégration de solutions innovantes, notamment liées à l’intelligence artificielle
CDI

Offre d'emploi
Coach Agile / Scrum master FH

ASTRELYA
Publiée le
Agile Scrum
IA

65k-80k €
92800, Puteaux, Île-de-France
Votre mission : En tant que Scrum Master / Coach Agile, vous jouerez un rôle clé dans la structuration, l’animation et la performance des équipes projet au sein d’environnements complexes, exigeants et fortement orientés architecture informatique. Vous interviendrez en accompagnement des équipes et des sponsors pour garantir un delivery fiable, transparent et aligné avec les enjeux stratégiques. Concrètement, vous allez : · Structurer le cadre du projet : périmètre, objectifs, dépendances, risques, planning, gouvernance, gestion des problèmes. · Accompagner la définition de la solution : pilotage des exigences, coordination de l’architecture fonctionnelle et technique, contribution au modèle opérationnel cible. · Animer la gouvernance projet : préparation et pilotage des comités (lancement, GA, PID, architecture, investissement, COPIL, groupes de travail). · Mettre en place un reporting clair et un plan de communication efficace, produire des synthèses et supports décisionnels. · Piloter les livrables : garantir leur complétude, leur qualité et leur livraison, en coordination avec les sponsors et les équipes projet. · Gérer les risques, problèmes et actions correctives, maintenir un registre à jour et piloté. · Préparer et coordonner la stratégie de test : stratégie globale, phases de test, cohérence des scripts automatisés (unitaires, intégration, régression) dans un environnement Agile DevOps. · Accompagner la gestion du changement auprès des parties prenantes. · Préparer la clôture du projet et capitaliser sur les enseignements. · Promouvoir les pratiques Agile & DevOps : CI/CD, automatisation, qualité logicielle, amélioration continue. · Faciliter la collaboration entre Product Owners, Scrum Masters, développeurs, architectes, sécurité, testeurs, sponsors et équipes métiers. Votre futur environnement : · Méthodologies : Agile / Scrum / Kanban · Pratiques : CI/CD, automatisation, qualité logicielle, DevOps · Outils : Git, Jenkins, Docker, Kubernetes Contexte : projets complexes, architecture informatique, secteur financier, environnements cloud (DMZR ou équivalent)
Alternance
CDI
Freelance

Offre d'emploi
Business Analyst Data F/H

AIS
Publiée le
Business

1 mois
42k-52k €
260-520 €
Nantes, Pays de la Loire
Intégré(e) aux équipes d'un de nos clients grand compte, vous interviendrez sur un projet de déploiement d'une fonctionnalité "Talk to your data", permettant aux collaborateurs d'interroger les données en langage naturel grâce à un AI Agent (LLM) capable de générer automatiquement des requêtes SQL fiables. La mission se concentre sur le backend et la couche sémantique, garantissant la qualité, la cohérence et la pertinence des requêtes générées par l'IA. Le détail de vos missions sera le suivant : - Assurer l'alignement entre les besoins métiers et les capacités du data product. - Garantir la cohérence fonctionnelle et la qualité globale de la plateforme. - Collaborer avec les équipes sources pour clarifier les besoins et garantir la disponibilité des données. - Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités. - Participer à la rédaction des user stories et à la définition des fonctionnalités. - Contribuer à la planification des releases. - Prioriser les features et ajuster le périmètre au fil des itérations. - S'assurer que les user stories sont prêtes pour le développement et alignées avec la roadmap. - Valider ou rejeter les livrables selon les critères d'acceptation. - Contribuer à la création et à l'exécution des cas de test. - Valider les modèles de données et leur adéquation aux besoins analytiques. - Participer aux contrôles de qualité des données et aux tests fonctionnels. Environnement technique : - SQL - Snowflake - Modélisation de données - Data quality, tests et validation - Concepts AI / GenAI - Projet data-driven - Excel - Méthodologie : Agile (Scrum) - Langues : Anglais (Courant - Niveau C1)
Freelance
CDI
CDD

Offre d'emploi
Développeur Back-End Senior orienté IA (Python / Data / API) – H/F

SMARTPOINT
Publiée le
API REST
Machine Learning
MLOps

1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du développement de solutions innovantes à forte valeur métier, nous recherchons un Développeur Back-End Senior orienté Intelligence Artificielle pour rejoindre une Dev Factory IA . Vous interviendrez sur la conception et le développement d’applications intégrant des composants data et intelligence artificielle , au sein d’équipes pluridisciplinaires composées de développeurs, data engineers, data scientists et experts métier . Votre mission consistera à concevoir, développer et industrialiser des services applicatifs et des briques d’intelligence artificielle , dans un environnement technique exigeant en matière de performance, scalabilité et fiabilité . Vos missions Développement Back-End et IA Concevoir et développer des API REST et/ou GraphQL robustes, sécurisées et performantes Implémenter des services d’exposition de modèles d’intelligence artificielle (inférence, scoring, prédictions) Développer des traitements data répondant aux besoins métiers Architecture applicative et data Participer à la définition des architectures applicatives et data/IA Concevoir des solutions scalables, modulaires et maintenables Appliquer les bonnes pratiques d’architecture logicielle (SOLID, séparation des responsabilités) Gestion des flux de données Traiter et exposer des données issues de différentes sources : bases de données relationnelles bases NoSQL APIs externes pipelines de données Garantir la qualité, la traçabilité et la performance des flux Intégration et mise en production des modèles IA Intégrer les modèles développés par les équipes data Mettre en production des services d’inférence Gérer les versions des modèles et suivre leurs performances Anticiper les problématiques de dérive des modèles Industrialisation et CI/CD Contribuer au dépôt GitLab Participer aux revues de code Mettre en place et maintenir des pipelines CI/CD Automatiser les processus de tests et de déploiement Qualité et tests Développer des tests unitaires, d’intégration et de performance Garantir la fiabilité et la stabilité des services applicatifs et des composants IA Sécurité applicative et data Mettre en œuvre les bonnes pratiques de sécurité : authentification autorisation chiffrement protection des données sensibles Collaboration agile Participer aux rituels Scrum Collaborer avec les équipes data, front-end, produit et DevOps Documentation et amélioration continue Documenter les architectures, APIs, pipelines data et processus de déploiement Contribuer à la veille technologique et à l’amélioration des pratiques de développement
Freelance

Mission freelance
Développeur Python connaissances IA (H/F)

Insitoo Freelances
Publiée le
Large Language Model (LLM)
Python

2 ans
400-460 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Python connaissances IA (H/F) à Lyon, France. Contexte : 3 jours sur site par semaine Les missions attendues par le Développeur Python connaissances IA (H/F) : Mission : Concevoir et développer des solutions d'intelligence artificielle (LLM, Agents, RAG) Reprendre et optimiser les use-cases existants Développer les nouveaux use-cases selon la roadmap définie en respectant les engagements de timing Assurer la qualité et la maintenabilité du code (méthodologie, qualité de code, couverture de tests, documentation) S'inscrire dans le cadre des bonnes pratiques de l'équipe (code reviews, guidelines) et participer à leur promotion Profil recherché Python : 3 ans d'expérience minimum Développement : 5 ans d'expérience sur des projets significatifs IA/LLM : expérience projet souhaitée (intégration d'APIs LLM, développement de solutions RAG, agents, etc.) Compétences appréciées (un plus) Fibre DevOps / expérience de développement augmenté (CI/CD, conteneurisation) Connaissance des frameworks LLM (LangChain, LlamaIndex, etc.) Autonomie, fibre consultant au service du métier, proactivité, rigueur Environnement technique Python, LLM (OpenAI, Anthropic), RAG, Agents, Azure (Container Apps, AI Services), MongoDB
Freelance

Mission freelance
Product Owner (H/F)

Insitoo Freelances
Publiée le
Agile Scrum
IA
Retour sur investissement (ROI)

2 ans
500-549 €
Bordeaux, Nouvelle-Aquitaine
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Product Owner (H/F) à Bordeaux, France. Contexte : 2 jours sur site à Mérignac par semaine Les missions attendues par le Product Owner (H/F) : Contexte : Dans le cadre d'un grand programme de transformation numérique, vous rejoignez une structure de type "Usine logicielle" pour piloter un produit critique. Vos Missions : Pilotage de la Vision : Définir et porter la stratégie du produit en cohérence avec les objectifs stratégiques et les besoins des utilisateurs finaux. Gestion du Backlog : Traduire les besoins métiers en Epics, Features et User Stories claires et actionnables, tout en arbitrant les priorités. Interface Métier : Collaborer étroitement avec les responsables métiers, les pilotes de produit et les équipes techniques pour identifier les solutions optimales. Validation & Qualité : Définir la stratégie de tests fonctionnels (End-to-End) et valider les livraisons à l'issue de chaque cycle itératif. Amélioration Continue : Suivre les KPIs de performance produit (taux d'adoption, satisfaction) et identifier les leviers d'optimisation.
CDI
Freelance

Offre d'emploi
Data Scientist Senior — Expert IA Générative

Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)

12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Freelance

Mission freelance
Business Analyst Data / MLOps – Plateformes Data Science (H/F)

CELAD
Publiée le

1 an
600-680 €
Paris, France
Contexte de la mission Vous intervenez au sein d’une Squad dédiée à la mise en place et à l’exploitation des outils Data Science et MLOps utilisés par les équipes Data (Data Scientists, Data Engineers) d’un grand groupe bancaire (réseau de 39 entités). Le périmètre couvre : Une plateforme Big Data basée sur Cloudera Des outils open source Data Science : JupyterLab, TensorFlow, librairies Python Un portail de services facilitant l’accès aux ressources Data Des services associés (accès aux données SI, environnements de travail, composants MLOps) Vous êtes un point central entre les utilisateurs métiers Data et les équipes techniques. Missions principales 1. Analyse fonctionnelle & cadrage Recueillir et analyser les besoins des utilisateurs (Data Scientists, Data Engineers) Animer des ateliers de cadrage et de conception Traduire les besoins en spécifications fonctionnelles et user stories Maintenir une documentation claire et exploitable 2. Pilotage de projets Data / MLOps Piloter les projets liés aux plateformes Data et outils IA Coordonner les équipes techniques et les parties prenantes Assurer le suivi des livraisons et des dépendances Contribuer à la roadmap produit avec le Product Owner 3. Gestion du backlog & Agile Rédiger et prioriser les user stories dans Jira Gérer le backlog produit et suivre son avancement Participer aux rituels Agile (daily, sprint planning, reviews) 4. Tests & qualité Concevoir et exécuter les campagnes de tests fonctionnels Rédiger les plans de tests et scénarios de recette (XRAY) Identifier, analyser et suivre les anomalies Garantir la qualité des livraisons 5. Gestion des risques & conformité Analyser les risques métiers liés aux solutions Data Travailler avec les équipes SSI, conformité et juridique Intégrer les contraintes réglementaires : RGPD, gouvernance des données Assurer la conformité des usages Data (sécurité, confidentialité, éthique) 6. Accompagnement des utilisateurs Produire la documentation fonctionnelle et supports de formation Assurer l’assistance fonctionnelle aux utilisateurs (Caisses Régionales) Accompagner les migrations et la conduite du changement 7. Amélioration continue Collecter les feedbacks utilisateurs Analyser les usages et proposer des optimisations Contribuer à l’évolution des plateformes et services Environnement technique Big Data : Cloudera, Hadoop ecosystem Data Science : Python, TensorFlow, JupyterLab Requêtage : SQL / HQL Outils : Jira, XRAY Méthodologie : Agile Contexte : SI bancaire, plateformes Data & MLOps Accès aux données Accès à des données à caractère personnel via plateforme ZEUS (en production) Respect strict des règles de sécurité, confidentialité et conformité
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cybersécurité OT - Hardening

RIDCHA DATA
Publiée le
Android
Center for Internet Security (CIS)
Cybersécurité

1 an
Boulogne-Billancourt, Île-de-France
🎯 Contexte Dans le cadre d’un programme international de cybersécurité industrielle, une grande organisation souhaite renforcer la sécurité de ses systèmes d’information industriels (OT/IT). La mission s’inscrit dans une démarche globale de renforcement, standardisation et amélioration continue des politiques de sécurité appliquées aux environnements industriels. 🧩 Périmètre technique Postes industriels IT (environnements OT) Postes industriels OT Équipements mobiles industriels (tablettes, devices) Serveurs MES (Manufacturing Execution System) 🚀 Missions principales Réaliser un audit des politiques de sécurité existantes Identifier les écarts entre les politiques définies et les configurations réelles Conduire des audits de configuration des équipements Analyser les dispositifs de contrôle existants Proposer des solutions d’ automatisation et d’amélioration Définir et formaliser des politiques de sécurité adaptées Participer à une organisation en mode Agile Collaborer avec des équipes internationales et pluridisciplinaires 📦 Livrables attendus Rapport d’état des lieux des politiques de sécurité Analyse des dispositifs de contrôle existants Documentation des politiques de sécurité Analyse de risques Plan de remédiation (mesures correctives) Comptes rendus des réunions
Freelance

Mission freelance
Business Analyst Compliance Marchés financiers- Paris

Net technologie
Publiée le
Big Data
Business Analysis
Business Analyst

6 mois
500-530 €
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un(e) Business Analyst pour accompagner l’industrialisation d’une plateforme de surveillance des activités Front Office (trading & sales). 🎯 Objectif : développer une solution globale de monitoring couvrant communications, ordres et transactions , avec intégration de technologies avancées ( data, NLP, IA ). 🌍 Environnement international – Agile – délais réglementaires exigeants 🚀 Missions Recueil et formalisation des besoins métiers & use cases Rédaction des spécifications fonctionnelles & techniques Coordination avec les équipes Data, IT et Compliance Participation aux sprints Agile et suivi des livraisons Contribution à la stratégie data (analyse multi-sources, NLP/ML) Organisation et pilotage des tests UAT Animation des échanges avec les parties prenantes
2631 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous