Trouvez votre prochaine offre d’emploi ou de mission freelance Data science à Paris

Votre recherche renvoie 21 résultats.
Suivant
Freelance

Mission freelance
Data Scientist - Paris intra muros / Finance

Mobiskill (WEFY Group)
Publiée le
Data analysis
Data science
Python

3 mois
400-530 €
Paris, France

Mission Freelance – Data Scientist 📍 Localisation : Paris 8e 🗓 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 💼 Secteur : Finance Contexte Dans le cadre d’un programme de transformation Data au sein d’un acteur majeur de la finance, nous recherchons un Data Scientist pragmatique et opérationnel, capable de prendre en charge l’intégration et la mise à disposition de nouvelles sources de données pour alimenter différentes applications stratégiques. Vos responsabilités Assurer le sourcing et le branchement de données depuis le système SNF vers les nouvelles applications. Concevoir, développer et maintenir les flux de données (ETL, API, pipelines). Garantir la qualité, la cohérence et la disponibilité des données pour les équipes métiers et techniques. Collaborer avec les équipes internes pour définir les besoins et déployer des solutions robustes. Participer à la documentation et au transfert de connaissances.

Freelance

Mission freelance
Architecte de Solutions en IA Générative

Orcan Intelligence
Publiée le
Data science

4 mois
600-750 €
Paris, France

Contrainte forte du projet : Le livrable est une étude comparative des solutions technologiques pour Agents GenAI. Description détaillée : Contexte et objectifs de la mission : Dans le cadre de sa stratégie d’innovation digitale, le client souhaite accélérer le déploiement d’agents d’IA générative pour différents cas d’usage métiers. Afin d’assurer une intégration efficace, pérenne et sécurisée, il est indispensable d’identifier, d’évaluer et de préconiser les technologies socles les plus adaptées au contexte du groupe. Cette mission vise donc à réaliser une étude de choix comparant les différents outils et frameworks disponibles pour : Le développement d’agents IA avancés (framework dédié, SDK, bibliothèques, etc.). La mise à disposition de solutions low-code/no-code pour le prototypage ou le déploiement rapide d’agents simples. L’indexation, la gestion et la sécurisation des données nécessaires au fonctionnement des agents, notamment via des bases vectorielles (vector DB). L’assurance d’un environnement répondant aux exigences de sécurité (sécurité des accès, confidentialité des données, conformité réglementaire), de scalabilité (montée en charge et performance) et d’observabilité (monitoring, traçabilité, gestion des incidents). Périmètre de l’étude : L’étude doit impérativement couvrir les volets suivants : Recensement des besoins métiers et techniques auprès des équipes du client impliquées dans l’IA générative. Cartographie de l’existant et identification des contraintes d’intégration avec le SI du client. Benchmark des frameworks de développement pour agents AI (exemples : Semantic Kernel, LangChain, LlamaIndex, etc.). Comparaison des solutions low-code/no-code pour la création d’agents (exemples : Microsoft Copilot Studio, Pipedream, etc.). Analyse des solutions d’indexation de données textuelles et multimodales (notamment bases vectorielles comme Azure AI Search, Databricks, Pinecone, Weaviate, Qdrant, etc.). Étude des dispositifs existants ou à mettre en place pour la sécurité, la conformité, la scalabilité et l’observabilité des technologies retenues. Préconisations argumentées sur l’architecture cible et le schéma directeur de déploiement. Livrables attendus : Document de synthèse présentant l’état de l’art des solutions évaluées. Analyse comparative (forces/faiblesses, coûts, niveau de maturité, etc.). Proposition d’architecture cible et recommandations d’implémentation. Tableau de sélection des technologies et justification des choix proposés. Schéma de gouvernance technique et principes d’intégration. Critères de réussite : Adéquation des préconisations avec les besoins métiers du client. Respect des exigences de sécurité et de conformité du groupe. Capacité de la solution cible à évoluer et à s’intégrer dans l’écosystème SI du client. Niveau de documentation et de transférabilité des livrables. Ce descriptif de mission constitue le cadre de référence pour l’étude à mener, afin de garantir le choix de technologies innovantes, robustes et alignées avec les ambitions stratégiques du client en matière d’IA générative.

CDD
Freelance

Offre d'emploi
Data Scientist (FH)

Taleo Capital
Publiée le
Data science
Data visualisation
Microsoft Power BI

4 mois
75k-80k €
600-650 €
Paris, France

Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Data Scientist pour accompagner l’un de nos clients, acteur majeur du secteur bancaire. Le poste est à pourvoir dès le 15 septembre 2025 jusqu’au 31 décembre 2025 , et est situé à Paris . Ce poste est ouvert dans le cadre d’un contrat CDD ou Freelance. Contexte Dans le cadre du renforcement de ses capacités d’analyse et de restitution des résultats de stress tests au sein de STFS (Stress Testing & Financial Simulations), notre client recherche un profil data scientist spécialisé en Data Visualisation, avec une expertise confirmée sur Power BI, et codage Python. Les entités Finance Groupe, RISK et ALM Treasury ont mis en place une équipe commune en charge du stress testing, de la planification financière et de la synthèse pour le Groupe. Cette équipe, nommée STFS (Stress Testing and Financial Simulations), a pour objectif de coordonner le renforcement des capacités de stress testing (S/T) et de planification, afin de mieux répondre aux besoins des Métiers, des Entités Juridiques et du Groupe, tout en satisfaisant aux exigences des superviseurs dans ces domaines, et ce de manière efficiente. A cet effet, STFS a construit une plateforme centralisée, flexible et industrialisée, accessible aux Métiers et Entités (B/E) du groupe pour répondre à leurs besoins locaux et contribuer aux exercices Groupe. STFS propose un service intégré de stress testing aux B/E pour les aider à tirer parti du cadre commun pour leurs besoins spécifiques. STFS est également responsable de l’exécution de tous les exercices de stress testing à l’échelle du Groupe, qu’ils soient réglementaires ou internes. Prestations demandées : Objectifs mission : · Définir le design de nouveaux dashboards de Stress Tests en collectant les besoins des différentes équipes STFS et en considérant différents objectifs tels que contrôle, analyse, validation et insertion opérationnelle auprès des entités · Concevoir et automatiser ces nouveaux dashboards dans Power BI · Faciliter l’appropriation des outils par les équipes STFS via une implémentation claire et modulaire Compétences attendus : · Minimum 12 ans d’expérience, secteur bancaire privilégié · Maîtrise avancée de Power BI · Expérience significative dans la construction de dashboards financiers complexes · Connaissance des enjeux réglementaires (risque de crédit, CRR3) et stress tests bancaires · Capacité à collaborer avec des équipes pluridisciplinaires (modélisation, finance, risques) · Autonomie, rigueur, sens de la synthèse · Pack office : PPT, EXCEL (maitrise) · Des dashboards dynamiques (Power BI) répondant aux besoins identifiés en amont par les différents consommateurs, automatisés, modulaires et documentés · Un guide d’utilisation et de maintenance · Des supports de restitution pour les parties prenantes

Freelance
CDI

Offre d'emploi
Business Analyst technique (RAG / IA Générative)

VISIAN
Publiée le
AI
Business Analyst
Data science

1 an
44k-65k €
380-600 €
Paris, France

Contexte : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'une entité asset IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. Suivre la production afin de garantir la satisfaction du client. Description : Pilotage de l’alignement du système d’information du métier sur les orientations stratégiques et sur les processus métiers Proposition des scénarios d’évolution du système d’information cohérents avec les objectifs et les processus définis Contribution à l’optimisation des processus métiers, des données, des applications et des systèmes associés (détection d’opportunités…) Pilotage de la performance, notamment économique du SI Mise à disposition de la cartographie du système d’information comme un outil d’aide à la décision et au pilotage de la performance Anticipation des changements et de leurs impacts métiers sur le SI, et réciproquement Gestion du budget d'informatisation de son domaine Participation à l'administration du système d’information en termes de référentiels, règles, démarches, méthodologies, objets métier, et outils Évaluation de la cohérence unitaire et globale (portefeuille) des projets par rapport au système d’information (existant/cible) Consolidation des écarts en termes de délais, de coûts ou de qualité Capitalisation de l’ensemble des connaissances sur le système d’information du métier Mise en oeuvre de la qualité de la conduite de projet Gestion de la cartographie des compétences nécessaires à l’évolution du SI

Freelance

Mission freelance
Consultant Data Science

Cherry Pick
Publiée le
Machine Learning
Pandas
Python

6 mois
550-580 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Consultant Data Science - 21/07" pour un client dans le secteur de XXX Description 🔎 Contexte Au sein de la direction Gaz, le consultant interviendra sur plusieurs projets d’innovation data ayant pour objectif d’améliorer : L’efficacité opérationnelle, La connaissance client, Et la performance des processus de facturation et de communication. 🎯 Objectifs & Livrables Exemples de cas d’usage : Optimisation des mensualisations Prédiction du volume d’opérations de facturation Segmentation des courbes de consommation clients (B2C) Modélisation des meilleurs moments d’interaction client Livrables attendus : Analyses exploratoires (facturation, contrats, consommation…) Développement de modèles ML (prévision, clustering, recommandation) Scripts industrialisables en Python / SQL Dashboards (Power BI, Tableau) Documentation technique & fonctionnelle Présentations claires aux parties prenantes métiers 🧠 Compétences recherchées CompétenceNiveau requisPython (pandas, scikit-learn)ConfirméSQLConfirméMachine LearningConfirméDataViz (Power BI ou Tableau)ConfirméCloud (Azure ou GCP)AppréciéModélisation prédictive / segmentationConfirméContexte B2C ou énergieApprécié 🎓 Profil Bac+5 en data science, statistiques, mathématiques appliquées 2 à 5 ans d'expérience Bon communicant, capable de vulgariser ses analyses Esprit d'équipe, autonomie et sens de l’innovation 💡 Environnement de mission Équipe innovation rattachée aux projets data stratégiques Données issues de systèmes métiers complexes (CRM, contrats, facturation…) Interactions fréquentes avec les métiers, IT et autres pôles data

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance

Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)

Cherry Pick
Publiée le
AI
AWS Cloud
Azure

1 an
510-570 €
Paris, France

Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).

Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist / Ingénieur IA (H/F)

Accelite
Publiée le
AI
Alteryx
Apache Spark

1 an
Paris, France

En tant que Data Analyst ou Data Scientist ou AI Ingineer , vous contribuez aux projets stratégiques de grands comptes bancaires en intervenant sur l’analyse, le traitement et la valorisation des données bancaires et financières. Vos principales missions : Recueillir et analyser les besoins métiers Collecter, structurer et traiter les données chiffrées issues de différentes sources Nettoyer les données (suppression des doublons, gestion des valeurs manquantes, etc.) Développer des algorithmes pour l’exploitation des données (analyse statistique, machine learning) Concevoir et construire des actifs informatiques dédiés à la préparation et à la visualisation des données Développer du code ou des scripts s’appuyant sur des données structurées et non structurées Participer aux phases de tests, recettes et validation des solutions déployées Installer et configurer les outils requis dans le respect du cadre de référence technique Assurer la maintenance évolutive et corrective des solutions déployées, intervenir en support si nécessaire Rédiger la documentation associée (use cases, développements, procédures) Lieu : Paris – Client : Grand établissement bancaire – Type de mission : CDI / Freelance / Portage Démarrage : ASAP – Durée : 3 ans

Freelance

Mission freelance
Consultant Data Analytics & BI

Freelance.com
Publiée le
Databricks
Microsoft Power BI
ServiceNow

2 ans
400-600 €
75504 CEDEX 15, Paris, Île-de-France

Poste : Consultant Data Analytics & BI Expérience : 7 ans TJM max : 600 € Localisation : Paris 15 Démarrage : 01/10/2025 Durée : 2 ans Deadline : 19/09/2025 à 11h Contexte Dans le cadre d’un programme de transformation data, la mission consiste à accompagner le déploiement d’une offre de Data Analytics en libre-service au sein d’un grand groupe. L’objectif est de favoriser l’acculturation data, d’optimiser l’usage des outils analytiques et de développer une communauté autour de la valorisation de la donnée. Mission Le consultant interviendra sur trois volets principaux : Accompagnement des directions métiers dans leurs initiatives data (reporting, PoC, MVP, tableaux de bord, modèles ML) Animation et promotion de la communauté data via événements, challenges et partages d’expériences Conseil et veille technologique sur les solutions analytiques et leur évolution Profil recherché Bac+5 en Data Science, Mathématiques ou Informatique 7 ans d’expérience en Data Analytics, idéalement avec un passage en Data Science Solide maîtrise de Tableau de la conception au déploiement Expérience en formation, accompagnement et animation de communautés Connaissance de Power BI appréciée Bonne pratique de la gestion de projets en Agile (Scrum, SAFe) Environnement technique Tableau Software, Power BI Dataiku, Data Lake, Azure Databricks Outils collaboratifs : Office 365, Teams, SharePoint, Jira, ServiceNow Livrables Rapports d’avancement et matrices de suivi Supports ateliers et comités de suivi Roadmap projet et reporting clair

Freelance

Mission freelance
LEAD DATA SCIENTIST AI

PARTECK INGENIERIE
Publiée le
AI

12 mois
400-550 €
Paris, France

Nous recherchons un expert de haut niveau en Data Science et NLP/GenAI pour piloter un programme stratégique autour de l’ automatisation intelligente de la gestion d’emails (13M+/an) . L’objectif : concevoir un système agentique innovant intégrant priorisation, génération de réponses, résumé automatique et conformité réglementaire , tout en réduisant de plus de 60% les tâches manuelles. 🎯 Vos missions principales Leadership technique (40%) : concevoir l’architecture agentique, définir la roadmap, les métriques d’évaluation, assurer la scalabilité et l’intégration (MCP, A2A/ACP). Développement (30%) : prototypage d’agents, ingénierie de contexte LLM, pipelines de données synthétiques, déploiement en production. Business alignment (20%) : traduire les besoins opérationnels, élaborer des règles de priorisation, travailler avec les équipes conformité, définir les KPIs. Recherche & veille (10%) : explorer les nouvelles avancées en agentic AI, expérimenter et accompagner l’équipe. 🛠️ Tech Stack & environnement CrewAI , Python, SQL, APIs MCP / A2A / ACP integration GenAI, NLP avancé, MLOps Objectif : réduction >60% des tâches manuelles ✅ Profil recherché PhD ou équivalent 10+ ans en Data Science, dont 5+ en NLP/GenAI Expérience CrewAI & déploiement IA en production Solides compétences Python, SQL, APIs Expérience secteur financier & publications/patents appréciés Anglais courant (français apprécié) 💡 Pourquoi nous rejoindre ? Programme IA à fort impact stratégique Stack technologique de pointe Opportunités de recherche et publications Forte visibilité auprès du management Package attractif & télétravail hybride ANGLAIS OBLIGATOIRE

CDI

Offre d'emploi
Deep learning researcher (Python)

Twenty One Talents
Publiée le

65k-73k €
Paris, France

En tant que Deep learning researcher (Python), vous jouerez un rôle clé dans la recherche et le développement d'algorithmes avancés d'apprentissage profond afin d'améliorer les solutions innovantes de notre département R&D. Vos principales responsabilités seront : • Concevoir et expérimenter des modèles de deep learning adaptés aux problématiques métiers. • Développer des prototypes robustes en Python pour valider les concepts. • Collaborer étroitement avec les équipes data science et ingénierie logicielle. • Analyser et optimiser les performances des modèles déployés. • Participer à la rédaction de publications et de rapports techniques. • Veiller à la veille technologique dans le domaine de l'intelligence artificielle.

Freelance

Mission freelance
Senior DevOps Engineer (kub, terraform, Azure cloud)

Pickmeup
Publiée le
Azure
Kubernetes
Terraform

12 mois
450-600 €
Paris, France

Organisation publique qui développe une plateforme technologique sécurisée pour faciliter l’accès à des données à des fins de recherche et d’innovation. Ce projet vise à soutenir des initiatives d’intérêt général en lien avec la santé publique, en garantissant un haut niveau de sécurité et de confidentialité. 🔧 Missions principales Au sein de l’équipe en charge de l’environnement sécurisé, vos responsabilités incluent : Infrastructure as Code (IaC) : conception, déploiement et maintenance via Terraform, Terragrunt, Packer et Ansible Orchestration Kubernetes : gestion des clusters, création et maintien des charts Helm, déploiement des applications Automatisation CI/CD : mise en place et optimisation des pipelines d’intégration et déploiement continus Sécurité : respect des normes de sécurité liées aux données sensibles, mise en œuvre des contrôles d’accès et protection des données Veille technologique : suivi des évolutions cloud, DevOps et sécurité Collaboration : travail en interaction avec les équipes produit, architecture, data science et opérations

CDI
Freelance

Offre d'emploi
TECH LEAD BIG DATA

UCASE CONSULTING
Publiée le
Apache Kafka
Apache Spark
Azure

3 ans
35k-67k €
480-980 €
Paris, France

Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

Freelance

Mission freelance
Data Manager - DP Data & IA (Bordeaux)

SQLI
Publiée le
Data management

6 mois
600-800 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients près de bordeaux, je suis à la recherche d'un Data Manager (DP Data & IA). Contexte & Objectifs : Dans le cadre de la transformation digitale client, le Data Manager aura pour mission de piloter les projets Data stratégiques, d’assurer leur gouvernance, et de structurer les initiatives IA émergentes. Il sera le point d’entrée des métiers pour les projets Data, et garant de leur bon déroulement. Missions principales : Gouvernance & Pilotage Cadrer les projets Data avec les métiers & l’IT Définir les business cases et les modèles de gouvernance Prioriser et planifier les demandes Data Constituer les équipes projet avec le Directeur Data Piloter les équipes projet Data et les activités de support Assurer le suivi budgétaire et le respect des objectifs Expertise Data & IA : Superviser la mise en œuvre de solutions BI, Data Lake, Datawarehouse Participer à l’industrialisation de modèles IA (IA Gen, Machine Learning, Data Science) Garantir la qualité des données et la conformité des traitements Contribuer à l’acculturation des équipes métiers à la Data et à l’IA Communication & Coordination : Préparer les comités de pilotage Assurer la coordination entre les équipes techniques, métiers et partenaires Rendre compte de l’avancement, des risques et des blocages

Freelance

Mission freelance
Expert en Conteneurisation (full remote) Anglais mandatory

Signe +
Publiée le
Docker

6 mois
400-660 €
Paris, France

Compétences techniques et expérience Expérience avérée dans des projets d’architecture de données à grande échelle (national ou multi-sources), de préférence impliquant des données sensibles ou critiques (sécurité, souveraineté des données). Maîtrise approfondie des concepts de conteneurisation et d’orchestration , incluant : Conteneurisation des données et des charges de travail (Docker, Kubernetes ou équivalents). Gestion du cycle de vie des données en environnement conteneurisé (stockage, migration, sauvegarde, reprise après sinistre). Connaissance solide des architectures de données (data lakes, entrepôts de données nouvelle génération), avec une compréhension des enjeux de gouvernance, métadonnées, catalogage et traçabilité . Compétences en modélisation des coûts et estimation financière IT , incluant : Capex/Opex, coût total de possession (TCO), scénarios de migration et de montée en charge. Modèles de coûts pour les infrastructures cloud et/ou hybrides sur site. Connaissance des exigences de sécurité et de conformité , notamment : Protection des données, chiffrement, gestion des identités et des accès (IAM), segmentation, auditabilité et traçabilité. Maîtrise des cadres réglementaires pertinents (RGPD, normes nationales de sécurité des données, ISO/IEC 27001, etc.). Expérience en gouvernance des données et gestion de données sensibles : Politiques de conservation, classification des données, gestion des métadonnées et cadres de gouvernance. Expertise en migration et transformation de données , couvrant : Planification, nettoyage, transformation, validation et post-validation des migrations. Capacité à développer et justifier des modèles financiers et des BOQ (Bill of Quantities) pour des projets IT/data. Expérience avérée en dimensionnement et chiffrage de solutions à mettre en œuvre. Qualifications professionnelles et certifications Diplôme en Informatique, Ingénierie, Data Science, Géomatique ou dans un domaine connexe (un Master constitue un atout). Certifications pertinentes (liste non exhaustive) : Conteneurisation / Orchestration : Certified Kubernetes Administrator (CKA) ou équivalent. Cloud : AWS Certified Solutions Architect, Azure Solutions Architect, Google Professional Cloud Architect (selon l’environnement cible). Sécurité : CISSP, CISM ou certifications équivalentes. Une certification en gestion de projet (PRINCE2, PMP ou équivalent) est un plus.

Freelance

Mission freelance
Consultant Tableau Freelance en Requêtage et Data Viz

HOXTON PARTNERS
Publiée le
Data visualisation
Python
Tableau software

3 ans
75013, Paris, Île-de-France

Hoxton Partners recherche un consultant Tableau freelance spécialisé en requêtage et Data Viz pour une mission passionnante. Le candidat idéal devra maîtriser l'outil Tableau et être capable de modéliser des datasets complexes. Une expérience avancée avec les fonctions cartographiques de Tableau, y compris l'intégration de cartes Mapbox, est essentielle. De plus, une expertise dans les fonctions analytiques et de data science, telles que l'intégration de programmes Python pour l'analyse de données, est fortement appréciée. Responsabilités : Créer des visualisations de données interactives et informatives à l'aide de Tableau. Développer des requêtes efficaces pour extraire, transformer et charger des données. Intégrer des visualisations cartographiques avancées à partir de sources diverses. Collaborer avec l'équipe pour comprendre les besoins analytiques et concevoir des solutions adaptées. Compétences requises : Excellente maîtrise de Tableau et de ses fonctionnalités avancées. Solides compétences en requêtage SQL et capacité à manipuler des datasets complexes. Connaissance pratique des fonctions cartographiques de Tableau, en particulier avec Mapbox. Expérience avec des outils de data science, notamment Python, pour l'analyse de données. Conditions : Type de contrat : Freelance Durée : 3 ans Lieu : Paris 13ème Télétravail : 3 jrs sur site et 2 jrs en TT

Suivant

Les métiers et les missions en freelance pour Data science

Data scientist

Le / La data scientist analyse et modélise de grandes quantités de données en utilisant des outils avancés comme le machine learning pour extraire des informations exploitables et guider les décisions stratégiques.

Data analyst

Le / La data analyst transforme les données brutes en rapports clairs et exploitables en utilisant des outils de visualisation et d'analyse statistique, souvent en collaboration avec des équipes de data science.

Développeur·euse IA/Machine Learning

Le / La développeur·euse IA / Machine Learning conçoit et implémente des modèles prédictifs et des algorithmes d'apprentissage automatique pour résoudre des problématiques complexes liées aux données.

Directeur·rice / Responsable de la data (Chief Data Officer)

Le / La responsable de la data supervise les stratégies de gestion et d’analyse des données, en utilisant des approches de data science pour maximiser la valeur des données dans l’entreprise.

21 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous