Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP
L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Mission freelance
Data Manager
TEKsystems echerche pour le compte de son client : Un(e) Data Manager: Un chef d’orchestre de la donnée dans une organisation. Il ne code pas forcément au quotidien, mais il comprend les enjeux techniques et stratégiques liés à la data. Dans ton cas, il devra :🎯 Missions principales Structurer et piloter la gouvernance des données : garantir la qualité, la sécurité, et la traçabilité des données. Coordonner les équipes data : data ingénieurs, analystes, et architects. Définir les modèles de données : en lien avec les besoins métiers et les outils comme Snowflake. Mettre en place les premiers pipelines de données : pour alimenter les dashboards Tableau et les apps Streamlit. Traduire les besoins métiers en solutions data : notamment dans le cadre du CRM et des outils comme JIRA.
Offre d'emploi
Data Scientist Assurance
Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.
Offre d'emploi
Data ingénieur Teradata
Migration des jobs Entrepôt Datastage vers Teradata. Mission(s) et réalisations : Extraction des règles de gestion depuis les jobs Datastage existants. Adaptation des scripts TPT sur l’environnement MVS Conception et développement des Scripts SQL Adaptation du modèle de données pour la migration. Optimisation des traitements au niveau contrôle M. Préparation de l’environnement avec des jeux de données Réalisation des tests techniques et de non régression Environnement : Teradata, SQL, TPT, BTEQ, Shell, Teradata SQL Assistant, Teradata Administrator, GIT,MVS, Datastage

Mission freelance
Data Engineer Databricks
En tant que Data Engineer Databricks, nous vous proposons d’intégrer une équipe d’ingénieurs expérimentés et multi-compétentes. Au sein de nos clients issus de différents secteurs d'activité (Industrie, Services, Transport, Logistique, Banque, Assurances, Énergie), vous jouez un rôle clé dans la migration des données et des tâches de l'environnement Cloudera vers Databricks. Vous êtes également chargé d'automatiser le déploiement des jobs via le CI/CD. Pour réussir ces différents challenges, nous vous proposerons des actions de formation, des parrainages, des certifications sur les outils concernés et un dispositif d’évaluation personnel régulier.

Offre d'emploi
Data Scientist senior
Site : Ile de France (Roissy-en-France) ; Date de démarrage : 22/09/2025 Durée mission : 8 mois (15/05/2026) Profil : Data Scientist senior, expert en modélisation statistique, capable de concevoir des modèles robustes et interprétables pour améliorer la prévision de la demande. Nombre d'années d'expérience : 8+ années d'expérience dans le domaine Compétences techniques : - Maîtrise de Python (NumPy, SciPy, PyMC, scikit-learn, statsmodels), - Maîtrise de SQL, - Connaissance des outils de visualisation (Power BI, Looker, Streamlit), - Machine Learning appliquée, - Modèles supervisés, boosting, régularisation, validation croisée

Mission freelance
DATA OWNER
TES RESPONSABILITÉS : DONNÉES TRACABILITE Implementer les règles de la gouvernance (définition des Business Objects, business value) par rapport aux enjeux métiers et juridiques Accompagner le process d'ingestion avec notre data steward Déclaration des regles qualites et implémentation d'observabilité Assurer la qualité de nos données et la mise en place de plans de remédiation avec les équipes métiers (actions avec les outils, formations métiers, création de tours de controles...). Développer la culture et les usages data Collaborer étroitement avec les équipes produit et developpeurs pour valider et optimiser les modèles de données Accompagnement, communication, formations... des équipes métiers
Offre d'emploi
Ingénieur devOps
Contexte Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du Groupement du client. En tant qu'Ingénieur devOps, votre mission principale sera de participer au déploiement des projets data du Groupement. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir De formation supérieure en informatique, vous justifiez d’une expérience de 4-10 ans dans un contexte Data. Vous disposez des connaissances sur les outils et méthodologies suivants : - Cloud Azure - Infrastructure as a code (ARM, YAML) - Intégration et déploiement continu (Git, Azure DevOps) - Services Big Data : Azure DataLake, Azure EventHub, Azure Databricks, Azure Data Factory, Power BI - Services Web : Azure FunctionApp, Azure WebApp - Micro-services/containers (AKS) - Base de données : SQL DB, CosmosDB La connaissance de ces langages de programmation serait un plus : Spark et Scala.

Offre d'emploi
Big Data Engineer
Environnement Technique : Tous composants de la distribution HDP 2.6.5 (Hortonworks) Tous composants de la distribution HDP 3.1.x (Hortonworks) Technologie KAFKA Compétences de développements en Shell, Java, Python Moteur Elasticsearch incluant les fonctionnalités soumises à licence Docker, Kubernetes, système distribué sur Kubernetes Infrastructure as Code DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc... Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory : Tous les composants des distributions Hadoop Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats Administration de composants big data

Offre d'emploi
DATA MANAGER
Bonjour; Pour le compte de notre client, nous recherchons un DATA MANAGER. Description du Rôle Le Data Manager est responsable de la définition des politiques de gestion des données, de la modélisation et de la garantie de l'architecture fonctionnelle de la plateforme de données utilisée pour répondre aux besoins métier. __________ Compétences Clés ✅ Accompagnement à la définition, conception et livraison des produits Data : • Clarifie les besoins • Identifie les manques de données et évalue la faisabilité • Aligne le périmètre du Feature Team (FT) • Collabore avec les Product Owners et les Data Engineers • Co-conçoit les solutions data • Valide les choix de modélisation des données • Garantit la cohérence avec les standards • Assure la scalabilité et la maintenabilité ✅ Co-définition, diffusion et pédagogie des standards de Data Management : • Collabore avec les acteurs de la gouvernance, de l’architecture et des produits • Définit les conventions de nommage • Établit les exigences en matière de documentation • Fixe les règles de modélisation • Garantit la conformité • Organise des formations, ateliers et sessions de support • Apporte un accompagnement opérationnel et répond aux questions • Joue un rôle d’ambassadeur des principes de gestion des données au sein de la tribu ✅ Gestion du portefeuille et des actifs Data au niveau de la tribu : • Garantit la qualité et l’exhaustivité des métadonnées • Documente les tables, champs et processus • Met à jour la traçabilité (lineage) et le glossaire métier • Vérifie l’application cohérente des standards • Produit et partage des reportings sur le portefeuille data • Met en lumière les écarts, risques et opportunités • Permet une prise de décision éclairée sur les usages et les priorisations __________ Responsabilités • Excellentes capacités de communication pour vulgariser les concepts techniques et aligner les parties prenantes sur les décisions • Fortes compétences en résolution de problèmes, capable de traiter rapidement des informations complexes et de les présenter de manière claire et concise • Capacité à collaborer efficacement en équipe pour répondre aux besoins de manière agile • Organisation rigoureuse pour gérer les sujets en cours et à venir, les délais et les décisions associées __________ Compétences Individuelles • Ouvert et coopératif, avec un esprit de service facilitant les échanges entre parties prenantes • Orienté solution et livraison du résultat attendu • Curiosité et ouverture d’esprit sur des sujets hors périmètre habituel (ex : nouvelles techniques d’analyse) __________ État d’Esprit et Comportements • Expérience en développement Agile • Expérience au sein d’équipes produits collaboratives en environnement Agile __________

Offre d'emploi
Datascientist Graphs
Le bénéficiaire recherche une ressource expérimentée et autonome pour conception, développement et suivi des projets de Data Science avancée dans le cadre d’une solution Digital Twin. La mission s’inscrit dans un environnement technique exigeant, intégrant des technologies de modélisation graphique telles que TigerGraph et des approches GNN (Graph Neural Networks) pour enrichissement des capacités prédictives et analytiques des jumeaux numériques. Les missions sont: Conception, mise en œuvre, test et déploiement de modèles de Machine Learning / Deep Learning de bout en bout, adaptés aux problématiques du Digital Twin. Exploration de nouvelles architectures ML/DL, mise en œuvre de techniques d’apprentissage par transfert et optimisation des performances des modèles. Contribution aux pratiques MLOps : versioning des modèles, suivi des expériences, automatisation des pipelines de déploiement en collaboration avec les ingénieurs. Création de pipelines de données et d’ingénierie de fonctionnalités, en lien avec les exigences du jumeau numérique, en partenariat avec les ingénieurs ML. Conception et implémentation de solutions GenAI alignées avec les besoins IT, notamment autour des LLM, RAG et agents. Intégration de TigerGraph et de GNN dans les workflows analytiques pour modéliser des relations complexes et améliorer les capacités de prédiction.
Mission freelance
Data Analyst
Métier et Fonction : Data Management, Data Analyst Spécialités technologiques : Business Intelligence, CRM Type de facturation : Assistance Technique (facturation au taux journalier) Compétences techniques : Technologies et outils : Power BI (3 ans), SQL Soft skills : Force de proposition, Autonomie Secteur d'activité : Industrie médicale Description et livrables de la prestation : Objectifs de la mission : Observer et analyser les données disponibles dans le CRM. Identifier les informations pertinentes pour le business, en collaboration avec l’AMOA : types de données, indicateurs exploitables, croisements possibles, limites. Se poser la question : Quelles données avons-nous réellement à disposition ? Finalité : Construire des tableaux de bord sous Power BI pour : Aider le business à prendre des décisions éclairées. Mettre en lumière des points de blocage ou d’inefficacité. Proposer des améliorations concrètes des processus métier, comme la gestion des ruptures de médicaments.
Mission freelance
LEAD DATA SCIENTIST AI
Nous recherchons un expert de haut niveau en Data Science et NLP/GenAI pour piloter un programme stratégique autour de l’ automatisation intelligente de la gestion d’emails (13M+/an) . L’objectif : concevoir un système agentique innovant intégrant priorisation, génération de réponses, résumé automatique et conformité réglementaire , tout en réduisant de plus de 60% les tâches manuelles. 🎯 Vos missions principales Leadership technique (40%) : concevoir l’architecture agentique, définir la roadmap, les métriques d’évaluation, assurer la scalabilité et l’intégration (MCP, A2A/ACP). Développement (30%) : prototypage d’agents, ingénierie de contexte LLM, pipelines de données synthétiques, déploiement en production. Business alignment (20%) : traduire les besoins opérationnels, élaborer des règles de priorisation, travailler avec les équipes conformité, définir les KPIs. Recherche & veille (10%) : explorer les nouvelles avancées en agentic AI, expérimenter et accompagner l’équipe. 🛠️ Tech Stack & environnement CrewAI , Python, SQL, APIs MCP / A2A / ACP integration GenAI, NLP avancé, MLOps Objectif : réduction >60% des tâches manuelles ✅ Profil recherché PhD ou équivalent 10+ ans en Data Science, dont 5+ en NLP/GenAI Expérience CrewAI & déploiement IA en production Solides compétences Python, SQL, APIs Expérience secteur financier & publications/patents appréciés Anglais courant (français apprécié) 💡 Pourquoi nous rejoindre ? Programme IA à fort impact stratégique Stack technologique de pointe Opportunités de recherche et publications Forte visibilité auprès du management Package attractif & télétravail hybride ANGLAIS OBLIGATOIRE

Offre d'emploi
Expert Data Engineer
1. Environnement technique de la Prestation Les produits s'appuient sur les technologies suivantes : - Nifi pour l'ingestion de données ; - Amazon EMR pour les traitements de données ; - Amazon EKS et Mongo dB pour la mise à disposition des données. Les développements seront réalisés sur les environnements de développement, de pré-production et de production mis en place par le client. 2. Expertises techniques attendues Pour réaliser leurs missions dans de bonnes conditions, les intervenants du prestataire devront mettre en œuvre une expertise technique dans les domaines suivants : - Expertise en services Data sur la Plateforme AWS (Certifications AWS : Data Analytics, Big Data…) : S3, HDFS, RDS, Redshift, EMR, Airflow… - Expertise en solutions Big Data/Analytics : Spark, NoSQL… - Expertise en technologies d'intégration de données de type ETL/EAI : Mulesoft.. - Expertise en chaîne d'automatisation MLOps et CI/CD Spark -> 2.x EMR on EKS -> 5.32.0 MWAA -> 2.4.3 (latest) MongoDB enterprise -> 6.06 Opensearch -> 1.2 NIFI -> 1.16.3 NiFi Registry -> 0.8.0 Lieu : Magny les Hameaux
Mission freelance
Responsable applicatif Monetique
Au sein du domaine « Encaissement et Monétique », rattaché fonctionnellement à la responsable de pôle « Encaissement et Promotions », il / elle aura pour objectifs : -D’assurer et coordonner les activités de maintenance corrective et évolutive des applications sur lesquelles il intervient, en s’appuyant sur les équipes opérationnelles, -D’assurer la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses, -D’être en interface avec le métier et de répondre aux demandes d’évolution ou des projets en lien avec la Responsable de pôle, le Responsable SI Métier du domaine, les Responsables d’Applications du pôle et les Chefs de Projet. -D’être, aux côtés des Responsables d’Application du pôle, le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité des applications et des systèmes d’encaissement, par le suivi des projets et la veille à court et moyen terme. A ce titre, le/la Responsable d’Applications Encaissement : -Contribue à l’évolution des applications d’encaissement, -Effectue l'analyse fonctionnelle des besoins et détermine les impacts sur les interfaces avec les produits environnants dans le système d’information du Groupement, -Conduit, en appui des autres responsables d’applications, dans le cadre des projets, l’évolution cohérente de son système depuis la conception jusqu'à la mise en service, -Réalise les spécifications de ses applications et des échanges associés, -Effectue du paramétrage technico-fonctionnel, -S’assurer de la qualité attendue des développements réalisés, -Participe au déroulement des tests fonctionnels de ses applications avant livraison en intégration ou recette, -Contribue à la gestion documentaire des applications de son périmètre en s’assurant des impacts transverses sur les autres domaines fonctionnels, -Est responsable du contrôle et des règles de fonctionnement et d’utilisation des applications d’encaissement, -Intervient en soutien de l’équipe de support N3 pour la résolution d’incidents et apporte son expertise dans le cadre de la résolution d’incidents (dans le respect du contrat de services et du Plan Qualité), en lien avec les Directions Transverses le cas échéant (ex : Direction du Support, …), -Assurer le reporting de l’avancement et de la planification de la prise en charge des demandes de son périmètre.

Offre d'emploi
Data Engineer Senior
Contexte : Dans le cadre de sa stratégie data-driven, notre client souhaite renforcer ses équipes avec un profil Data Engineer senior (5+ ans d’expérience). L’objectif est de concevoir, industrialiser et optimiser les pipelines de données afin d’assurer la fiabilité, la scalabilité et la gouvernance des données pour les cas d’usage analytiques, IA et décisionnels. Missions principales Conception et déploiement de pipelines de données batch et temps réel. Industrialisation des traitements data (ETL/ELT). Mise en place de plateformes data sur le cloud. Optimisation des performances et de la qualité des données. Collaboration avec les Data Scientists et Business Analysts. Contribution à la gouvernance et à la sécurité des données. Modalités de mission Localisation : Sur site + télétravail partiel possible. Durée : 12 mois renouvelables. Démarrage : ASAP.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.