Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 114 résultats.
CDI
Freelance

Offre d'emploi
Data Analyste SAS, Python, SQL - Niort

K-Lagan
Publiée le
Big Data

1 an
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine

Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.

CDI

Offre d'emploi
Data Analyst/ Data Engineer F/H

ICSIS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Python

Lille, Hauts-de-France

Qui sommes nous ICSIS est une ESN digitale innovante et en fort développement, implantée à Lille et Strasbourg, qui accompagne ses clients dans leurs projets de Transformation Numérique avec un positionnement régional de proximité. Intégrer ICSIS, c'est participer à un projet d'entreprise motivant centré autour de ses collaborateurs, bénéficier d un management de proximité, avec un suivi et un accompagnement personnalisé de son projet professionnel. Nous proposons à nos consultants des missions valorisantes au sein des équipes de nos clients finaux (Banques, Finances, Assurances, Distribution et E-Commerce, Services & Utilities). ICSIS propose un panel varié de missions : - Développement applicatif (Back-End, Front End, Data, Cloud), - Conseil en Architecture, - Conseil des Maîtrises d’Ouvrage dans l’évolution de leurs métiers, de leurs organisations et dans l’intégration des nouveaux usages, - Assistance au Pilotage de projets. Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des Data Analyst / Data Engineer. La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données

Freelance

Mission freelance
Data Analyst

Hanson Regan Limited
Publiée le
Dataiku
Microsoft Power BI
Microsoft SQL Server

6 mois
400 €
Montreuil, Île-de-France

Hanson Regan recherche actuellement un Data Analyst pour une mission longue durée à Paris. Vous travaillerez au développement de tableaux de bord sur QlikSense ou PowerBI et à la modélisation des flux de données issus du data lake. Vos compétences contribueront à fournir des indicateurs pertinents pour le suivi des données. Vous collaborerez avec l'entreprise pour comprendre les besoins et définir les règles de gestion. Vous participerez également à la création de modèles de tableaux de bord, ainsi qu'à la validation et à la mise en production du projet. Le/la Data Analyst retenu(e) devra justifier d'une expérience avérée avec des outils de données tels que QlikSense, PowerBI et SQL, et être capable de comprendre les enjeux métier. Les candidats doivent pouvoir travailler via leur propre entreprise française (SASU, EURL, Autoentrepreneur, etc.), car nous ne pouvons malheureusement pas accepter de solutions de portage pour cette mission. Vous devez également être disponible sur site à Paris deux jours par semaine, dont trois jours de télétravail. Si cela vous intéresse, veuillez nous contacter dans les plus brefs délais avec un CV à jour aux coordonnées ci-dessous.

CDI

Offre d'emploi
Consultant(e) Data Analyst

CONSORT GROUP
Publiée le

42k-55k €
Île-de-France, France

Mission Vous avez une forte appétence au Marketing et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Analyst / Gestionnaire de campagnes marketing. Votre mission principale consiste à participer à l'application de la stratégie marketing multicanal de votre client : du recueil des besoins aux déploiements des ciblages en passant par la coordination des besoins et la gestion des échéances ou au suivi de la délivrabilité Vous participez à la mission de communiquer au bon client au bon moment à travers le meilleur canal, avec pour objectif l'augmentation des conversations (achats, trafic, branding, ...) et/ou la limitation de l'attrition Vous analysez la performance des campagnes à travers nombres d'indicateurs permettant d'optimiser les ciblages des campagnes futures Vous recommandez des axes d'améliorations en vous appuyant sur la pertinence de vos analyses et votre force de proposition

Freelance

Mission freelance
Data Analyst / Data engineer - 2j / semaine H/F

LeHibou
Publiée le
Python

6 mois
400-450 €
Nantes, Pays de la Loire

Notre client recherche un Data Analyst afin d'analyser en profondeur les données clients et d'identifier les leviers pour lutter contre le churn. Vos missions principales Analyse du churn : Identifier les facteurs qui conduisent les clients à partir (churn). Automatisation : Mettre en place et automatiser la synchronisation des données depuis l'outil de paiement Fincom. Reporting : Mettre en place les KPI's SaaS (MRR, Churn, Clients, etc.). Exploration de données : Creuser dans notre pour en extraire des insights et des recommandations stratégiques. Environnement technique Bases de données : ClickHouse Outils d'événementiel : Posthog Outils de paiement : Fincom, Stripe Langage : Python

Freelance
CDI

Offre d'emploi
Data Analyst – Denodo (H/F)

CITECH
Publiée le
Data analysis

6 mois
40k-50k €
320-360 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Analyst – Denodo (H/F) 🚀 💡 Votre mission est pour un client dans le secteur bancaire. Vous intégrerez une équipe Data déjà en place à Aix-en-Provence pour accompagner la montée de version de l’outil Denodo (V8 → V9). La mission couvre à la fois l’accompagnement des utilisateurs et le suivi de la production. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Assurer le suivi et le traitement de la montée de version Denodo (V8 vers V9) 🔸 Contribuer à l’administration de l’outil (monitoring, RUN, gestion des habilitations et rôles) 🔸 Accompagner les utilisateurs dans l’appropriation de Denodo V9 et le développement de couches métiers 🔸 Produire la documentation associée (architecture, conduite du changement, guide d’utilisation)

CDI

Offre d'emploi
Data analyst R&D (données cliniques)

INFOGENE
Publiée le

50k-60k €
Neuilly-sur-Seine, Île-de-France

Missions principales En pratique, vos responsabilités seront les suivantes : Recueillir et analyser les besoins utilisateurs (équipes métier et R&D). Développer ou améliorer des solutions d’acquisition et de visualisation innovantes. Concevoir et optimiser des rapports de tests, validations et suivis financiers (P&L, KPIs). Élaborer et maintenir la documentation technique, fonctionnelle et les guides utilisateurs. Conseiller et accompagner les utilisateurs dans l’exploitation des solutions. Participer à la mise en place et l’évolution de processus et d’outils de data management. Réaliser des études de faisabilité (données, systèmes, outils, développements). Assurer des formations utilisateurs et produire le matériel pédagogique associé. Compétences techniques attendues Reporting & DataViz Power BI (certification souhaitée) : DAX, Power Query, Report Builder. Streamlit (Python) et Shiny (R) pour des applications interactives. Data storytelling et adaptation des visualisations selon les profils utilisateurs (métiers, data science, direction). Programmation & Analyse de données Python (pandas, matplotlib, seaborn, Streamlit). R (packages de data processing, dashboards interactifs via Shiny). SAS (traitement, analyse et transformation de données structurées, contexte analytique ou clinique). SQL / DBT (structuration, transformation et exploitation de données relationnelles). Bonnes pratiques de développement Maîtrise de Git / GitLab (versionning, branches, merge requests, revues de code). Respect des bonnes pratiques de structuration, modularité et documentation du code. Travail en mode agile (Kanban, Scrum) avec PO, Tech Lead, Data Engineers. Big Data & Cloud Transformation et industrialisation de la donnée sur Google Cloud Platform (GCP) . Développement de datamarts en collaboration avec les Data Engineers.

Freelance

Mission freelance
Qlik Sense Data Analyst

Phaidon London- Glocomms
Publiée le
ETL (Extract-transform-load)
Qlik
Qlik Sense

6 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes

Recueillir les besoins métier et accompagner les parties prenantes dans l'expression de leurs besoins. Réaliser des études ponctuelles à partir des ressources existantes (QlikSense et QlikView) afin de formuler des recommandations aux partenaires commerciaux, y compris la rédaction de supports de communication. Créer ou mettre à jour des applications de gestion conformément aux normes de développement internes (principalement avec QlikSense). Extraire des données avec SQL. Participer aux réunions et groupes de travail liés aux projets sous votre responsabilité. Vous pourrez également être amené à développer des processus ETL avec Informatica, conformément aux normes de développement internes.

Freelance
CDI

Offre d'emploi
DATA ANALYST Power BI / DataIku H/F

PROXIEL
Publiée le
Data analysis
Dataiku
PowerBI

1 an
50k-60k €
450-550 €
Paris, France

Nous recherchons pour notre client situé sur Paris un DATA ANALYST Power BI / DataIku H/F. Missions : · Collecte et préparation des données · Modélisation des données via Dataiku · Création de tableaux de bord et rapports avec Power BI · Optimisation des flux de données : automatiser et fiabiliser les pipelines dans Dataiku. · Collaboration avec les équipes métiers : comprendre leurs besoins et traduire les questions business en analyses. Profil : Vous êtes de formation supérieure Bac +5 en informatique. Vous possédez une expérience de minimum 5 ans. Avantages : Mutuelle – Prévoyance – Carte tickets restaurants.

Freelance

Mission freelance
Data Analyst – Spécialiste KPI - Bordeaux

Intuition IT Solutions Ltd.
Publiée le
Data analysis

6 mois
360 €
Bordeaux, Nouvelle-Aquitaine

En tant que Data Analyst spécialisé dans les KPIs , vous serez responsable de la définition, du suivi et de l’optimisation des indicateurs de performance clés afin d’aider les équipes métiers à piloter leurs décisions stratégiques. Vous travaillerez en étroite collaboration avec les équipes Produit, Marketing, Finance et Direction pour transformer les données en insights actionnables. Missions principales : Définir, structurer et maintenir les tableaux de bord KPI pour les différentes équipes métiers. Collecter, analyser et interpréter les données issues de multiples sources (CRM, ERP, plateformes marketing, etc.). Mettre en place des processus de suivi de performance et des rapports automatisés (Power BI, Tableau, Looker, etc.). Identifier des tendances, anomalies et opportunités de croissance à partir des analyses. Participer à la data governance : qualité, fiabilité et accessibilité des données. Former les équipes internes à la lecture et à l’utilisation des indicateurs de performance. Collaborer avec l’équipe technique pour améliorer les pipelines de données

Freelance

Mission freelance
Data Analyst Power BI (Freelance)

Zenith Rh
Publiée le
SAP
VBA

3 mois
Hauts-de-Seine, France

Pour l'un de nos clients nous sommes à la recherche d'un Data Analyst Power BI ayant des connaissances VBA et une expérience SAP S4. Le profil doit être autonome techniquement et avoir un bon relationnel et une bonne capacité de synthèse pour échanger avec les différentes parties prenantes. Les principales missions sont : TRAITEMENT DES DONNEES POUR LA MIGRATION DANS LE NOUVEL ERP S'approprier l'architecture du système de traitement des données Extraire les données dans l’ERP SAP (S4 Hana) actuel nécessaires à l'analyse Analyser les données : - s’assurer de la complétude, de la qualité et de l’intégrité des données ; - mettre en avant les corrélations, - définir les valeurs aberrantes Contribuer aux ateliers pour la caractérisation des données qui seront utilisées dans SAP S4 et en déduire les données à modifier, compléter ou créer dans l’ERP actuel ; S’assurer que les outils de transcodification sont en cohérence par rapport à l’attendu ; Développer des outils pour transcodifier certaines données ; Réaliser les requêtes de modifications des données dans l’ERP SAP actuel. MISE EN PLACE DES RAPPORTS D’ANALYSE DE DONNEES Identifier les données nécessaires aux analyses des futurs utilisateurs, les traiter et les nettoyer afin d’en extraire des informations permettant de répondre à des enjeux spécifiques et faciliter la prise de décision pour le métier Présenter les résultats des analyses de données afin d’appuyer la prise de décision ; ces résultats pourront être présentés sous forme Excel, PowerBI. Si besoin, des outils statistiques pourront être utilisés. Maintenir les rapports existants et développer les évolutions SUPPORT DES OPERATIONNELS Venir en support des équipes opérationnels et répondre à chacun de leurs besoins Comprendre les problématiques métiers et pouvoir les traduire de manière analytique Structurer la gestion des données et flux de travail du processus Vente et Programme sur les différents outils numériques à notre disposition (SharePoint, Réseau, Teams, SAP, Power BI, etc.) Elaborer les KPI (inclus post-bascule), les tenir à jour et les partager au sein du stream Ventes afin qu’ils soient restitués dans les comités pour le suivi de la préparation à la migration. Pouvoir représenter le stream Vente dans les réunions Data dont les comités du programme en relation avec la data Faire les compte-rendus des réunions Data avec les métiers.

Freelance

Mission freelance
Data Analyst - IDF

ISUPPLIER
Publiée le
Data Lake
Dataiku
Microsoft Power BI

12 mois
400-420 €
Montreuil, Île-de-France

Le client recherche un data analyst pour un projet au sein du département DER (Direction Employeur et Recrutement) de France Travail, plus précisément dans une entité dédiée à la mise en relation entre les demandeurs d'emploi, les offres et les entreprises. L'objectif est de développer des tableaux de bord (sur Qlik Sense ou Power BI) et de modéliser les flux de données à partir d'un data lake, afin de fournir des indicateurs pertinents pour le suivi des demandeurs d'emploi et des offres. Le projet implique la formalisation des besoins métiers, la définition des règles de gestion, la création de maquettes de tableaux de bord, l'industrialisation, la recette métier et la mise en production. Le profil recherché doit être technico-fonctionnel, capable de comprendre et challenger le métier, de poser les bonnes questions, de s'assurer de la qualité des données et de devenir autonome sur les outils utilisés (SQL, Dataiku, Qlik Sense, Power BI).

Freelance

Mission freelance
Data Analyst expert BI ETL

KEONI CONSULTING
Publiée le
Back-end
Google Dashboard
Reporting

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : BI,ETL MISSIONS Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour le département « Recherche Candidature et Rapprochement ». Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département RCR. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Expertise souhaitée - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe.

Freelance
CDI

Offre d'emploi
Data Analyst / QlikSense - Rennes

Argain Consulting Innovation
Publiée le
BI
Data analysis
Qlik Sense

9 mois
40k-45k €
400-450 €
Rennes, Bretagne

Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.

CDI

Offre d'emploi
Data Analyst BI (OpenText Magellan & Power BI)

SMILE
Publiée le
Microsoft Power BI

50k-55k €
75015, Paris, Île-de-France

Pour structurer la gouvernance des données d’abonnement et accompagner l’évolution des outils de pilotage interne, ce poste vise à : Superviser et fiabiliser les flux de données entre les systèmes de gestion des abonnements et les outils de reporting, de pilotage et de relation client Piloter l’évolution fonctionnelle de l’outil de gestion des abonnements en lien avec l’éditeur, les utilisateurs métier et les prestataires Formaliser et documenter les règles de gestion métier liées aux données clients, contrats et statuts Contribuer aux projets structurants autour de la donnée, notamment l’exploitation de nouveaux référentiels, les échanges partenaires et la montée en autonomie des équipes internes Missions : Au sein de la Direction Marketing&Numérique, le poste a pour vocation de structurer, sécuriser et faire évoluer la donnée d’abonnement chez le client. Le cœur de la mission consiste à piloter la qualité et la fiabilité des données, depuis leur collecte dans le système de gestion des abonnements jusqu’à leur exploitation dans les outils de reporting, CRM ou d’analyse. Le titulaire du poste joue un rôle central dans la supervision de l’outil de gestion des abonnements : suivi des flux, coordination des évolutions, traitement des anomalies, documentation des règles de gestion. Il sera également l’interlocuteur de référence vis-à-vis de l’éditeur du système, garantissant la bonne traduction des besoins métier en spécifications fonctionnelles. En complément de ce socle, le poste contribue aux projets structurants autour de la donnée (tableaux de bord, gouvernance, CDP, échanges de données partenaires) et accompagne les équipes internes dans l’appropriation des outils et des indicateurs.

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

114 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous