Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 984 résultats.
Freelance
CDI

Offre d'emploi
Expert Power Platform – (Secteur Finance) (H/F) Île-de-France, France

RIDCHA DATA
Publiée le
ALM
Microsoft Power BI
Power Apps

1 an
Île-de-France, France

Contexte du poste Notre client, un acteur majeur du secteur de la finance, recherche un Expert / Administrateur Power Platform pour renforcer son équipe et accompagner l'administration et le développement des solutions low-code / no-code. 🔧 Missions principales Administrer et sécuriser la Power Platform : gestion des environnements, des droits d’accès, et mise en œuvre des politiques de prévention des pertes de données (DLP) Déployer, configurer et adapter la gouvernance via le Kit Centre d’Excellence (CoE) et outils complémentaires Assurer la maintenance et l’évolution des outils de gouvernance (montées de version, adaptations réglementaires) Animer et faire respecter le cadre de référence Citizen Dev / Pro Dev en vigueur

Freelance
CDI

Offre d'emploi
Développeur Java / Spring / Groovy (H/F) Sophia Antipolis (06)

RIDCHA DATA
Publiée le
Docker
Groovy
Hibernate

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

Contexte du projet : Nous recherchons un Développeur confirmé pour rejoindre une équipe travaillant sur une solution de Gestion Électronique de Documents (GED) intégrant des workflows métiers. Le projet consiste à ajouter de nouvelles fonctionnalités, optimiser les performances et moderniser l’architecture de l’application existante via la conteneurisation, tout en utilisant un environnement Groovy/Grails basé sur Java Spring pour le backend et React pour le frontend. Missions : Le Développeur sera en charge de la réalisation et de l’évolution de l’application en respectant les spécifications fonctionnelles et techniques définies. Plus précisément, vos missions seront les suivantes : Analyse des besoins : Participer à l’analyse détaillée des besoins fonctionnels et techniques du projet. Développement : Implémenter les solutions techniques en utilisant Java, Spring, Groovy et Hibernate, en suivant les bonnes pratiques de développement. Modernisation de l'architecture : Contribuer à l'optimisation des performances et à la refonte de l’architecture via des pratiques modernes comme la conteneurisation. Rédaction de la documentation : Créer et maintenir la documentation technique et fonctionnelle associée à l’application. Qualité du code : Assurer la qualité technique et fonctionnelle des systèmes développés. Suivi et coordination : Piloter les prestataires externes impliqués dans le projet et suivre les avancements. Compétences techniques requises : Java (Confirmé) – Expertise dans le développement backend en Java. Spring (Confirmé) – Maîtrise de Spring Framework (Spring Boot, Spring MVC, etc.). Groovy (Junior) – Connaissance ou appétence pour le développement en Groovy. Hibernate (Confirmé) – Compétences solides en ORM (Object Relational Mapping) avec Hibernate. React (Frontend) – Notions ou expérience dans l'intégration avec une IHM React. Conteneurisation (Docker/Kubernetes) – Bonne compréhension des concepts de conteneurisation et de mise en production d'applications Lieu de travail : Sophia Antipolis (3 jours par semaine sur site, 2 jours télétravail possibles selon les besoins)

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Data Scientist

Cherry Pick
Publiée le
BigQuery
Python
Streamlit

3 mois
650-700 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur de de la publicité Description 🎯 Contexte du projet Le groupe développe une plateforme web innovante de gestion de coupons personnalisés. Ce projet allie IoT et gestion de campagnes retail, avec un besoin fort de mesure et pilotage des performances. L’équipe interne gère déjà le front en Streamlit, mais souhaite renforcer son expertise pour : Créer et industrialiser des dashboards performants, Automatiser la création d’échantillons et le calcul des indicateurs, Pré-calculer et visualiser des agrégats statistiques, Améliorer la mise en production et l’UX des produits data. 🛠️ Missions principales Concevoir et développer des interfaces analytiques avancées avec Streamlit (dashboards, data apps). Définir les KPI de performance et implémenter leur suivi. Industrialiser le calcul d’indicateurs et d’agrégats statistiques. Automatiser la création et le suivi des campagnes data marketing. Participer aux tests, à la mise en production et à l’optimisation continue. Travailler en étroite collaboration avec les équipes Data / IoT / Produit.

Freelance
CDI

Offre d'emploi
Data Engineer

CELAD
Publiée le
Apache Airflow
DevOps
Java

6 mois
40k-45k €
400-470 €
Montreuil, Île-de-France

Les tâches sont : Développeur objet confirmé (>= 5 ans d’expériences). • Codage et testage des composants logiciels. • Formalisation des cas d’usages. • Conception et mise en œuvre des flux d’intégration de données. • Optimisation de la performance et la qualité logicielle. • Apport du support technique. • Bonne maitrise de l’écosystème Data / Java / SQL / Cloud. • Notions dans d’autres langages de programmation (Python, Scala) et connaître le fonctionnement des bases de données (SQL, NoSQL). Compétences techniques (hard skills) : • Maîtrise de la programmation orientée objet (POO). • Connaissance approfondie du langage de programmation Java. • Maîtrise des Framework Java courants. • Connaissance des bases de données relationnelles et du Maitrise des outils de développement Java tel que IntelliJ IDEA. • Maîtrise de Spark (en local ou dans le Cloud). • Connaissances Airflow. • Maîtrise DevOps (CICD, Git, Jenkins). • Qualités rédactionnelles, pour rédiger des guides d’utilisation de manière claire et concise. Compétences comportementales (soft skills) : • Capacité à résoudre des problèmes complexes. • Esprit d’équipe. • Autonomie. • Curiosité. • Sens de l’organisation et gestion des priorités. • Capacités de communication, pour rendre intelligible des idées complexes auprès d’interlocuteurs aussi bien néophytes qu’experts. • Adaptabilité.

Offre premium
Freelance
CDI

Offre d'emploi
Profil Data - Python

AVALIANCE
Publiée le
Python
SQL

3 ans
40k-57k €
380-480 €
Rueil-Malmaison, Île-de-France

• Objectif de la mission • Au sein de la DSI Europe, division BI & Data, seconder l’architecte leader dans l’enrichissement, le maintien et l’évolution de la Digital Data Platform • Contenu • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Freelance
CDI

Offre d'emploi
Développeur Full Stack Confirmé (Java Quarkus / Vue.js) (H/F) Sophia Antipolis (06)

RIDCHA DATA
Publiée le
Apache Maven
CI/CD
Git

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

🎯 Contexte du projet Dans le cadre du développement d’un outil de gestion de crise dans le domaine médical, nous recherchons un Concepteur-Développeur Full Stack confirmé pour rejoindre une équipe Agile Scrum de 5 à 10 personnes. La solution logicielle, organisée en briques techniques indépendantes, aura pour objectif d’apporter des réponses adaptées aux besoins d’un système en situation de crise : communication, gestion des patients, services bureautiques, consultation, GED, etc. Une bonne communication et une forte capacité d’adaptation seront essentielles dans cet environnement collaboratif et évolutif. 🔧 Compétences techniques requises Compétences impératives : Java (Quarkus, Hibernate-Panache, Rest, OpenApi-Swagger) – Confirmé JavaScript (Vue.js / Vuetify / TypeScript) – Confirmé Compétences importantes : Docker / Containers – Junior Bases de données relationnelles (Postgres – Minio) Git, Maven, Nexus Tests unitaires (Mockito / Junit) Compétences appréciées (plus) : OpenId Connect Pratiques DevOps et CI/CD Outils collaboratifs (Jira, Confluence)

CDI
Freelance

Offre d'emploi
DATA ANALYST

Signe +
Publiée le

24 mois
40k-45k €
286-450 €
Nantes, Pays de la Loire

Description: Prestation de data analyst avec des compétences en analyse et connaissance de la données, traitement de la donnée, dataviz (Qlik). Les tâches sont les suivantes : Mettre en place et suivre les indicateurs de suivi des différents produit du département Aider les équipes à l'amélioration des produits grâce à la data. Collecter et préparer des données : - Récupérer, nettoyer et préparer les données nécessaires à l'analyse des indicateurs de performance des produits. - Assurer l'intégrité et la qualité des données utilisées pour les analyses. Analyse des Performances : - Définir et suivre les KPI pertinents pour évaluer la performance des produits. - Réaliser des analyses approfondies pour identifier les tendances, les opportunités et les domaines à améliorer. Visualisation des Données : - Créer des tableaux de bord et des rapports de performance. - Utiliser des outils de visualisation de données pour présenter les résultats de manière claire et compréhensible, Qlik ou Superset. Communication des Résultats : - Présenter les résultats de l'analyse aux équipes produit. - Fournir des recommandations basées sur les données pour guider les décisions stratégiques. Collaboration : - Travailler en étroite collaboration avec les équipes produit, les développeurs et les autres analystes pour comprendre les besoins et les objectifs. - Participer à des réunions d'équipe pour partager les découvertes et proposer des solutions pour améliorer la performance des produits. Amélioration Continue : - Proposer des améliorations pour les systèmes de collecte et d'analyse de données. - Mettre en place des processus pour automatiser et optimiser l'analyse des indicateurs de performance. Compétences attendues : - Analyse statistique - Dataviz - SQL - Dataset - Appétence pour l'IA - 2 à 3j max de TT Lieu : Nantes

Freelance

Mission freelance
Data Manager

Trait d'Union Consulting
Publiée le
SQL
UML

3 mois
Boulogne-Billancourt, Île-de-France

Rejoignez un grand groupe international au cœur d’un programme de transformation digitale et data. La mission consiste à accompagner la structuration de la plateforme Data , utilisée par de multiples équipes métiers et techniques, et à garantir la bonne gestion et gouvernance des données. Missions principales Définir et appliquer les standards de Data Management (naming, documentation, règles de modélisation, conformité RGPD/SSI). Modéliser et garantir l’architecture fonctionnelle de la plateforme Data. Collaborer avec les Product Owners et Data Engineers pour concevoir et valider les solutions data. Gérer le portefeuille data : qualité, complétude, cohérence des métadonnées, mise à jour du glossaire métier et du lineage. Animer des ateliers, formations et sessions de support auprès des équipes pour diffuser les bonnes pratiques. Produire des reportings réguliers et mettre en évidence les risques, gaps et opportunités. Contribuer à la roadmap et à l’évolution des assets data au niveau du groupe.

CDI

Offre d'emploi
Data engineer

Clostera
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

50k-60k €
Île-de-France, France

Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui, nous recherchons un(e) Data Engineer Expérimenté(e) en CDI pour intervenir sur un projet stratégique au sein de l’un de nos clients grands comptes, acteur majeur de la grande distribution. Ce que vous ferez : Intégré(e) aux équipes Data, vous interviendrez sur des projets à forte volumétrie et enjeux stratégiques autour de Google Cloud Platform : Conception et optimisation de pipelines de données avec BigQuery et DBT . Développement et automatisation des workflows via GitLab CI/CD et Docker Compose . Modélisation de données et mise en place de couches sémantiques avec Looker/LookML . Manipulation et valorisation de données en SQL avancé . Participation aux rituels agiles et collaboration avec des équipes pluridisciplinaires. Documentation, bonnes pratiques, et amélioration continue des processus data. Votre positionnement vous permettra d’apporter une véritable expertise technique tout en contribuant à la transformation digitale d’un acteur majeur du retail.

Freelance

Mission freelance
Support - Business et Data Functional Analyst

Clémence Consulting
Publiée le
Business Analysis
Data management
Rédaction des spécifications fonctionnelles

12 mois
Paris, France

Au sein d'une équipe en charge des référentiels (Banque Finance) sur des outils de gestion de produits, portefeuilles et de leur cycle de vie. Assurer la continuité et la fiabilité : traitement des incidents, habilitations, listes de valeurs... Prendre en charge la traduction fonctionnelle vers technico-fonctionnelle pour les évolutions du modèle de données. Documenter de manière claire et exploitable (process, specs, modes opératoires).actii Proposer et challenger des évolutions en lien avec les besoins métiers et les contraintes techniques. Parmi les activités: Suivi et documentation des incidents (via outil de ticketing). Gestion des habilitations et incidents (en lien avec autre équipe). Mise à jour des listes statiques (selon arbre de décision). Suivi des mass-updates (création + modification). Documentation & qualité Rédiger des spécifications technico-fonctionnelles exploitables par les devs. Produire des modes opératoires clairs, illustrés et autoporteurs. Maintenir à jour la documentation Évolutions & projets Participer à la définition des évolutions du modèle. Être force de proposition technique/fonctionnelle (ex : clés fonctionnelles, fusion d’entités, élargissement du modèle de données). Contribuer aux ateliers de cadrage et aux tests.

Freelance

Mission freelance
Techlead DENODO BI H/F

Insitoo Freelances
Publiée le
Azure Data Factory

2 ans
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Techlead DENODO BI H/F à Aix-en-Provence, France. Nous souhaitons renforcer l'équipe actuelle d'une compétence sur l'outil DENODO Les missions attendues par le Techlead DENODO BI H/F : Dans ce contexte, il s’agit de : - Suivre et intervenir dans le cadre de la montée de version DENODO V9 (depuis le Version actuelle V8) - Suivre et intervenir dans le cadre de l'administration de l'outil et de l'offre de service (Monitoring, gestion du RUN, habilitations, Roles) - Accompagner nos clients Caisse d'Epargne dans l'utilisation et le developpement de couches métiers ou composants DENODO. Principaux livrables : • dossier architecture DENODO V9 (accompagnement par un architecte BPCE SI), • documentation Conduite du changement Evolution version V8 vers version V9 • programme de developpements couhes métiers DENODO Cette mission est pilotée dans le cadre du developpement de l'offre de service Datavirtualisation

CDI
Freelance

Offre d'emploi
Data Engineer Big Data

Signe +
Publiée le

24 mois
40k-45k €
286-450 €
Paris, France

Compétences techniques : Framework Big Data & Langage : Spark - spark streaming et batch (requis), SQL (requis) Kafka (apprécié) java (apprécié) scala (apprécié) shell (apprécié) Ecosystème Big Data : Stack Hadoop Cloudera (fortement apprécié) Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Compétences humaines : Requis : Autonomie, Adaptabilité, Bonne communication / Pédagogue / Vulgarisation Data pour des équipes métiers Force de proposition, Sait challenger les besoins et comprend le sens métier des travaux menés 5 à 10 ans d'exp. Paris 12ème 3 jours sur site

Freelance

Mission freelance
Architecte Data / Devops

DEV AND CONNECT
Publiée le
Azure
SAP

6 mois
Toulouse, Occitanie

👉 Contexte : Connexion d'un ERP SAP avec un autre SI du groupe : coordination des actions, préparation du dossier d’architecture, extraction manuelle des données chaque semaine jusqu’à l’automatisation. Automatisation des tâches répétitives afin de déployer les ressources d’analyse de données sur la partie Azure. Les activités complémentaires suivantes sur la plateforme Azure peuvent être demandées : Automatisation de la création de vues dans Azure Synapse. Développement de scripts ou de pipelines pour la génération automatique de vues nécessaires à divers cas d’usage. Gestion centralisée et automatisée des droits d’accès (rôles, groupes, utilisateurs) conformément aux politiques de sécurité et de gouvernance du client. Documentation et industrialisation du processus afin d’assurer sa réutilisabilité et sa montée en charge. Automatisation de la supervision de la plateforme et de la gestion des journaux (logs). Mise en place et configuration des tableaux de bord Azure Monitor adaptés aux besoins opérationnels et métiers. Définition et automatisation des règles d’alerte (seuils, conditions, notifications) pour garantir une supervision proactive. Automatisation de la cartographie des fichiers métiers pour les cas d’usage (UCs). Définition et mise en œuvre d’un mécanisme automatisé de cartographie des fichiers métiers entrants. Mise en place de contrôles qualité (validation, gestion des erreurs, journalisation détaillée) et de rapports pour le suivi des processus. Technologies spécifiques requises (AWS, Foundry, etc.) : Azure Cloud, incluant Terraform Mécanisme d’exportation des données depuis SAP, dans l’environnement client

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance

Mission freelance
DATA OWNER

CAT-AMANIA
Publiée le
AWS Cloud
Data management
Databricks

1 an
100-450 €
Lille, Hauts-de-France

TES RESPONSABILITÉS : DONNÉES TRACABILITE Implementer les règles de la gouvernance (définition des Business Objects, business value) par rapport aux enjeux métiers et juridiques Accompagner le process d'ingestion avec notre data steward Déclaration des regles qualites et implémentation d'observabilité Assurer la qualité de nos données et la mise en place de plans de remédiation avec les équipes métiers (actions avec les outils, formations métiers, création de tours de controles...). Développer la culture et les usages data Collaborer étroitement avec les équipes produit et developpeurs pour valider et optimiser les modèles de données Accompagnement, communication, formations... des équipes métiers

984 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous