L’offre recherchée est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 87 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance Product Owner Data
INSYCO
Publiée le
Big Data
CRM
SQL
24 mois
100-650 €
Paris, France
Bonjour,
Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à <freelance (à) insyco . fr> avec les informations suivantes :
- Argumentaire écrit répondant de façon ciblée au besoin
- CV à jour (format Word)
- Date de disponibilité
- TJM
- Merci d'indiquer la référence EPE/4217 et votre nom en objet de votre mail
--- LE CONTEXTE ---
La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision.
Dans une volonté d’accélérer sur la personnalisation de l’expérience utilisateurs, nous avons besoin d’être accompagnés sur une mission de Product Owner Data pour l’équipe Domain Personnalisation; équipe dédiée et en charge de cadrer et délivrer les cas d’usages pour personnaliser l’expérience utilisateurs.
Cette équipe est composée d’un Product Owner, d’un Data Steward, d’un Data Analyst et deux Data Ingénieurs. Nous attendons du Product Owner Data qu’il pilote les activités de cette équipe et prenne en charge l’environnement existant.
Missions de cette équipe :
1. Prendre en charge l’environnement dédié dans le build et le run, comme par exemple :
a. La construction de nouveaux indicateurs issus de nouvelles sources ou de sources existantes
b. La mise à jour d’indicateurs (suite à des évolutions de plan de marquage par exemple)
c. Le traitement des anomalies et leur résolution
2. Mettre en place le contrôle qualité sur les données et les use cases livrés
3. Définir le périmètre d'intervention de l’équipe et le mode de collaboration avec les autres équipes Produit Data
La prestation consistera à participer à la :
1. Collecte et la priorisation des besoins :
• Cadrer les besoins et les objectifs pour et avec chaque partie prenante
• Identifier les améliorations en continue sur les produits et processus de l’équipe
2. Gestion du Backlog :
• Coordonner les différentes étapes de développement, de l'idéation à la réalisation
• Rédiger les user stories en fonction des besoins
• Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer
• Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs
• Améliorer l’exploitation et le maintien des produits en production
3. Définition et communication de la vision produit :
• Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes
• Animer et communiquer sur les évolutions liées à la vision du produit
4. Collaboration avec des équipes pluridisciplinaires suivantes :
• les équipes de développement
• les Chefs de Projet de la direction du Numérique
• l’équipe Big Data
• l'équipe User Data
• les équipes CRM et acquisition
• les équipes Produits numériques
• les Chef de Projets qui pilotent des projets liés au RGPD

Mission freelance Data engineer Montpellier Big Data, Scala ou Java
WorldWide People
Publiée le
Big Data
6 mois
300-400 €
Montpellier, Occitanie
Data engineer Montpellier Big Data, Scala/Java (expérience obligatoire dans l’un des deux langages)
Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...)
+ 1j/3sem à Massy" Janvier "Contexte
Au sein de la direction « Plateforme Data », le consultant intégrera une équipe SCRUM et se concentrera sur un périmètre fonctionnel spécifique. Son rôle consistera à contribuer à des projets data en apportant son expertise
Profil
Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique.
Expérience souhaitée de plus de 3 ans en tant que Data Engineer.
Compétences
Expérience en architecture de systèmes distribués Big Data
Scala/Java (expérience obligatoire dans l’un des deux langages)
Ecosystème Big Data (Hadoop, Spark, Apache Kafka, Avro ...)
Maîtrise de la CI/CD et des outils de déploiement et orchestration (Jenkins, GitLab, Kubernetes,Docker, Ansible …)
Concepts fondamentaux de Kafka
Bases de données NoSQL (Cassandra, BigTable…)
Moteur de recherche (Elastic Search...)"

Mission freelance Data Steward
INSYCO
Publiée le
Big Data
BigQuery
Marketing digital
24 mois
100-600 €
Paris, France
Bonjour,
Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL à l'adresse <freelance (à) insyco . fr> avec les informations suivantes :
- Argumentaire écrit répondant de façon ciblée au besoin
- CV (en docx)
- Date de disponibilité
- Tarif journalier EPE/4208 en objet du mail
--- LE CONTEXTE ---
La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision.
Nous avons créé en interne une Vision Client Unifiée : via la génération d’un identifiant unique, les données sont regroupées à la maille utilisateur et mises à disposition des équipes CRM via un outil de ciblage.
Le référentiel actuel doit être simplifié en termes de distribution de la donnée, optimisé dans son architecture et renforcé sur la partie contrôle de la qualité. Un pré cadrage du projet en cours.
Dans ce cadre, nous créons une équipe composée d’un PO, un data ingénieur et un data stewart.
Nous attendons du Data Stewart qu’il assure le contrôle et le suivi de la qualité des données utilisées.
Les missions de cette équipe seront de cadrer et mettre en place la version simplifiée de la Vision Client Unifiée.
La prestation de Data Stewart consistera à participer à :
- La manipulation de la donnée
o Créer des requêtes spécifiques pour interroger nos sources de données
o Contrôler que les données sont consistantes et organisées conformément aux règles métiers.
o Lister les données sensibles à mettre sous contrôle.
- La définition et suivi de la qualité des données
o Réaliser des audits de la donnée
o Définir les règles de formatage et de mise en qualité de la donnée
o Mettre en œuvre des actions correctives sur la donnée
o Faire respecter les indicateurs de qualité de données
o Mettre à jour les reportings pour monitorer la qualité des données
o Participer au déploiement des processus et règles de qualité des données définis
o Garantir la maîtrise du cycle de vie de la donnée et sa qualité
- S'assurer de la conformité des données et des traitements dans le respect de la réglementation sur la protection des données personnelles
- Participer à la gestion des métadonnées
o Créer et mettre à jour la cartographie des données, des flux, des traitements
o Mettre à niveau les dictionnaires des données en collaboration avec les équipes techniques
o Créer et mettre à jour des métadonnées techniques et fonctionnelles (nomenclature, référentiel notamment)
- Alimenter la documentation et le(s) glossaire(s) partagés
- Contribuer à l’animation des parties prenantes autour du cycle de vie de la donnée
- Accompagner les data Owners dans la maitrise de la donnée
- Contribuer aux différents projets data de la direction.

Mission freelance Ingénieur de données
Phaidon London- Glocomms
Publiée le
Big Data
Python
SQL
6 mois
Marseille, Provence-Alpes-Côte d'Azur
Je collabore actuellement avec un client important basé à Marseille, et nous recherchons activement un ingénieur de données hautement qualifié avec de l’expérience en SQL, Python et DBT.
Dans le cadre de cette opportunité passionnante, vous jouerez un rôle crucial dans la conception, le développement et la maintenance de notre architecture de données, assurant un flux continu d’informations pour l’analyse et l’intelligence économique.
Les entretiens auront lieu cette semaine.
Rôle : Ingénieur de données
Durée du contrat : Contrat à long terme - 6 mois renouvelable
Travail hybride
Date de début : Décembre (Flexible)
Responsabilités :
- Concevoir, développer et maintenir des pipelines de données robustes et évolutifs pour soutenir la prise de décision basée sur les données.
- Rédiger des requêtes SQL complexes pour les processus d’extraction, de transformation et de chargement des données (ETL).
- Développer et maintenir des scripts Python pour le traitement des données et l’automatisation.
- Utiliser DBT (Data Build Tool) pour transformer les données brutes en ensembles de données significatifs pour l’analyse et le reporting.
- Créer et maintenir des interfaces API en utilisant Python pour rendre les données accessibles à différents systèmes internes et externes.
Profil :
- 5+ ans d’expérience prouvée en tant qu’ingénieur de données.
- Forte expérience avec DBT (Data Build Tool).
- Expérience de travail avec SQL et Python.
- Forte compréhension de la modélisation des données, de la conception des bases de données et des techniques d’optimisation.
- Une expérience avec des plateformes cloud telles que AWS, GCP ou Azure est un plus.
- Des certifications pertinentes sont fortement souhaitées.
Si ce poste vous intéresse, veuillez postuler directement à cette annonce.

Offre d'emploi Data Business Analyst (H/F)
CITECH
Publiée le
Big Data
Data science
3 ans
45 300-70 400 €
Lille, Hauts-de-France
CITECH recrute ! 👌
✨ SSi vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Business Analyst (H/F) 🚀
💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳
🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌
Le Data Business analyst accompagne le métier dans le recensement des données utiles à son besoin exprimé. A partir d'une expression de besoin métier, il traduit le souhait en besoins datas. Pour ce, il doit :
🔸Animer des ateliers métier, comprendre les besoins métier, les challenger
🔸Identifier les données nécessaires à la réalisation de ces besoins, en consolidant l'ensemble des besoins
🔸Modéliser les données (modèle métier entreprise), en assurant une cohérence globale de ce modèle (consolidation des différents projets)
🔸Travailler en binôme avec l'architecte de données pour sourcer les données dans le SIO, et permettre de décliner un modèle de données technique
🔸Travailler avec le data steward pour que celui-ci mette à jour les dictionnaires de données (description, traçabilité, règles de gestion métier), les fiches de données... tous les livrables indispensables à la gouvernance
🔸Coordonner avec l'équipe informatique la déclinaison technique des données sur la plateforme Data

Offre d'emploi Data Engineer
AGIL-IT
Publiée le
Ansible
Apache Kafka
Big Data
45k-64k €
Issy-les-Moulineaux, Île-de-France
En tant que consultant Data Engineer, vous interviendrez dans le cadre de projets Big Data en cours ou From Scratch. Vous contribuerez :
- Aux études, à la conception et à l implémentation des projets
- A l’intégration de nouveaux flux en mode batch ou streaming
- A la configuration et optimisation des programmes applicatifs
- A la configuration des outils de restitution, gestion des habilitations, gestion de la sécurité
- A la mise en place de POC sur de nouveaux outils
- A la mise en œuvre des actions correctives à court et moyen terme
- A la rédaction de dossier d implémentation, restitution à la communauté des intégrateurs
- A assurer le RUN des projets passés en production : résolution des incidents niveau 2 et 3, diagnostique et remise en service dans les meilleurs délais

Offre d'emploi Devops Data Cloudera - H/F
ENOV-IT
Publiée le
AWS Cloud
Azure
Big Data
45k-61k €
Paris, France
Vous serez integré à l’équipe Data et aurez la charge du maintien et de évolution de l’infrastructure machine du pôle Data on premise et cloud du client.
Vous participerez au MCO du cluster BigData on premise Cloudera ainsi que ses outils associés
Vous gererez la sécurité et de la sauvegarde du parc machine en partenariat avec le service infrastructure
Vous travaillerez en collaboration avec l’équipe PO sur les sujets d’infrastructure cloud et on permise
Vous aurez pour challenge l’optimisation de l’infrastrucutre et l’automatisation des processus

Mission freelance DATA ENGINEER GCP - JAVA H/F
Squaar
Publiée le
BigQuery
Data Warehouse
Google Cloud Platform
6 mois
500 €
Paris, France
Lieu : Nord de Paris,
TJM : 500€ / Jour,
Rythme : 3/5j de présence sur site par semaine,
Nous recherchons pour notre client un : DATA Engineer GCP - Java H/F dans le cadre d’une mission Freelance de 6 mois minimum.
VOS MISSIONS :
Vous ferez partie d’une équipe DATA d’une dizaine de personnes, vous serez en particulier dédié(e) à un projet lié à la RGPD , puisque vous aurez en charge de garantir la qualité des pipelines, d’ assurer le développement des programmes pour collecter, préparer, transformer et diffuser les données (Java, GCP, DATA plateforme interne).
Bien sûr, vous serez également amené à enrichir la plate-forme Data en assurant les conceptions et développements des pipelines de transformation, comprendre et documenter les sphères de données placées sous votre responsabilité : cycle de vie, modélisation, règles de gestion, qualité, scoring, assurer le maintien en condition opérationnelle des socles Data disponibles et exposer un monitoring quantitatif et qualitatif rendant compte de l’état des Data dans le système
Attention, il est impératif d’être orienté Java et d’avoir participer à des projets liés au : masquage, anonymisation et/ou obscurcissement de données !
VOUS :
De formation Bac +4/5 en informatique et traitement de données en particulier et après 5 ans d’expérience de mise à disposition ET modélisation de données dans un environnement technique similaire = Maîtrise exigée sur :
- Langage: Java
- Environnement Cloud: GCP BigQuery
PROCESS :
Après une visio avec un membre de notre équipe, voici les étapes qui vous attendent :
- Rencontre avec le Head of Data et son Lead
- Décision sous 72h
Envoyez-nous votre CV et si vous profil correspond aux attentes de notre client, vous serez contacté par un membre de l’équipe dans les 24h.
Au plaisir d’évoquer votre projet,
Squaar

Mission freelance Chef de projet - Déménagement Datacenter (H/F)
HR-TEAM
Publiée le
Data Center
1 an
600-640 €
Lyon, Auvergne-Rhône-Alpes
Contexte :
- Déménagement Datacenters
- Actuellement deux Datacenters (1 en propre, 1 externalisé)
- Choix de regrouper chez un seul hébergeur, et de fermer les deux datacenters actuels
Les missions :
Rattaché au responsable du département projet, au sein de la Direction Infrastructure Production, vous aurez pour rôle de :
- Piloter le projet de déménagement
- Assurer le reporting projet
- Garantir l’atteinte des objectifs 2024
- Alimenter le scénario de déménagement, et assurer la bonne exécution
- Assurer la relation avec les sociétés externes impliquées (hébergeur, déménageurs, opérateurs )
- Rendre des comptes au Directeur Infrastructure Production et au DSI
- S’interfacer avec l’ensemble des équipes de la DSI
Environnement :
- Serveurs ESX VMWare
- Architectures Power IBM
- Stockage IBM SVC
- Backup TSM
- Cœurs de réseaux à base de Cisco et Juniper
- Représente une dizaine de baies (hors réseau)

Offre d'emploi Expert modélisation de la Data – 9 ans d’xp – Croix (59)
ARDEMIS PARTNERS
Publiée le
Data analysis
10 mois
45k-60k €
Croix, Hauts-de-France
Contexte / Objectifs :
Notre client est un grand groupe du secteur bancaire, il recherche un Data Business analyst qui accompagne le métier dans le rencensement des données utiles à son besoin exprimé. A partir d’une expression de besoin métier, il traduit le souhait en besoins datas. Pour ce, il doit :
– animer des ateliers métier, comprendre les besoins métier, les challenger
– identifier les données nécessaires à la réalisation de ces besoins, en consolidant l’ensemble des besoins
– Modéliser les données (modèle métier entreprise), en assurant une cohérence globale de ce modèle (consolidation des différents projets)
– Travailler en binôme avec l’architecte de données pour sourcer les données dans le SIO, et permettre de décliner un modèle de données technique
– Travailler avec le data steward pour que celui-ci mette à jour les dictionnaires de données (description, traçabilité, règles de gestion métier), les fiches de données… tous les livrables indispensables à la gouvernance
– coordonner avec l’équipe informatique la déclinaison technique des données sur la plateforme

Mission freelance Data Quality Analyst (H/F) - Tableau / Dataiku
Accelite
Publiée le
Agile Scrum
Analyse
Big Data
1 an
400-500 €
Paris, France
En tant que Data Quality Analyst (H/F), vous intervenez au sein d’un grand compte bancaire pour assurer le développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l’IT), dans un contexte technique complexe, et en méthode agile. Vous assurez le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations.
Les missions sont :
Maitrise Data Quality Management : identification / formalisation des exigences de qualité, mise en place des contrôles et des modalités de suivi de la qualité des données nécessaire.
Maitrise Data preparation : développement de flow de préparation, traitement des données afin d’extraire les données essentielles et optimiser les performances dans la data visualisation.
Maitrise Data vizualisation : Le développement de dashboards mettant en évidence l’état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence.
Meta Data Management : analyse fine et compréhension des data sources et données nécessaire à collecter, traitement pour génération des indicateurs et tableaux de bord.
Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc).
Compétences recherchées :
-Maîtrise Tableau / PowerBI (optionnel)
-Maîtrise Dataiku
-Maitrise Python
-Maîtrise langage SQL (sur PostgreSQL principalement / Oracle / MSSQL)
-Aisance consommation de données sur des systèmes distribués (Kafka, ELK, S3 storage)
-Connaissance en méta data management, type outil Talend Data Catalogue
-Aisance sur les outils agile scrum : Jira / Confluence
-Maitrise de l’anglais

Offre d'emploi Lead Data Scientist
HIGHTEAM
Publiée le
Data science
3 ans
10k-66 800 €
Île-de-France, France
Nous recherchons un Lead data Scientist expérimenté sur les problématiques de prévision, à
l'aise pour mener des discussions avec différents métiers, en capacité de guider des profils
moins expérimentés sur leur pratiques de data science.
- Concevoir et mettre en place de modèles de prévision, à différents horizons temporels, et à différentes granularités, en s'appuyant sur une modélisation probabiliste de la demande
- Concevoir les métriques et protocoles d'évaluations
- Optimiser leur temps d'exécution dans un contexte de très forte volumétrie (plusieurs centaines de millions d'unités de gestion sur lesquelles nous souhaitons avoir des prédictions)
- Assurer l'explicabilité du comportement des modèles
- Intégrer les prévisions à un projet de recherche opérationnelle sur l'optimisation de l'approvisionnement des magasins

Mission freelance Data Engineer Talend
MEETSHAKE
Publiée le
Data science
Data visualisation
Data Warehouse
1 an
500 €
Paris, France
Maintenance des Bases de Données :
- Surveillance régulière des performances des bases de données existantes.
- Identification et résolution proactive des problèmes de performance, de sécurité et de fiabilité des données.
- Optimisation des requêtes et des schémas pour garantir l’efficacité opérationnelle.
- Traitement des incidents liés aux bases de données
Maintenance et Développement des Routines :
- Gestion, débug, amélioration et optimisation des routines existantes.
- Développement de nouvelles routines pour répondre aux besoins spécifiques de l’entreprise.
- Intégration de techniques avancées de Data Science pour améliorer la qualité des routines existantes.
Administration de l’outil de la viz AWS Quicksight :
- Création et gestion des droits d’utilisateur
- Implémentation et maintenance des dashboards
Pilotage de projet DWH

Offre d'emploi Data Engineer AWS H/F - Lyon
HR-TEAM
Publiée le
AWS Cloud
Data analysis
Data Center
45k-70k €
Lyon, Auvergne-Rhône-Alpes
Data Engineer AWS H/F - Lyon
Domaine : Energie
TT : 2 jrs de télétravail par semaine.
Vous souhaitez évoluer dans le domaine passionnant du traitement de données ? Nous recherchons un Data Engineer pour intégrer notre équipe Data en pleine croissance, travaillant sous la supervision directe du Responsable du Développement.
À propos de nous :
Nous sommes une équipe Data composée de 5 experts, incluant un Data Engineer Sénior, un Tech Lead Dev, un Dev sénior, un Dev junior et un MOA. Nous travaillons sur un produit emblématique dans le secteur de l’énergie, passant d’une application monolithique à une architecture en microservices et cloud.
Responsabilités :
En binôme avec notre Data Engineer Sénior, vous serez responsable de la création de pipelines pour diviser notre Data Lake en Data Marts distincts. Ces Marts comprendront trois zones de traitement : Bronze (données brutes), Silver (données retouchées) et Gold (données extraites selon les besoins spécifiques des clients).
Si vous êtes passionné par l’exploration et la transformation de données complexes, et que vous souhaitez contribuer à la transition de notre produit phare vers une architecture moderne en microservices, rejoignez-nous !

Mission freelance PRODUCT OWNER DATA - CRM RGPD
PRIMO CONSULTING
Publiée le
CRM
Data visualisation
Rgpd
2 ans
500-630 €
Paris, France
Contexte et objectifs de la prestation
La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus.
Contexte :
La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision.
Dans une volonté d’accélérer sur la personnalisation de l’expérience utilisateurs, nous avons besoin d’être accompagnés sur une mission de Product Owner Data pour l’équipe Domain Personnalisation; équipe dédiée et en charge de cadrer et délivrer les cas d’usages pour personnaliser l’expérience utilisateurs.
Cette équipe est composée d’un Product Owner, d’un Data Steward, d’un Data Analyst et deux Data Ingénieurs. Nous attendons du Product Owner Data qu’il pilote les activités de cette équipe et prenne en charge l’environnement existant.
Missions de cette équipe
1. Prendre en charge l’environnement dédié dans le build et le run, comme par exemple :
a. La construction de nouveaux indicateurs issus de nouvelles sources ou de sources existantes
b. La mise à jour d’indicateurs (suite à des évolutions de plan de marquage par exemple)
c. Le traitement des anomalies et leur résolution
2. Mettre en place le contrôle qualité sur les données et les use cases livrés
3. Définir le périmètre d'intervention de l’équipe et le mode de collaboration avec les autres équipes Produit Data
La prestation consistera à participer à la :
1. Collecte et la priorisation des besoins :
• Cadrer les besoins et les objectifs pour et avec chaque partie prenante
• Identifier les améliorations en continue sur les produits et processus de l’équipe
2. Gestion du Backlog :
• Coordonner les différentes étapes de développement, de l'idéation à la réalisation
• Rédiger les user stories en fonction des besoins
• Prioriser et hiérarchiser les différentes fonctionnalités du produit à développer
• Accompagner les équipes techniques pour garantir la qualité du produit et la valeur apportée aux utilisateurs
• Améliorer l’exploitation et le maintien des produits en production
3. Définition et communication de la vision produit :
• Définir et maintenir une roadmap à jour avec les jalons clés et coordonner les différentes parties prenantes
• Animer et communiquer sur les évolutions liées à la vision du produit
4. Collaboration avec des équipes pluridisciplinaires suivantes :
• les équipes de développement
• les Chefs de Projet de la direction du Numérique
• l’équipe Big Data
• l'équipe User Data
• les équipes CRM et acquisition
• les équipes Produits numériques
• les Chef de Projets qui pilotent des projets liés au RGPD

Mission freelance Data scientist / Analyste de données expérimenté
Sap-Hire
Publiée le
Data analysis
Data management
Data science
6 mois
400-550 €
Auvergne-Rhône-Alpes, France
Pour le compte de notre client basé sur Clermont-Ferrand, nous recherchons le profil suivant, pour une mission de longue durée (6 mois +)
Data Scientist / Analyste de données - 3 jours par semaine sur site
Le consultant devra :
Développer et maintenir des algorithmes et produits digitaux d’analyse de données, avec une implication dans les phases de collecte du besoin et de validation.
Assurer ses activités dans le respect des principes de cybersécurité formalisés dans la Politique de Sécurité du
Système d’Information (PSSI) du groupe
S’engager à connaître et à appliquer les règles et les consignes de sécurité conformément à la Politique de Sécurité
Responsabilités
Conceptualise et développe des algorithmes et produits digitaux d’analyse fonctionnels et efficaces.
Réalise en autonomie et avec rigueur scientifique des preuves de concept et prototypes
Participe à la proposition de création de valeur par des Produits digitaux sur la base de besoins spécifiés ou identifiés
Contribue à la vision, à la définition de la roadmap et à l’évaluation de la valeur du produit et de ses évolutions pour ses utilisateurs
Fait office de réfèrent dans le domaine l’analyse de données, en conséquence il est responsable de la pérennisation de ses compétences, leurs mises à jour et leur formalisation, leur diffusion notamment au travers de sa disponibilité pour intervenir au sein du groupe.
Activités dominantes
Conception et propriétaire de produits digitaux d’analyse de données
Recueille des besoins et/ou identifie des opportunités en produits d’analyse de données auprès de clients internes.
Propose et conçoit des solutions algorithmiques et techniques répondant à ces besoins-opportunités.
Implémente et développe (sous forme de code informatique) des preuves de concept et prototypes mettant en œuvre les solutions retenues
Valide ces prototypes au regard de leurs performances et de la satisfaction des besoins clients.
Développe la solution validée (sous forme de code informatique) et accompagne son industrialisation en conformité avec les standards de développement métier IT.
Assure le suivi et le maintien de cette solution sous forme de produit, ainsi que de ses performances/qualité.
Contribuer à la Vision et à l’Innovation
Contribue à la définition des roadmaps du pôle d’analyse de données à différentes échéances
Assure une veille et teste proactivement des opportunités d’innovations sur son domaine (analyse de
données) permettant le traitement de cas d’usage métier.
Assure une veille sur les technologies liée à l’exercice de son métier (langages, librairies, technologies, etc).
Savoir-faire / expérience requise
Pratique de langages de programmation et d’analyse (e.g. R, Python, etc)
Connaissance des méthodes de modélisation statistique prédictive et d’apprentissage machine, et pratique
des librairies associées (e.g. Scikit-Learn, Keras, PyTorch, etc).
Expérience de plus de 3 ans dans le domaine de l’analyse de données
Connaissance de standards de développement IT du type DevOps/MLOps/Git/CD-CI.
Familiarité avec des méthodes de gestion de projet
Anglais courant
Savoir-être
Orientation résultat/pragmatisme
Sens des priorisations et autonomie
Curiosité scientifique
Esprit collaboratif
Pédagogue et aisance communicationnelle
Capacité à influencer et convaincre
Aisance relationnelle et Ouverture d’esprit
Respect du code de conduite et des règles/standards liées au domaine IT (Cybersécurité, etc).
Critères de performances
Livraison de produits conformes aux cahiers des charges à l’échéance, en particulier quant à leurs aspects
fonctionnels, performances de calcul, robustesse.
Performances prédictives des outils tels que mesurés par des métriques classiques (déviations prédit vs
observé, corrélations, etc) en cohérence avec les besoins opérationnels exprimés.
Taux d’adoption/succès de diffusion et d’utilisation des produits proposés auprès des clients
Satisfaction client (mesure qualitative, par exemple par les retours métiers ou du marché).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !