Trouvez votre prochaine offre d’emploi ou de mission freelance Statistiques
Votre recherche renvoie 72 résultats.
Mission freelance
Data Scientist Senior – Recommandation d’offres
emagine Consulting SARL
Publiée le
Google Cloud Platform (GCP)
Statistiques
36 mois
Roissy-en-France, Île-de-France
Contexte Dans le cadre d’un projet stratégique pour un grand groupe, vous interviendrez au sein d’une équipe Marketing Data sur le développement d’un moteur de recommandation d’offres visant à personnaliser les propositions faites aux clients grâce à l’analyse avancée de la donnée. Objectifs Identifier les offres les plus pertinentes selon le profil client Améliorer l’expérience utilisateur Renforcer la pertinence des campagnes marketing Augmenter la conversion commerciale grâce à la data Missions Concevoir, développer et améliorer des modèles statistiques et de machine learning Proposer de nouvelles approches de modélisation Analyser et interpréter les résultats des modèles Présenter les résultats aux équipes métier et chefs de projet Collaborer avec des équipes data et business dans un environnement international
Mission freelance
Responsable d'études statistiques
Codezys
Publiée le
autonomie
SAS
12 mois
Paris, France
Résumé du poste de Responsable d'études statistiques / Chargé d’études statistiques et de pilotage : Une grande entreprise d'assurance située à Paris recherche un professionnel avec au moins 5 ans d’expérience dans un rôle similaire pour assurer la gestion et l’amélioration du RUN de ses reportings, dans un contexte de transformation numérique et d’optimisation des processus. Objectifs principaux : Gestion et mise à jour du RUN : Mettre à jour les indicateurs et garantir la cohérence des données. Finaliser la cartographie et sécuriser la documentation. Proposer des améliorations pour rationaliser les sources et optimiser les traitements et restitutions. Pilotage d’un périmètre défini : Réaliser un état des lieux, identifier les axes d’amélioration et proposer des scénarios d’optimisation. Documenter les processus et mettre en œuvre la solution choisie, tout en sécurisant le dispositif. Rationalisation et automatisation des reportings : Automatiser et rationaliser les reportings existants. Développer des processus standards pour la création et la livraison des nouveaux suivis, incluant la compréhension métier, la validation des bases, l’ergonomie, la documentation, et les contrôles. Amélioration continue : Proposer des innovations, faire preuve de curiosité analytique, et contribuer à la transformation des pratiques de pilotage. Participer à l’évolution des dispositifs de reporting et d’analyse.
Offre d'emploi
Responsable d'études statistiques - SAS, Power BI
KEONI CONSULTING
Publiée le
Reporting
Run
SAS
18 mois
20k-60k €
100-500 €
Paris, France
CONTEXTE Nous recherchons un(e) Chargé(e) d'études statistiques et de pilotage. Rejoignez une équipe de 7 collaborateurs au sein de l’équipe Pilotage et Reporting Omnicanaux. MISSIONS : • Prendre en charge la mise à jour du RUN o Assurer la mise à jour ad hoc des chiffres o Apporter des précos sur les optimisations possibles des reportings (compétences SAS, Power BI, rationalisation de la source et de la cible) o Finaliser la mise à jour de la cartographie du RUN et de la normalisation de la documentation • Pour un périmètre défini par le responsable du service : o Prendre en charge le RUN o Faire un état des lieux du périmètre confié o Apporter un ou plusieurs scénarios d’optimisation et refonte o Documenter les sources de données, process de mise à jour et règles de calcul o Mise en œuvre à la mise en place du scénario choisi Vous interviendrez, en collaboration avec l’ensemble de l’équipe sur des sujets variés tels que : • La rationalisation et automatisation des reportings d’activité et de production à destination de nos différentes Direction • La mise en place de process standard visant à développer et livrer les nouveaux suivis dans le respect de la cible définie (compréhension du contexte, sécurisation et validation de l’EDB ergonomie du suivi, documentation, définition des contrôles et back up, analyse des chiffres…) En faisant preuve de proactivité et curiosité, et dans une démarche d’amélioration continue PROFIL & COMPETENCES Une expérience MINIMALE de 5 années dans une fonction similaire est indispensable. SAS, Power BI
Mission freelance
Senior Digital Analyst
CAT-AMANIA
Publiée le
Databricks
Python
SQL
1 an
100-550 €
Île-de-France, France
Nous recherchons un Senior Digital Analyst pour accompagner notre équipe Produit Checkout, afin de piloter la prise de décision basée sur la donnée et d’améliorer l’expérience de paiement. L’équipe Digital Analytics permet une prise de décision éclairée sur l’ensemble de l’e-commerce, en fournissant des résultats plus rapides, plus pertinents et plus efficaces. Nous produisons des insights actionnables et des cadres de mesure scalables pour maximiser l’impact des produits digitaux. • Analyser & optimiser Réaliser des analyses approfondies afin d’évaluer l’impact des évolutions produit, des tests A/B et des optimisations sur les principaux indicateurs de performance du checkout. • Aide à la décision stratégique Fournir des analyses basées sur la donnée pour orienter la roadmap produit et aider les équipes à prioriser les initiatives ayant le plus fort impact business. Synthétiser les résultats sous forme de recommandations claires, concrètes et actionnables pour améliorer la performance produit et les résultats business. • Collaboration avec les parties prenantes Travailler en partenariat avec les équipes produit pour définir les indicateurs de succès, produire des analyses pertinentes et influencer la prise de décision aussi bien auprès d’équipes techniques que non techniques. • Stratégie de collecte de données Définir et faire évoluer les besoins de tracking afin de garantir une collecte de données fiable et précise. Travailler avec les équipes d’ingénierie et de data pour valider l’implémentation du tracking et assurer l’intégrité des données.
Offre premium
Mission freelance
Administrateur de solutions d’IAM
LOGIC SA
Publiée le
Apache Tomcat
API REST
ForgeRock
14 mois
550-600 €
Noisy-le-Grand, Île-de-France
Description des prestations Livrables et résultats attendus Réaliser l’administration de nos solutions IAM, principalement en traitant les demandes relatives à nos différentes offres de services. § Traiter toutes les demandes de delivery de nos solutions IAM dans les délais impartis § Fournir les comptes rendus des ateliers réalisés avec les clients pour les demandes de delivery complexe. § Fournir de manière mensuel les statistiques de traitement des demandes. Assurer le premier niveau de support à nos utilisateurs, principalement en traitant les incidents remontés ou la gestion des problèmes. § Assurer le support N1 des solutions actuellement utilisées. § Réaliser les escalades aux niveaux de support supérieur quand cela est nécessaire. § Fournir de manière mensuel les statistiques de traitement des incidents et des problèmes. La mise en place de documentations techniques permettant d’améliorer les actions d’administration. § Fournir ou faire évoluer les documentations relatives à l’administration des solutions actuellement utilisées.
Mission freelance
Data Engineer (H/F)
HAYS France
Publiée le
Architecture
AWS Cloud
Azure
6 mois
450-600 €
Monaco
Le poste consiste à concevoir et construire une plateforme data complète , utilisée pour : Collecter en temps réel les données des machines à sous Stocker et structurer ces données (ODS / DWH) Générer des statistiques réglementaires pour les autorités Analyser le chiffre d’affaires et les performances des machines et jeux Alimenter les outils anti‑fraude et AML Mettre en place une gouvernance data solide Architecture & Conception Data Engineering – Implémentation Structuration & bonnes pratiques Collaboration avec les équipes internes
Mission freelance
Data Scientist Python, Tensorflow Nantes/st
WorldWide People
Publiée le
Python
12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Mission freelance
Data Analyst confirmé Powerbi, SQL, Python Nantes/st
WorldWide People
Publiée le
Data analysis
12 mois
320-350 €
Nantes, Pays de la Loire
Data Analyst confirmé Powerbi, SQL, Python Nantes Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données. 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Powerbi, SQL, Python Prestation Data Analyst confirmé (Min 3 ans exp sur la fonction) Tâches : • apporte un appui analytique à la conduite d’exploration et à l’analyse complexe de données Métiers permettant de fournir des indicateurs concrets. • identifie les données les plus intéressantes et les rends exploitables (structuration, normalisation, documentation) • assure la qualité et la fiabilité de ces données. • dégage des logiques de génération d’indicateurs pour les Métiers. • dégage des tendances en utilisant ses compétences statistiques. • conçoit les tableaux de bord nécessaires à la restitution des différents indicateurs sous la forme de Data visualisation. Compétences Technique : • Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données.
Offre d'emploi
Consultant BI/Talend H/F
HAYS France
Publiée le
35k-38k €
Villeurbanne, Auvergne-Rhône-Alpes
Vos missions sur ce poste ; L'objectif est de recueillir et d'organiser les données liées au catalogue produit de l'entreprise afin de les rendre exploitables par un ensemble d'applications. Vous organisez le stockage des informations en provenance de différents fournisseurs de contenu. Vous structurez la base de données et offrez une architecture permettant la manipulation des données et la restitution de manière fiable et rapide. Comprendre et recueillir les besoins du projet Proposer des solutions adaptées en fonction de la demande et des contraintes techniques en collaboration avec le gestionnaire de base de données Réaliser des extractions et transformation de données, générer des statistiques Croiser différentes sources de données afin de retrouver les articles équivalents entre eux mais aussi les associations articles / véhicules avec exactitude.
Offre d'emploi
Problem manager
OBJECTWARE
Publiée le
Incident Management
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e problem manager. Vos missions seront : Assurer le respect du processus et des procédures par l’ensemble des équipes d’un grand groupe Assurer l'efficacité et la performance des processus Élaborer et suivre les indicateurs garants de l'efficience des processus Assurer l'information des équipes relative aux processus Suivre et analyser les indicateurs afin de remonter les alertes sur les écarts éventuels Participer et animer des réunions périodiques de gestion par process Analyse de l’évolution des incidents et des problèmes et définition des plans d’actions associés avec les équipes Proposer des actions d'amélioration des processus à partir de l'analyse des indicateurs de performance Vérifier la traçabilité des incidents et des problèmes ainsi que la qualité de saisie des tickets Assurer avec les équipes de reportings la production des éléments de Reporting Statistiques Incidents & problèmes Management (quotidien, hebdomadaire, mensuel) tel que défini, à l’attention des clients et de la hiérarchie, dans les délais déclarés pour la production de ceux-ci Établir des rapports périodiques (hebdomadaire, mensuel, annuel) sur le traitement des incidents et réaliser des analyses des causes, impacts et récurrences Effectuer des rapports à la demande selon les besoins Proposer des actions correctives et préventives Améliorer de manière continue la qualité des prestations Participer à la définition des évolutions de l'outil de gestion des problèmes Entretenir avec toutes les équipes du groupe les meilleures relations de communication technique
Mission freelance
247662/Product Owner Technique Nantes Backlog Gitlab
WorldWide People
Publiée le
Backlog management
6 mois
350-400 €
Nantes, Pays de la Loire
Product Owner Technique Nantes Backlog Gitlab Contexte de la mission En tant que Product Owner vous intègrerez une équipe de 20 personnes et vous aurez tout particulièrement à moderniser l’offre de services autour des outils GITLAB, Artifactory et Mattermost, outils socles du cycle de développement afin d’améliorer et optimiser les services mis à disposition de toutes les équipes de développement de la direction. Priorisation de la backlog Rédaction de users stories Participation à la définition des feuilles de route Communication auprès des utilisateurs Identification des mesures d’impacts Coordonner les travaux internes et externes au département Objectifs et livrables Rédaction de User Story Evaluer les hypothèses fonctionnelles Rédaction de critères d’acceptation Analyse statistique Compétences demandées Compétences Niveau de compétence rédaction user stories Confirmé Connaissance DE Scrum et DE la méthodologie Agile Expert backlog Confirmé GITLAB Confirmé
Mission freelance
Consultant Actuariat Partie inventaire
CS Group Solutions
Publiée le
kelia
12 mois
Paris, France
Consultant actuariat, profil ayant fait des travaux d’inventaire. La mission porte sur la mise en place de bulletin de situation dans le cadre de la migration de KELIA. Le client recherche un profil ayant fait de l’inventaire. Le programme Epargne Client IT est composé de plusieurs projets organisés en filières permettant de mettre en place un nouvel écosystème épargne avec l'intégration d'un nouvel outil de gestion (Kelia). Le programme Client Epargne poursuit un double objectif : 1. Le lancement de "nouvelles offres Epargne" en intégrant le nouvel outil de gestion dans le SI MH 2. Une convergence des outils legacy de l'épargne Le programme est organisé en plusieurs filières : gestion, relation client, front, data... Dans le cadre de la convergence, le programme de migration est axé sur plusieurs chantiers. Le chantier Migration se décompose en : - l'usine de migration des données - les recette des données - La fiabilisation / Change La mission a pour objectir d'accompagner le programme de migration autour de la certification des données calculatoires à travers - La prise en charge des recettes calculatoires (autour des TFA & recette dynamique ) - L'analyse des points d'écarts rencontrés Description Intervention dans les analyses des calculatoires entre l'existants et la cible Identification de solution pour minimuser les impacts techniques Livrables Rapport d'analyse / Suivi des TFA Tables de mortalité / taux de sinistres / provisionnement. Supports de décision (rapport, dashboards). Compétences Très bonne maîtrise des statistiques, probabilité, actuariat. Maîtrise des outils analytiques / de modélisation (R, Python, SAS…). Connaissance réglementaire et financières. Capacité de communication des résultats complexes. Connaissance de l'outil KELIA serait un plus Esprit critique, précision, rigueur. Compétences clés KELIA assurance Retraite Epargne Colletive
Offre d'emploi
Data Analyst Senior H/F
SMARTPOINT
Publiée le
Git
PySpark
Python
12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Analyse et compréhension des besoins Comprendre et modéliser les problématiques métiers et celles du pôle. Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques. Élaborer un plan d’analyse des données adapté aux besoins métiers. Data science et modélisation Concevoir et développer des modèles de machine learning . Mettre en œuvre des techniques statistiques et de data mining . Optimiser les modèles de données des projets data. Développer et maintenir des scripts Python optimisés . Exploitation et valorisation des données Analyser les données et interpréter les résultats pour les métiers . Conceptualiser des solutions autour de problématiques opérationnelles. Formaliser les résultats d’analyse et les présenter aux équipes métiers. Mettre en évidence la valeur des actions proposées. Visualisation et restitution Concevoir des visualisations de données adaptées aux besoins métiers . Produire éventuellement des visualisations cartographiques . Rendre les résultats lisibles, exploitables et actionnables. Collaboration et industrialisation Créer les tables et vues nécessaires aux projets data . Collaborer avec les équipes Data Ops pour l’industrialisation : collecte de données traitements supervision restitution Estimer la charge des traitements techniques et des développements. Recommandations et amélioration Être force de proposition sur les actions à mettre en œuvre. Formuler des préconisations opérationnelles basées sur les analyses.
Mission freelance
ADMINISTRATEUR SYSTÈMES LINUX & EXPERT ITOP
CESI-CONSULTING
Publiée le
Administration linux
Administration système
Cloud
6 mois
La Défense, Île-de-France
Au sein d'une équipe de 10 ingénieurs et sous la responsabilité du manager RUN, la mission consiste à assurer l'administration et l'évolution des différentes architectures existantes (serveurs, stockage, virtualisation, industrialisation) afin de garantir un haut niveau de disponibilité de la production. Le poste est partagé entre l'administration et l'expertise de la solution ITOP (ITSM) et l'exploitation/production des environnements Linux et cloud. Tâches à réaliser : Administration et expertise de la solution ITOP (Designer). Évolution et optimisation de la plateforme ITOP. Développement de modules et personnalisations ITOP. Formation et support aux équipes sur l'utilisation d'ITOP Intégration d'ITOP avec les autres outils du SI. Gestion des workflows et processus ITIL dans ITOP. Administration des serveurs Linux RedHat et des environnements OpenShift. Administration des environnements cloud. Prise en charge et gestion des incidents de niveau 2 et 3. Analyse de données et de logs. Analyse et debug d'incidents complexes. Développement d'outils pour automatiser certaines tâches (déploiement, administration, ticketing, rapports de statistiques et d'incidents). Rédaction de procédures (métier, utilisation d'outils, procédures de niveau 1, 2 et 3). Mise en place de surveillances système et monitoring. Rédaction des consignes liées à la production. Suivi des projets et reporting auprès du Manager. Référent technique sur ITOP et les technologies Linux/OpenShift. Participation à l'amélioration continue des processus d'exploitation. Animation de webinars et sessions de partage de connaissances Mentorat des membres juniors de l'équipe.
Offre d'emploi
Data Scientist spécialisé dans les enquêtes/sondages - F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
[SCH] Product Owner Technique - 1367
ISUPPLIER
Publiée le
10 mois
350-400 €
Nantes, Pays de la Loire
Intégration d’une équipe d’environ 20 personnes pour moderniser l’offre de services autour des outils socles du cycle de développement : GitLab, Artifactory et Mattermost. Objectif : améliorer et optimiser les services mis à disposition des équipes de développement (adoption, qualité de service, cohérence, performance, impacts). Mission : -Prioriser et piloter le backlog (valeur, dépendances, capacité, arbitrages). -Rédiger les user stories et critères d’acceptation (DoR/DoD si applicable). -Participer à la définition des roadmaps et à la communication produit. -Animer la relation utilisateurs : besoins, irritants, feedback, adoption. -Mesurer l’impact (KPI/usage/SLA/qualité) et produire une analyse statistique simple. -Coordonner les travaux internes/externes (équipes techniques, fournisseurs, sécurité, exploitation). Profil attendu : -PO à l’aise dans un contexte outils DevOps/DevTools (GitLab, Artifactory, Mattermost). -Très bon niveau Agile/Scrum : refinement, priorisation, cadrage, release planning. -Capable de formaliser des US claires avec critères d’acceptation et de piloter la livraison. -Orienté service et adoption : communication, conduite du changement, support aux utilisateurs. -À l’aise avec des KPI (usage, satisfaction, incidents, performance, time-to-deliver).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
72 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois