Trouvez votre prochaine offre d’emploi ou de mission freelance Data science à Paris

Votre recherche renvoie 80 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance Développeur en data science Python / Spark / AWS

Signe +
Publiée le

2 ans
400-500 €
Paris, France

Description détaillée 1. Technical Skills : - Proficiency in programming languages likeProficiency in programming languages like Python and R. - Strong understanding of statistical analysis, machine learning algorithms, and data modeling techniques. - Exprerience with data manipulation and visualzation libraries such as Pandas, NumPy - Knowledge of big data technologies like Hadoop, Spark, or Hive. - Familiarity with database systems like SQL and NoSQL - Expertise in data mining, cleaning, and processing techniques. 2. Domaine of Knowledge : - Understanding of the Energy domain and industry-specific challenges. - Knowledge of various data soruces data collection methods - Ability to translate business requirements into data-driven solutions 3. Machine Learning Deployement and Operations : - Proficiency in deploying machine learning models to production environments on AWS. - Understanding of containerization technologies like Docker and container orchestration platforms like Amazone ECS (Elastic Container Service) or Kubernetes 4. Data Engineering concepts : - Knowledge of data engineering concepts and tools for data ingestion, transformation, and storage. - Expérience with distributed computing frameworks like Apache Spak for prcessing large-scale datasets. - Familiarity with data pipeline orchestration tools such as AWS Step Functions 5. Soft Skills : - Strong analytical and problem-solving skills. - Effective communication skills to explain complex technical concepts to non-technical stakeholders. - Ability to work in cross-functional teams and collaborate with colleagues from different backgrounds

Freelance
CDI

Offre d'emploi Lead Data Scientist (h/f)

HR-TEAM
Publiée le
Data science
Hadoop
Python

12 mois
60k-70k €
Paris, France

Nous recherchons un Lead Tech Data Scientist pour intervenir sur un projet à forte valeur ajouté. Contexte : Contexte organisationnel : Au sein de la tribu DATAFACTORY, Squad Usages DATA & IA Contexte Projet : Moteur de recommandation (Next Best Offer) Dans le contexte d'un marketing customer-centric dont l’objectif n’est plus de créer des segments uniformes mais de comprendre les besoins et les comportements des clients pour promouvoir des offres et des produits personnalisés. Tâches : • Organiser et piloter la fabrication du projet dans sa composante développement et industrialisation (définition des US en coordination avec le lead data science, le business analyst, chiffrages, priorisation en appui du PO). • Prendre part à la fabrication du projet (entre 60% et 80% selon les phases): en coordination avec les nombreuses parties prenantes : - avec les squads "fabricantes" du projet (Pole Produit data / Squad Usages DATA & IA, Pole Produit Marketing Communication, autres ...) - avec les experts référents (architecture, devops, sécurité, tests, ...) - avec les partenaires internes au Groupe • Faire de la pédagogie notamment lors des cérémonies agiles type démo, pour présenter l’avancée des travaux d’un pt de vue utilisateur et métier, en binôme avec le lead data science et la Business Analyst. • Contribuer à la monter en compétence sur la data ingénierie les ML ingénieurs internes + junior de la Squad Usages IA

Freelance

Mission freelance Product Manager confirmé en Data & IA (H/F) – PARIS

Espace Freelance
Publiée le
Agile Scrum
Data science

3 mois
100-3k €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Product Manager confirmé en Data & IA (H/F) – PARIS Mission à pourvoir en régie sur Paris Présence sur site : 3 jours / semaine Compétences obligatoires : Data science ; Data ; BI ; Agile ; Maitrise des concepts data et machine learning Votre mission : - Elaborer la roadmap et planification des futurs versions du produit en adoptant une stratégie user-centric - Identifier et prioriser les besoins utilisateurs et business des utilisateurs - Fournir des user stories - Gérer le backlog produit - Prioriser les fonctionnalités du produit en recueillant le feedback utilisateur et en menant des ateliers avec les développeurs, le business et les métiers - Méthodologie scrum et agile REF : EFP/PMDIA/ODVB Plus d’offres sur :

Freelance
CDI

Offre d'emploi BUSINESS ANALYST

UCASE CONSULTING
Publiée le
Data science

6 mois
10k-178k €
Paris, France

Bonjour à tous, Je suis à la recherche pour un de mes clients dans le domaine de la banque/Finance un consultant Business Analyst : Accompagner les métiers dans leur demande de reporting : recueil de besoin, spécifications, data modélisation, testing 2. Accompagner la transformation Data au sein en apportant une expertise modern Data Les compétences recherchées : Une forte culture data Forte compétences Data Analyse et BI Une connaissance des nouvelles façons de travailler avec la donnée Compétences d’organisation et suivi de projets.

CDI
Freelance

Offre d'emploi Data Scientist - Digital In store

CAPEST conseils
Publiée le
Data science

24 mois
15k-200k €
Paris, France

Votre futur rôle en tant que Data Scientist : En qualité de Data Scientist, vous serez amené(e) à : Travailler en étroite collaboration avec les Product Managers et les Data Engineers pour identifier les opportunités commerciales à fort impact, exploiter les données pour évaluer les résultats, et contribuer à la planification stratégique ainsi qu'à la feuille de route de l'équipe en matière de Machine Learning. Concevoir et développer des systèmes d'apprentissage automatique novateurs et industrialisés. Élaborer des systèmes intelligents de surveillance en temps réel et d'observabilité des données. Définir les cadres de fonctionnement pour nos pipelines en production (astreintes, procédures, SLO/SLA, ...). Participer au partage des meilleures pratiques sur les outils de Machine Learning afin d'améliorer la productivité et la qualité des résultats pour les ingénieurs et les scientifiques de toutes les équipes. Encadrer, mentoriser et recruter d'autres membres pour favoriser l'efficacité et la croissance de l'équipe.

Freelance

Mission freelance Expert Power BI (H/F)

LeHibou
Publiée le
Data visualisation
Microsoft Office
Microsoft Power BI

6 mois
490-650 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un Expert Power BI H/F Descriptif de la mission: Notre client grand compte recherche un expert Power BI. L'objectif de ce projet est de développer un outil digital transverse pour capitaliser et partager les connaissances au sein de la communauté afin de faciliter l'activité de benchmark et d'aide aux décisions d'investissement. Le candidat aura pour mission de structurer et consolider une plateforme multidisciplinaire sous Power Bi sous la supervision de l'équipe d'étude de développements. Le service demandé couvrira les parties suivantes : 1. AMOA : ➢ Finalisation de l’expression de besoins, la rédaction des exigences et l’analyse de l’existant en termes de sourcing et d’outils similaires 2. MOE : ➢ Proposition d’architecture technologique qui tient compte de l’environnement technologique ➢ Mise en œuvre et développement de la solution retenue 3. Encadrement d’une ressource stagiaire (profil Data Analyst)

Freelance

Mission freelance Data analyst

PARTECK INGENIERIE
Publiée le
Data analysis
Google Analytics
Python

6 mois
460-550 €
Paris, France

Vous interviendrez chez nos clients et avec l’appui de collaborateurs Data, en travaillant à la mise en place d’outils de BI reporting, pour une optimisation des performances business, de valorisation des données clients en insights pour une meilleure prise de décision, ou d’analytique prédictif pour une identification des poches de croissance. Pour cela, vous travaillerez étroitement avec les parties prenantes : · Sur la compréhension fonctionnelle de leurs projets, au travers d’ateliers de spécification, mais aussi d’itérations successives sur les analyses menées · Vous mènerez des études basées sur la data afin de concevoir, proposer et présenter les meilleures solutions pour mener à bien leurs projets et faciliter la prise de décision · Vous développerez avec méthode et documentation ces projets, jusqu’à leur industrialisation opérationnelle et le support nécessaire à la vie du produit · En interne, vous contribuerez à la veille collective et à l’émulation commune, lors de nos journées de partage, à la rédaction d’articles, ou à la participation à des projets internes. · Vous parlez anglais couramment · Data visualisation : Vous avez eu une expérience sur une ou plusieurs des solutions de data visualisation suivantes : PowerBI, Looker Studio, Tableau · Web Analytics : vous avez eu une expérience avec un outil de Web Analytics (Google Analytics 4, Adobe Analytics…) et idéalement avec un outil de Tag Management System (Google Tag Manager, Matomo, Tealium…) · Cloud : Vous avez idéalement une connaissance des provider(s) cloud et sa/leur stack data : AWS (S3, Glue, …), GCP (Cloud Storage, Big Query, Cloud SQL, …), Azure (ADLS, Synapse, Stream Analytics) · Coding : SQL, Python, Dax (PowerBI) · Vous êtes intéressé(e) par les sujets autour de l’IA : Large Language Models (LLM), modèles de prédiction, impacts sociétaux et environnementaux

Freelance
CDI

Offre d'emploi Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi Data Engineer / cube OLAP / cach in memory / base de données distribuée

Digistrat consulting
Publiée le
Big Data
Java

3 ans
40k-60k €
Paris, France

💼 Poste : Data Engineer / cube OLAP / cach in memory / base de données distribuée 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins.Dans le cadre d'un projet de migration de la solution du in memory cach distribué vers une solution de cube OLAP, notre client recherche un Data Engineer avec une forte expertise dans les applications à faible latence / data driven design / 🤝 Expertises spécifiques : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops. but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Big data Java core Multithreading Apprécié Apache ignite ou Active Pivot Apprécié Technologies Devops Apprécié clickHouse Apprécié

Freelance

Mission freelance Data Engineer

INFOTEL CONSEIL
Publiée le
Big Data

1 an
260-2 500 €
Paris, France

Nous cherchons pour l'un de client dans le secteur public Bancaire un Data enginner pour intégrer un un projet « Mieux évaluer et mieux prévenir les risques pour le système financier ». L’analyse du fonctionnement de la sphère financière et en particulier l’identification et la quantification des risques sont au cœur des missions du Pôle de Stabilité Financière. Ces travaux alimentent les échanges et les prises de décision au sein des enceintes françaises, européennes, et internationales de stabilité financière ainsi que les groupes de travail internationaux et les publications académiques. Dans ce contexte, le projet vise à fournir les données, les infrastructures de stockage et de traitement et les outils analytiques, en s’appuyant sur le projet DGSI Data Plateforme

Freelance

Mission freelance Data Quality Manager (H/F)

Mindquest
Publiée le
Data management

3 mois
100-450 €
Paris, France

Data quality : Collaborer avec les Data owner pour développer et mettre en œuvre des procédures, des normes et des KPI de qualité de données pour IDQ et ses sources de données. Surveiller, analyser et rendre compte des indicateurs de qualité des données, en garantissant le respect des réglementations en matière de sécurité et de confidentialité des données. Participer aux efforts continus pour assurer la qualité des données et la conformité aux politiques et réglementations en matière de gouvernance des données. Apporter aux membres de l’équipe une assistance et des conseils techniques sur l’outil IDQ. Mettre en place et suivre le déploiement des plans de mise en qualité de la donnée de chaque projet (des normes et processus de gestion) Être garant de la qualité de la donnée et avoir la charge d'optimiser la complétude, la conformité et l'intégrité de la donnée en mettant en place des outils d'analyse/recommandation/visualisation permettant d'animer et challenger les stakeholders concernés (internes/externes). Diagnostiquer les problématiques de non-qualité et initier les actions correctrices (analyse des causes de non-qualité). Contribuer à la conception et suivre l'exécution de la feuille de route « Qualité des données » Maitriser le fonctionnement et maintenir la solution IDQ Informatica et développer les modules spécifiques Documentation : Documenter, définir et développer les efforts d'amélioration de la qualité des données en collaboration avec les équipes techniques et toutes les parties prenantes. Maintenir une documentation précise des processus et modes opératoires liés à la mise en qualité des données Documenter et mettre à jour le dictionnaire de donnée afin de garantir la qualité des données sur le long terme Data gouvernance : Élaborer et mettre en œuvre des politiques de gouvernance des données, Gérer certains projets liés à la gouvernance des données de bout en bout, contribuer à d'autres.

CDI

Offre d'emploi Data Analyst Epxert SAS (H/F)

Accelite
Publiée le
Alteryx
Analyse
Data analysis

40k-50k €
Paris, France

En tant que Data Analyst Expert SAS (H/F), vous intégrez la filiale d’un grand compte bancaire, afin de fournir les moyens de contrôler, analyser, piloter l’activité de plusieurs métiers (marketing, finance, Retail Global Operations ). Vos activités principales consisteront à accompagner les métiers dans l’analyse de leurs besoins, à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction ), à leur fournir des recommandations et des analyses basées sur leurs données via votre expertise SAS. Votre périmètre recouvre l’ensemble des données de l’activité de cette filiale (Drive, Cleva, Coda, ). Les outils utilisés afin de répondre aux besoins sont OBIEE Analytics, SQL, SAS, mais aussi Tableau et Dataiku. Vous travaillez au quotidien avec les collaborateurs de toutes les directions. À titre d’exemple, voici des études ou reportings / extractions qui pourraient vous être demandés : -Réaliser des études de fréquences liées à la rentabilité des véhicules volés ou accidentés -Anticiper le stock de véhicules d’occasions -Identifier toutes les sociétés radiées -Automatiser une extraction d’un système afin d’alimenter un autre système avec la donnée préparée -Construire un dashboard de pilotage afin de mesurer la distance entre un point de vente et nos conducteurs -Améliorer un reporting existant en y ajoutant un indicateur calculé à partir de plusieurs sources de données de la filiale -Extractions de données, y compris pour la construction des budgets -Construire des indicateurs -Créer et maintenir des reportings -Suivre les KPI Profil recherché : -Vous disposez de minimum 6 ans d’expérience en tant que Data analyst, dont 3 ans dans l’environnement de la prestation (SAS). - Compétences demandées : Expertise SAS ; Expertise SQL ; Statistiques - Expertise sur les études statistiques ; Analyse de données ; Mathématiques appliquées et Algorithmes - Connaissance des principaux algorithmes de data science ; Modèles descriptifs ; Data Processing ; Notion sur Tableau / Dataiku / Alteryx ; Notion sur la Méthodologie Agile Scrum ; Connaissance en matière de recouvrement, télématique, KYC est un plus. Compétences complémentaires : Capacité d’analyse ; Capacité à synthétiser, à simplifier ; Être orienté résultats ; Rigueur ; Capacité à collaborer/travailler en équipe ; Capacité à définir des indicateurs de performance pertinents ; Capacité à animer une réunion, un séminaire, un comité , une formation ; Capacité à gérer un projet (+ estimation des charges , planification, respect des jalons).

Freelance

Mission freelance Consultant Power BI

EMPIRIC
Publiée le
BI
Big Data

12 mois
100-940 €
Paris, France

Nous sommes à la rechercher d’un Consultant Power BI Confirmé, pour une mission Freelance dans le secteur du Retail/Luxe. Condition : -3 ans d’expériences sur la BI minimum -Projet Ecommerce -Mission Freelance de Longue durée 12 mois -Full Remote ( Vous pouvez egalement aller sur site, si vous le souhaitez) -Secteur du Retail/Luxe -Demarrage Asap (Le client pourra attendre 1mois à partir de l'accord client) -Vous devrer accompagner la gouvernance, le déploiement et l’usage autour des besoins de l’expérience collaborateur, Je vous prie de bien vouloir postuler à cette offre si celle-ci vous intéresse.

CDI
Freelance

Offre d'emploi Scrum Master Kanban (H/F)

Accelite
Publiée le
Agile Scrum
Data analysis
Finance

1 an
40k-50k €
Paris, France

En tant que Scrum Master (H/F) , vous accompagnez deux équipes Data d’un grand compte bancaire, dans la méthodologie Agile. A ce titre, vous avez pour rôle : -Animer les cérémonies agiles (Sprint, Daily, Démo, Rétro) -Participer à la rédaction des user stories -Structurer et suivre le Backlog -Suivre le bon fonctionnement de la démarche Agile -Contribuer aux développements des évolutions/corrections demandées -Participer à la recette technique -Rédiger de la documentation -Élaborer des reporting, KPI -Veiller à la bonne communication au sein de l’équipe Cette liste n’est pas exhaustive

Freelance
CDI

Offre d'emploi Développeur PySpark / Data Engineer (h/f)

HR-TEAM
Publiée le
Azure Data Factory
Big Data
Databricks

12 mois
55k-65k €
Paris, France

Le Data Engineer va intégrer l’équipe Data & RPA du Département Guilde Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Cette Guilde est dédiée au service et équipes (Data office, Tribus, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles. Vous serez directement rattaché(e) au Responsable de l’équipe Data & RPA au sein de la Direction Technologies. Vous allez contribuer directement aux projets des directions métier (ex : Fraude santé, DSN, Pricing IARD, Optimisation du lead management, Fragilité Auto, …). La Direction Transformation Digital Tech et Data en quelques mots : - Une organisation agile en feature teams : tribus, guildes, squads - Des projets sur des applications innovantes à fort trafic (web, mobile…) - Des méthodologies craft (TDD, BDD, clean code, code review…) et DevOps - Une communauté de partage de bonnes pratiques (BBL, dojo, meetup, conf…)

CDI
Freelance

Offre d'emploi Data Engineer Databricks

KLETA
Publiée le
Apache Spark
Azure
Azure Data Factory

3 ans
10k-68k €
Paris, France

Conception de l'architecture de données : Concevoir et mettre en œuvre une architecture de données robuste et évolutive sur la plateforme Databricks. Définir les schémas de données, les pipelines ETL et les flux de données pour répondre aux besoins métier. Développement de pipelines ETL : Développer des pipelines ETL pour extraire, transformer et charger les données à partir de sources variées vers le lac de données Databricks. Utiliser des outils comme Apache Spark pour traiter de gros volumes de données de manière efficace et distribuée. Optimisation des performances : Optimiser les requêtes Spark pour améliorer les performances des traitements de données. Utiliser des techniques telles que le partitionnement, la mise en cache et la gestion de la mémoire pour optimiser l'exécution des jobs Spark. Gestion des données en temps réel : Mettre en place des pipelines de traitement de données en temps réel à l'aide de technologies comme Apache Kafka et Apache Spark Streaming. Traiter les flux de données en continu pour fournir des analyses en temps réel et des insights instantanés. Gestion de la qualité des données : Mettre en place des contrôles de qualité des données pour garantir l'intégrité et la fiabilité des données. Développer des processus de nettoyage, de normalisation des données pour maintenir leur qualité. Sécurité des données : Mettre en place des mesures de sécurité pour protéger les données sensibles et confidentielles. Utiliser des fonctionnalités de sécurité avancées de Databricks telles que le chiffrement des données et la gestion des accès pour garantir la confidentialité et l'intégrité des données. Automatisation des workflows : Automatiser les workflows de traitement de données en planifiant et en orchestrant les jobs ETL à l'aide de Databricks Jobs ou d'autres outils de planification. Mettre en place des déclencheurs pour déclencher des actions en réponse à des événements spécifiques sur la plateforme de données. Surveillance et gestion des opérations : Surveiller les performances et la santé de la plateforme de données en utilisant des outils de surveillance comme Databricks Metrics et Databricks Monitoring. Gérer les incidents et les problèmes opérationnels en assurant une disponibilité continue des services de données. Collaboration avec les équipes métier : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données et de reporting. Fournir un support technique et des conseils pour aider les utilisateurs à accéder et à analyser les données sur la plateforme Databricks. Veille technologique : Suivre les évolutions dans le domaine du Big Data et du traitement des données pour intégrer les nouvelles technologies et les meilleures pratiques dans la plateforme de données Databricks.

Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !