Trouvez votre prochaine offre d’emploi ou de mission freelance Python à Paris

Ce qu’il faut savoir sur Python

Python est un langage de programmation puissant et facile à apprendre, largement utilisé dans la science des données, le développement web et l'automatisation. Ses bibliothèques étendues et sa syntaxe claire en font un favori parmi les développeurs.

Votre recherche renvoie 160 résultats.
Freelance

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)

Publiée le
Apache Spark
Java
Python

12 mois
500-560 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO
Freelance

Mission freelance
Machine Learning Engineer

Publiée le
Azure
DevOps
Kubernetes

3 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Machine Learning Engineer expérimenté pour une mission stratégique chez un client grand compte. Stack et compétences clés : Python 3.12 (expertise attendue) Kubernetes / Helm / Docker (maîtrise technique au-delà de l'utilisation) Azure SDK FastAPI GitLab (CI/CD, évolution de pipelines) OpenAPI, multithreading, ajout de routes pour UI gérant l’orchestration des déploiements jusqu’en UAT Tests unitaires obligatoires, monitoring des performances Organisation Agile en Squads et Chapters (partage des bonnes pratiques) Matrice RACI déjà en place, capacité à la faire évoluer Jenkins pour la production (géré par les équipes Ops) Certification KAD : un plus fortement apprécié, possibilité de la passer pendant la mission Contexte métier : Projet dans le secteur assurance autour de la modélisation de données, extraction d’informations depuis des contrats, comparaison avec des référentiels, vérification de cohérence, automatisation, recherche sémantique
CDI
Freelance

Offre d'emploi
Data engineer GCP / Hadoop - DataOps

Publiée le
Apache Spark
BigQuery
Google Cloud Platform (GCP)

1 an
40k-50k €
300-480 €
Paris, France
Télétravail partiel
Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme
CDI

Offre d'emploi
Data Engineer

Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France
Télétravail partiel
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Freelance

Mission freelance
Machine Learning Engineer Lead Expert

Publiée le
AWS Cloud
Python
Pytorch

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Data Management, Machine Learning Engineer Spécialités technologiques: Cloud, Machine learning, Big Data, Simulation Deep learning Description et livrables de la prestation Notre client, dans le secteur de l’assurance, est à la recherche d’un Machine Learning Engineer Lead Expert pour un projet de recherche appliquée sur les événements climatiques extrêmes à l’aide de modèles d’IA. Les équipes travaillent sur des simulations météo afin d’identifier les risques de catastrophes, avec pour objectif de développer et d’entraîner des modèles de Machine Learning dédiés. Il s’agit de gestion de big data sur de très gros modèles, avec un code intégralement en Python. La maîtrise du cloud AWS et des environnements on-premise est indispensable. - Permettre à l’équipe R&D de développer et d’évaluer des modèles en fournissant et en gérant du code et des données de qualité. - Refactoriser, structurer et documenter la bibliothèque existante en Python pour les simulations, l’inférence de modèles et l’analyse. - Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles (y compris sur GPU). L’accent sera mis sur le développement logiciel (les modèles seront fournis par l’équipe). - Mettre en œuvre et appliquer les meilleures pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité). - Optimiser l’utilisation d’un serveur (multi-)GPU pour les simulations et entraînements IA à grande échelle (I/O, planification, parallélisme). - Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et d’utilisation des GPU. Expertise souhaitée Obligatoires : - Python avancé et meilleures pratiques de développement logiciel - Pipelines scientifiques : orchestration, traitement en lots, suivi d’expérimentations - Outils : Git, Docker - Cloud AWS et environnements on-premise Souhaitées : - Gestion de données climatiques ou géospatiales : xarray, Zarr, S3 - Deep learning sur GPU : PyTorch, entraînement multi-GPU, optimisation des performances - Ingénierie logicielle scientifique, MLOps ou infrastructures de données en environnement R&D - Expérience avérée en collaboration sur des bases de code robustes, performantes et scalables - Familiarité ou fort intérêt pour les sciences du climat, la simulation ou la modélisation physique est un plus - Solides compétences en transmission de connaissances et en communication - Exigence élevée en termes de qualité et de clarté du code
Freelance

Mission freelance
Mission de Data Engineer - Retail

Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
400-550 €
Paris, France
Télétravail partiel
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github
CDI

Offre d'emploi
Data Scientist Senior

Publiée le
Docker
Git
Modèle Logique des Données (MLD)

40k-45k €
Paris, France
Télétravail partiel
Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)
CDI
Freelance

Offre d'emploi
Ingénieur système DevOps

Publiée le
Apache Tomcat
AWS Cloud
Confluence

12 mois
40k-55k €
350-440 €
Paris, France
Il est attendu de la prestation d’apporter une expertise technique sur l’outillage DevSecOps avec GitlabCI afin de maintenir et faire évoluer la Plateforme DevOps en fonction des besoins qui ne cessent de croître ainsi que de contribuer à la montée en compétence de l’équipe sur l’outil. Tous les développements réalisés devront être testés et validés selon les procédures en vigueurs du client. Dans ce cadre il est attendu une expertise sur l’outillage Gitlab pour participer aux travaux de migration de Jenkins vers Gitlab. Il sera demandé au titulaire de répondre aux différentes activités : Développement Tests Accompagnement Support La prestation porte sur l’outil Gestionnaire de code source de la Plateforme DevOps : GitLab CE et GitLab EE, Gitlab Ultimaten, sur la stack d’indicateur de la plateforme logmining DevSecOps avec les outils Mimir et Loki et Grafana Les activités principales identifiées pour la mission sont les suivantes : Optimisation des instances afin d’améliorer les performances des outils, Mise en place et partage de bonnes pratiques autour des outils, Assurer le suivi, l’analyse et le traitement des incidents, Optimisation de la plateforme Gitlab sur Openshift Assurer le support auprès de l’équipe Projet Migration Jenkins2GitlabCI Suivre et exploiter des environnements de Développement, Participation au POC Gitlab Ultimate et DUO Développement des services conteneurisés (Docker/Openshift) Développement de scripts Python Récupération d’indicateurs (InfluxDB, loki, mimir, Grafana ect..) Rédaction des documentations associées aux travaux réalisés ( README, Confluence) Livrer la solution à l’exploitant et l’assister lors de la MEP, Réaliser la documentation technique, Les technologies du périmètre sont : Linux, RedHat Apache, Tomcat PostgreSQL,InfluxDB Python OpenShift, Kubernetes, Docker GitLab (CE/EE/Ultimate, CI-CD,components), Jenkins, Nexus, Sonar, Checkmarx, Jira/Confluence, Grafana, InfluxDB Cloud : AWS,GCP Méthodologie SRE Mimir Loki Grafana Coaching Connaissance des cultures agiles ((les valeurs, principes et les framework tel que SCRUM, KANBAN et SAFe) et les avoir implémentés dans différents contextes Connaissance des bonnes pratiques DevSecOps et SRE Connaissance des outils d’une plateforme DevOps pour réaliser les pratiques Non à la sous traitance.
Freelance

Mission freelance
Architecte Solution Data AWS

Publiée le
AWS Cloud
AWS Glue
Big Data

3 ans
600-700 €
Paris, France
Missions principales : * Conception et définition de la plateforme Data : -Définir le plan fonctionnel de la plateforme Data en fonction des besoins -stratégiques et opérationnels de l'entreprise. -Conceptualiser et structurer les fonctionnalités de la plateforme pour répondre aux exigences métiers. * Industrialisation et optimisation des processus : -Optimiser les processus de collecte, gestion, transformation et restitution des données pour les rendre plus efficaces. -Garantir la performance et la scalabilité des solutions mises en œuvre. * Urbanisation des Data Lakes : -Concevoir un schéma d'architecture fonctionnelle pour l’urbanisation des Data Lakes existants. -Mettre en place un référentiel des schémas d'interface d’entrée et gérer le versionning des données. -Assurer la cohérence de la circulation de la donnée, de l'acquisition jusqu’à son utilisation. *Collaboration avec les équipes métiers et techniques : -Travailler en étroite collaboration avec les chefs de projets Data, les architectes techniques et les Data Engineers. -Collecter et classifier les besoins fonctionnels des métiers pour les traduire en solutions techniques. *Rédaction de la documentation fonctionnelle : -Élaborer et maintenir à jour la documentation technique et fonctionnelle de l’architecture Data. -Proposer et formaliser des nomenclatures et des règles de gestion adaptées. *Référent technique : -Jouer un rôle de conseil et d’appui sur la conception des flux de données et la structuration des objets (Data Lake, Dataware, Datamart). -Être un point de référence pour l’équipe Data et garantir l’application des bonnes pratiques dans le cadre de la conception des solutions. Compétences requises :
Freelance

Mission freelance
Data Engineer IA GCP

Publiée le
Google Cloud Platform (GCP)
Python

3 mois
580 €
75000, Paris, Île-de-France
Télétravail partiel
🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.
Freelance
CDI

Offre d'emploi
Business Analyst - Intelligence Artificielle

Publiée le
Apache Airflow
Business Analysis
Python

3 ans
Paris, France
Télétravail partiel
Vos missions principales seront les suivantes : Assistance à Maîtrise d’Ouvrage : Organiser et animer les ateliers de recueil des besoins auprès des utilisateurs métiers. Analyser, modéliser et proposer des optimisations des processus existants. Rédiger les documents de cadrage et de qualification : études de faisabilité, chiffrage, analyse des risques, impact, et planning. Formaliser les processus et besoins fonctionnels en vue de leur développement. Rédiger les spécifications fonctionnelles détaillées. Élaborer les plans de test et accompagner les phases de recette. Accompagner les utilisateurs dans l’adoption des nouveaux outils et usages. Pilotage opérationnel : Participer à la coordination et au suivi de l’avancement des projets. Assurer le pilotage des projets dont vous avez la charge, en collaboration avec les développeurs (équipe SmartAutomation), le DataLab, les équipes API et autres parties prenantes. Superviser et réaliser les recettes techniques. Piloter les recettes fonctionnelles jusqu’à la mise en production des solutions automatisées. Réaliser un reporting régulier à la cellule de coordination projet. Maintenance et évolutions : Contribuer à la bonne tenue opérationnelle des solutions déployées. Participer aux évolutions fonctionnelles et techniques du parc applicatif existant.
Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France
Télétravail partiel
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Freelance

Mission freelance
DataOps - MS FABRIC/ Azure

Publiée le
.NET
.NET Framework
AWS Cloud

12 mois
500-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.
Offre premium
Freelance

Mission freelance
Ingénieur Observabilité – Expert Zabbix

Publiée le
Zabbix

3 mois
Paris, France
Télétravail partiel
Contexte Vous interviendrez au sein d’une équipe dédiée à la supervision et à l’observabilité pour renforcer et optimiser les solutions de monitoring basées sur Zabbix (v6/v7). Votre mission consistera à concevoir, intégrer et faire évoluer la plateforme, tout en assurant son interconnexion avec les outils ITSM (ServiceNow, GLPI…) et les référentiels (CMDB/CMS). Vous participerez également à l’automatisation des processus et à la veille technologique sur les solutions d’observabilité. Descriptif de la mission Vos principales responsabilités seront : Administration et optimisation de Zabbix : Installation, configuration et maintenance des environnements Zabbix 6/7 (serveurs, agents, proxies, bases de données). Mise à jour (upgrade) des versions et tuning des performances. Conception technique et intégration : Rédaction de dossiers d’architecture (DAT, HLD, LLD) pour les solutions de supervision. Intégration de Zabbix avec des outils ITSM (ServiceNow, GLPI, EasyVista…) et CMDB/CMS. Développement de scripts (Bash, Python) et d’automatisations via les API Zabbix. Collaboration et support : Animation d’ateliers techniques et rédaction de livrables (comptes-rendus, présentations). Accompagnement des équipes projets et production dans la définition des besoins de supervision. Veille active sur les outils d’observabilité (Prometheus, Grafana, Elastic Stack…). Profil recherché Expertise confirmée sur Zabbix (v6/v7) : Maîtrise de l’installation, la configuration, le troubleshooting et l’optimisation. Création de templates, dashboards et alertes personnalisées. Connaissance des bases de données associées (MySQL/MariaDB, PostgreSQL, TimescaleDB). Environnements systèmes et scripting : Expérience sur Linux (Debian, RedHat, CentOS, Ubuntu). Maîtrise des langages Bash/Shell et Python. Développement de connecteurs ou scripts d’intégration (REST API, Webhooks). Observabilité et intégrations : Connaissance souhaitée des outils complémentaires (Prometheus, Grafana, Telegraf, InfluxDB, Elastic Stack).
Freelance

Mission freelance
SRE DevOps AWS

Publiée le
API
AWS Cloud
CI/CD

3 ans
500-550 €
Paris, France
Télétravail partiel
Le rôle le plus important du SRE AWS est de maintenir les standards et la qualité de service de l’infrastructure AWS. Grâce à ses excellentes compétences et à son expertise, le SRE peut fournir un leadership et un soutien technique en matière d’architecture, de sécurité, de bases de données, de DevOps, de Bigdata, etc . Vous aurez pour principales missions : Être responsable de la plateforme AWS et participer aux évolutions futures Assurer la stabilité, la fiabilité et la performance des applications Soutenir les développeurs et aider à concevoir conjointement les services applicatifs Développer et maintenir notre pipeline de déploiement et CI/CD Contribuer aux discussions techniques sur l’intégration de nouvelles ressources ou standards Améliorer constamment les processus et communiquer les normes et les bonnes pratiques de notre plateforme AWS Participer à l’évolution des outils transverses Être capable de prendre du recul sur les besoins de l’équipe et de faire le lien avec la gouvernance pour mettre en place des solutions globales plutôt que des solutions spécifiques.
Freelance

Mission freelance
DevOps / DevSecOps senior - Fintech

Publiée le
Agile Scrum
AWS Cloud
Cloud

3 mois
400-620 €
Paris, France
Télétravail partiel
Nous recherchons un Freelance DevOps / DevSecOps expérimenté pour rejoindre une équipe technique au sein d’un éditeur SaaS innovant spécialisé dans la finance. Dans ce cadre structuré et exigeant, vous serez en charge de renforcer l’automatisation, la sécurité et la scalabilité des environnements techniques, tout en contribuant activement aux bonnes pratiques DevOps et à l’amélioration continue. Vous évoluerez dans une organisation agile (SCRUM), avec des mises en production régulières toutes les trois semaines et un socle data conséquent, garantissant un environnement stimulant et en constante évolution.

Les métiers et les missions en freelance pour Python

Data scientist

Le/La Data Scientist utilise Python pour développer des modèles d'apprentissage automatique et analyser de grandes quantités de données.

Data analyst

Le/La Data Analyst utilise Python pour manipuler et visualiser des ensembles de données complexes afin d'extraire des insights stratégiques.

160 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous