Trouvez votre prochaine offre d’emploi ou de mission freelance Pandas

Ce qu’il faut savoir sur Pandas

Pandas est une bibliothèque open-source pour Python, conçue pour la manipulation et l’analyse de données. Très populaire dans le domaine de la science des données et du traitement des informations, Pandas offre des structures de données flexibles et puissantes, comme les DataFrames et les Series, permettant de gérer efficacement des données tabulaires ou structurées. Avec Pandas, il est possible d’effectuer diverses opérations, telles que le nettoyage des données, les transformations, l’analyse statistique, ou encore la visualisation simple. Elle prend en charge de nombreux formats de fichiers, comme CSV, Excel, JSON ou SQL, facilitant l’importation et l’exportation des données. Grâce à sa facilité d’utilisation, ses performances et ses fonctionnalités avancées, Pandas est un outil incontournable pour les scientifiques de données, les analystes et les développeurs, leur permettant de travailler rapidement avec des données complexes.

Votre recherche renvoie 14 résultats.
Freelance
CDI

Offre d'emploi
Data Analyst

Publiée le
Pandas
PySpark

1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Freelance

Mission freelance
Data analyst-Data Engineer (H/P)

Publiée le
Pandas
PySpark
Tableau software

3 ans
100-600 €
Meudon, Île-de-France
Télétravail partiel
Description du poste : Nous recherchons un(e) Data Analyst pour intervenir au sein de la Cellule Qualité Fixe (CQF) de Bouygues Telecom. Le rôle consiste à produire des analyses à partir de datasets constitués sur les plateformes Big Data, préparer et nettoyer les données, et les rendre disponibles pour les datascientists. Vous développerez également des tableaux de bord de suivi des KPI via Tableau. Missions principales : Exploiter et superviser la plateforme Big Data (monitoring Wifi des Box). Assurer le suivi des KPI et mettre en œuvre de nouveaux indicateurs. Investiguer les incidents et coordonner les actions avec les fournisseurs et les équipes internes. Développer des scripts Scala / Spark pour préparer et nettoyer les données. Gérer la sécurité, les sauvegardes et le déploiement des correctifs. Piloter les évolutions de la plateforme (hardware, applicatifs, architecture réseau). Superviser et maintenir la plateforme Data en microservices (Kubernetes/OpenShift). Déployer et gérer les applicatifs via Helm et GitLab. Administrer les utilisateurs, les buckets et les règles de gestion du datalake. Développer des dashboards Tableau et générer des KPI pour l’équipe.
Freelance

Mission freelance
Profil expérimenté DBT/Snowflake

Publiée le
AWS Cloud
DBT
Pandas

6 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Freelance

Mission freelance
Développeur Python / Vue 3 – Data & Dashboards

Publiée le
Dash
FastAPI
Pandas

3 mois
400-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Développeur Python / Vue 3 (TypeScript) pour renforcer l’équipe en charge du développement d’ outils d’analyse et de dashboards data dans un environnement technique moderne et exigeant. 🎯 Contexte de la mission : Vous participerez à la conception, au développement et à l’amélioration continue d’applications et de dashboards interactifs permettant de transformer des données complexes en insights clairs, rapides et utiles . 🧩 Stack technique principale : Backend : Python 3.13, Pandas (obligatoire), FastAPI, Dash, Streamlit, Bokeh, Polars (bonus) Frontend : Vue 3, TypeScript, Vuetify Tests : Pytest, Vitest, tests end-to-end (bonus) ⚙️ Vos missions principales : Traiter, transformer et structurer les données avec Pandas . Développer des dashboards interactifs avec Dash ou Vue.js . Concevoir et maintenir des APIs performantes avec FastAPI . Garantir la qualité du code : tests, revues, documentation et bonnes pratiques. Contribuer à l’optimisation continue des performances et de l’expérience utilisateur.
CDI
Freelance

Offre d'emploi
Développeur Python (H/F)

Publiée le
Agile Scrum
Big Data
Docker

12 mois
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
CDI

Offre d'emploi
Data Scientist Assurance

Publiée le
Apache Airflow
Docker
Pandas

40k-45k €
Paris, France
Télétravail partiel
Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.
Freelance
CDI

Offre d'emploi
Lead python et Data

Publiée le
Modèle Conceptuel des Données (MCD)
Modélisation
Pandas

2 ans
40k-60k €
400-600 €
Rueil-Malmaison, Île-de-France
Télétravail partiel
• Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)
CDI

Offre d'emploi
Data Scientist Senior

Publiée le
Docker
Git
Modèle Logique des Données (MLD)

40k-45k €
Paris, France
Télétravail partiel
Contexte Nous recherchons un(e) Data Scientist expérimenté(e) pour rejoindre un DataLab et contribuer à des projets innovants allant de la R&D jusqu’à l’industrialisation de modèles de Machine Learning. Les problématiques traitées sont à fort impact : maîtrise de la charge de sinistres, lutte contre la fraude, anticipation et gestion des risques climatiques. Profil recherché Data Scientist senior avec 5 ans minimum d’expérience , dont des projets menés jusqu’à l’industrialisation. Idéalement : connaissance du secteur Assurance / IARD , conduite du changement et accompagnement utilisateurs. Bonus : maîtrise de R, SAS, QlikSense. Modalités Démarrage : Janvier 2026 Durée : 12 mois (renouvelable)
Freelance

Mission freelance
DataOps AWS Engineer -MlOps

Publiée le
Apache Airflow
AWS Cloud
AWS Glue

12 mois
500-580 €
Paris, France
Télétravail partiel
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
CDI

Offre d'emploi
Développeur Senior à dominante Front-end ReactJs / Symfony [Vrai Full remote]

Publiée le
React
Redux
Symfony

50k-55k €
France
Télétravail 100%
Rattaché·e au Lead Developer, vous intégrerez une équipe de 3 personnes. Votre mission principale sera de refondre le Front d'une plateforme existante conçue avec Twig (Symfony) et JQuery en vous appuyant sur la nouvelle stack front qui s'appuie sur React / Redux / React Aria / Panda CSS et en consommant les API Restful conçues par l'équipe Back. Vous serez le back-up du Lead developer, participerez activement à la mise en place de tests end to end avec Playwright et accompagnerez également la montée en compétence d'un développeur front-end junior. Par ailleurs, vous pourriez être amené·e à travailler sur des sujets Back-end (Symfony) lorsque le besoin s'en fera sentir. Environnement technique : ReactJs (requis), TypeScript (requis), Next.js (souhaité), Redux (requis), Symfony (requis), GIT (requis), REST (requis), PlayWright (souhaité), GitLab-CI (souhaité), Vercel, ESLint (souhaité), Prettier (souhaité),
CDI

Offre d'emploi
Lead data (H/F)

Publiée le

40k-45k €
Lille, Hauts-de-France
Télétravail partiel
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Freelance

Mission freelance
Senior Développeur Python

Publiée le
Python

12 mois
530-580 €
Paris, France
Télétravail partiel
Contexte & Équipe L’équipe IT développe des outils internes destinés au suivi des positions, fonds et stratégies du client. L’environnement est fortement orienté finance : une formation ou une première expérience dans le secteur financier constitue un véritable atout. Le poste s’adresse à un profil technique expérimenté et reconnu , capable de challenger les autres développeurs et de garantir la qualité technique des livrables. Il n’y a pas de management hiérarchique , mais un rôle de référent / lead technique sur les sujets Python et DevOps . Le consultant sera également impliqué dans la validation des releases , la réduction de la dette technique , et les migrations ou montées de version . Profil recherché Formation : Ingénieur (type Ensimag, Centrale, ou équivalent) Expérience : Développeur Python confirmé, avec une solide culture logicielle et une sensibilité DevOps Compétences techniques : Excellente maîtrise de Python et de l’écosystème data (Pandas, packaging, performance) Bonne connaissance des outils CI/CD et pratiques DevOps Solides bases en architecture logicielle et bonnes pratiques de développement Qualités attendues : Capacité à prendre en main des projets complexes Aptitude à challenger techniquement l’équipe Sens aigu de la qualité du code et des livrables Intérêt marqué pour les environnements financiers et les problématiques techniques exigeantes Environnement technique Langages : Python (principal), C++ (en complément) Librairies : Pandas (maîtrise testée dans le cadre du test technique) Bases de données : Oracle, PL/SQL CI/CD & DevOps : Jenkins, Sonar, Fabric, GitLab, Vault IA Générative : Une bonne compréhension et une capacité à utiliser l’IA pour générer ou optimiser du code seront appréciées
Freelance

Mission freelance
Senior Machine Learning Engineer(Computer Vision/ LLMs)

Publiée le
AI
AWS Cloud
Azure

1 an
510-570 €
Paris, France
Télétravail partiel
Au sein de l’équipe Digital Data , vous contribuerez en mettant la donnée et l’IA au service de la performance opérationnelle et de l’expérience client. Localisation : Lille ou Paris (hybride possible) Langue : Anglais requis (communication quotidienne dans un contexte international) Démarrage : dès que possible Type de mission : longue durée / temps plein Vos missions En tant que Senior Machine Learning Engineer , vous serez en première ligne pour concevoir, construire et déployer des produits IA de nouvelle génération pour les magasins Decathlon à l’échelle mondiale. Vous interviendrez notamment sur des problématiques de vision par ordinateur, LLMs, prévisions et détection d’anomalies . Responsabilités principales : Concevoir, développer et déployer des modèles ML de bout en bout (MVP et production). Piloter des projets en Computer Vision, LLM, séries temporelles, détection d’anomalies . Collaborer avec les Product Managers, ingénieurs et experts métier pour transformer les besoins en solutions IA robustes et scalables. Travailler sur des jeux de données massifs , en garantissant la qualité, le prétraitement et le feature engineering. Optimiser la performance des modèles et les déployer en production selon les bonnes pratiques MLOps . Explorer et tester de nouveaux algorithmes et outils du monde IA/ML. Encadrer et accompagner des profils plus juniors (Data Scientists / AI Engineers).
CDI

Offre d'emploi
Data engineer appétence machine learning (H/F)

Publiée le

40k-45k €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet en tant que Data engineer. Dans le cadre d'un projet de transformation Data ambitieux, nous recherchons un Ingénieur Data pour concevoir et structurer l'architecture d'un Data Warehouse et poser les bases des futurs projets d'intelligence artificielle. Vous interviendrez sur l'ensemble de la chaîne de valeur de la donnée : collecte, structuration, gouvernance, qualité et préparation aux usages prédictifs. Vos missions : 1. Architecture & Infrastructure Data Définir et mettre en œuvre l'architecture du Data Warehouse (on-premise). Concevoir et automatiser les pipelines ETL/ELT à partir des systèmes existants (ERP, TMS, WMS…). Garantir la qualité, la traçabilité et la sécurité des données. Participer à la mise en place d'un catalogue de données pour améliorer la gouvernance. 2. Préparation et Structuration pour l'IA Concevoir des modèles de données adaptés aux futurs cas d'usage IA et prédictifs. Structurer et enrichir les datasets nécessaires aux analyses (prévision ETA, détection d'anomalies…). Collaborer avec les équipes de développement ERP pour intégrer les flux métiers. 3. Collaboration & Culture Data Travailler en étroite collaboration avec les équipes IT, métiers, développement logiciel et direction. Sensibiliser les équipes à la culture data-driven et à l'utilisation des outils analytiques. Être un moteur dans la diffusion des bonnes pratiques Data au sein de l'entreprise. 4. Développement Machine Learning (à moyen terme) Participer à la création de premiers modèles de Machine Learning en lien avec les métiers. Contribuer à leur industrialisation (API, conteneurisation, intégration à l'ERP). Compétences : Excellente maîtrise de Python et SQL. Solide expérience en construction de pipelines de données (ETL/ELT). Connaissance d'un ou plusieurs outils d'orchestration : Airflow, dbt, Talend… Bonnes bases en bases de données relationnelles et cloud : Snowflake, BigQuery, Synapse, PostgreSQL… Compréhension des principes du Machine Learning (pandas, scikit-learn). À l'aise dans un environnement DevOps (Git, CI/CD, Docker, APIs REST).

Les métiers et les missions en freelance pour Pandas

Data scientist

Le/ La Data scientist utilise Pandas pour traiter et analyser de grandes quantités de données, réaliser des analyses statistiques et préparer des jeux de données pour des modèles de machine learning.

Data analyst

Le/ La Data analyst utilise Pandas pour extraire, nettoyer et analyser des données provenant de diverses sources afin de fournir des insights aux équipes décisionnelles et optimiser les performances.

Développeur·euse Python

Le/ La Développeur·euse Python utilise Pandas dans le développement d'applications qui nécessitent une gestion avancée de données, comme la création de rapports, la manipulation de bases de données ou l'intégration de systèmes de données.

Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...)

Le/ La Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...) utilise Pandas pour transformer et préparer des données avant de les importer dans des outils de BI afin de créer des visualisations et des rapports décisionnels.

14 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous