Find your next tech and IT Job or contract Pandas

What you need to know about Pandas

Pandas is an open-source library for Python, designed for data manipulation and analysis. Very popular in the field of data science and information processing, Pandas offers flexible and powerful data structures, such as DataFrames and Series, allowing efficient management of tabular or structured data. With Pandas, it is possible to perform various operations, such as data cleaning, transformations, statistical analysis, or simple visualization. It supports many file formats, such as CSV, Excel, JSON or SQL, facilitating data import and export. Thanks to its ease of use, performance, and advanced features, Pandas is an essential tool for data scientists, analysts, and developers, enabling them to work quickly with complex data.

Your search returns 19 results.
Contractor
Permanent

Job Vacancy
Data Engineer Python

Published on
Azure
Kubernetes
Pandas

2 years
40k-45k €
400-640 €
Saint-Denis, Ile-de-France
Hybrid
Mission : Data Engineer Python Localisation : Saint-Denis Démarrage : 01/01/2026 Durée : longue durée TJM max : 620 € Deadline candidature : 22/11 10 jours de gratuité à prévoir Nous recherchons un Data Engineer Python senior (8+ ans d’expérience) pour renforcer une équipe existante au sein d’une entité Data & IA d’un grand groupe. La mission consiste à intervenir sur un projet de réconciliation de flux bancaires déjà lancé, au sein d’une équipe Agile composée de 4 Data Engineers et d’un Chef de projet. Compétences techniques recherchées : Python, Pandas Kubernetes Azure CI/CD Documentation, tests, modélisation de pipelines Votre rôle : Développer et tester les User Stories Contribuer à la documentation, au mapping des données et à la modélisation des pipelines Participer à la mise en place du CI/CD et du monitoring Intervenir dans un fonctionnement en sprints de deux semaines
Contractor
Permanent

Job Vacancy
Architecte technique Senior Déploiement et Monitoring Pipelines

Published on
C/C++
Framework
Numpy

1 year
25k-44k €
340-530 €
Saint-Denis, Ile-de-France
Hybrid
DESCRIPTION DE LA MISSION 2.1 Objectifs Évaluer et optimiser les performances et la complexité de tous les composants de la solution pour chaque cas d’usage. Déployer et monitorer des systèmes prédictifs en temps réel en production afin de garantir leur robustesse. 2.2 Description détaillée des tâches qui constituent la mission Les tâches envisagées sont les suivantes : •Transformer les prototypes de science des données en code et solution de qualité de production •Optimiser les pipelines de données et les algorithmes d’apprentissage automatique sur des plates-formes informatiques hétérogènes (CPU, GPU) •Effectuer des analyses comparatives pour la sélection de solutions en fonction des contraintes (performances, ressources, temps réel, latence, …) •Développer et maintenir des pipelines CI/CD pour automatiser les tests, l’intégration et le déploiement de solutions pour différents cas d’usage et sur différents sites •Mettre en place des solutions de monitoring pour suivre les performances des solutions déployées et identifier les différences dans la distribution des données qui pourraient affecter les performances dans des situations réelles 2.3 Résultats attendus et/ou livrables avec échéancier si besoin Les livrables attendus sont les suivants : • Concernant la transformation des POC en solutions de production o Les codes de qualité de production, avec documentation sur la conception de l’architecture et des APIs Les tests unitaires, fonctionnels et d’intégration du code source •Concernant l’optimisation des pipelines de données et les algorithmes d’apprentissage automatique o Les codes de qualité de production, avec documentation sur les techniques d’optimisation utilisées o Les rapports avec les résultats obtenue pour chaque fonction/algorithme dans chaque environnement informatique (CPU, GPU) oLes tests fonctionnels du code source concerné •Concernant les analyses comparatives pour la sélection de solutions o Les jeux de données utilisés dans chaque benchmarking des performances et de la complexité o Les codes, avec documentation, pour le benchmarking o Les rapports avec suggestions et/ou conclusions pour chaque cas d’usage • Concernant les pipelines CI/CD pour automatiser les tests, l’intégration et le déploiement des solutions o Les codes de qualité de production, avec documentation sur la conception des pipelines o Les pipelines CI/CD fonctionnels o Un guide d’utilisation et une documentation pour les administrateurs de l’outil • Concernant les solutions de monitoring o Les solutions de monitoring fonctionnelles o Les codes de qualité de production, avec documentation, sur les algorithmes de modélisation et de détection des dérives de données/résultats o Les tests fonctionnels du code source concerné
Contractor
Permanent

Job Vacancy
Data Analyst

Published on
Pandas
PySpark

1 year
Ile-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Contractor

Contractor job
Profil expérimenté DBT/Snowflake

Published on
AWS Cloud
DBT
Pandas

6 months
370-400 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Permanent
Contractor

Job Vacancy
Data Scientist

Published on
Amazon S3
Data science
Docker

3 years
50k-55k €
400-500 €
Issy-les-Moulineaux, Ile-de-France
Hybrid
Vous interviendrez dans la conception, le développement et l’industrialisation de services numériques en collaboration avec les équipes IT et métier. Missions Cadrage et accompagnement · Contribuer au cadrage des projets avec les parties prenantes · Présenter les résultats des études et projets aux équipes IT, aux filiales et aux entités métier du groupe · Accompagner les utilisateurs lors des déploiements pour faciliter l’adoption des services Traitement et modélisation des données · Extraire, transformer et analyser des jeux de données hétérogènes · Créer des modèles prédictifs et/ou génératifs adaptés aux usages identifiés Développement et industrialisation · Développer, déployer et surveiller des services numériques fiables et scalables · Participer à l’identification des solutions techniques les plus pertinentes en matière de stockage, traitement distribué, modélisation, etc.
Contractor
Permanent

Job Vacancy
Ingénieur.e Supervision & Monitoring - Paris / Bordeaux

Published on
Maintenance in Operational Condition (MCO)
Networks
Numpy

3 years
50k-55k €
400-450 €
Châtillon, Ile-de-France
Hybrid
Au sein d’un centre de services, vous aurez pour mission d’améliorer, de maintenir et de préparer l'avenir de la solution de supervision réseau. Votre rôle Maintien en conditions opérationnelles (MCO) Assurer la disponibilité, la stabilité et la performance de la supervision réseau Détecter et résoudre les incidents et anomalies sur l’infrastructure de supervision Administration des solutions existantes Gérer et administrer les outils internes et éditeurs de supervision Mettre à jour et configurer les composants Développement & Automatisation Développer et maintenir des scripts et outils pour améliorer la collecte et l’analyse des données Participer à l’évolution et à l’optimisation des solutions de supervision
Contractor

Contractor job
Lead Machine leaning engineering

Published on
Agile Method
FastAPI
Flask

12 months
470-510 €
Ile-de-France, France
Hybrid
Je recherche un(e) Lead Machine Learning Engineer pour accompagner la Direction Data d’un grand média français dans la mise en place d’une équipe dédiée aux sujets de recommandation et de personnalisation. 👤 Mission Vous interviendrez au cœur d’une équipe Data (PO, Data Scientist, Lead ML, ML Engineer) pour concevoir, déployer et industrialiser des modèles de machine learning en production, dans un environnement full Google Cloud. 💼 Compétences requises : • 5+ années d’expérience en environnement Data / Machine Learning • Déploiement en production de modèles ML (scalabilité, haute perf) • Maîtrise de Google Cloud (Vertex AI, BigQuery, Cloud Run, Composer, CloudSQL, IAM) • Très bonnes compétences en Python et SQL • Connaissances de Flask, FastAPI, SQLAlchemy, Pgvector, Pandas, Hugging Face • Expérience en Terraform / Terragrunt • Très bonnes connaissances en ML, Deep Learning, systèmes de recommandation • Maîtrise de GitLab & GitLab CI/CD • Capacité à vulgariser, communiquer et accompagner une équipe • Expérience des méthodes Agile (Scrum / Kanban) 📍 Modalités : • Présence sur site requise (~50% du temps) • Expérience attendue : Sénior • Environnement : Paris • Matériel sécurisé requis (chiffrement, antivirus, etc.)
Contractor
Permanent

Job Vacancy
Lead python et Data

Published on
Conceptual Data Model (CDM)
Modelling
Pandas

2 years
40k-60k €
400-600 €
Rueil-Malmaison, Ile-de-France
Hybrid
• Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)
Contractor

Contractor job
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal

Published on
DBT
Snowflake

6 months
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Hybrid
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Contractor

Contractor job
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Published on
DBT
Snowflake

6 months
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Hybrid
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Premium Job
Contractor
Permanent
Fixed term

Job Vacancy
Architecte technique / Python

Published on
API
Logical Data Model (LDM)
Python

3 years
40k-45k €
400-650 €
Saint-Denis, Ile-de-France
Hybrid
Architecte technique – Saint-Denis Mission longue durée – Démarrage 15/12 Deadline candidature : 04/12Durée : très longue durée Nous recherchons un architecte technique disposant de plus de 8 ans d’expérience pour intervenir sur une mission à très longue durée. Le consultant interviendra sur l’industrialisation, l’optimisation et le déploiement de solutions techniques à forte contrainte de performance, dans un contexte temps réel. Dix jours de gratuité sont à prévoir. Objectifs Évaluer et optimiser les performances et la complexité des composants de la solution, déployer et monitorer des systèmes prédictifs en production et assurer leur robustesse. Responsabilités Transformer des POC data en solutions de production Optimiser les pipelines de données et les algorithmes de machine learning sur architectures CPU et GPU Réaliser des benchmarks pour sélectionner les solutions adaptées aux contraintes de performance Développer et maintenir des pipelines CI/CD pour automatiser tests, intégration et déploiement Mettre en place des solutions de monitoring pour détecter les dérives de données et suivre les performances en production Livrables Codes de production documentés et testés Documentation d’architecture et APIs Rapports d’optimisation CPU/GPU Jeux de données et codes utilisés pour les benchmarks Pipelines CI/CD opérationnels et documentés Solutions de monitoring déployées et documentées Compétences attendues Maîtrise de Python Solide expérience en optimisation, déploiement et monitoring de pipelines data et modèles ML Connaissances approfondies en algorithmes, calcul haute performance et machine learning Maîtrise des environnements Python : NumPy, SciPy, Numba, CuPy, Pandas, scikit-learn, PyTorch Rigueur, capacité d’analyse, culture de l’innovation Une expérience en C++ serait un plus
Permanent

Job Vacancy
Lead data (H/F)

Published on

40k-45k €
Lille, Hauts-de-France
Hybrid
Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github
Contractor

Contractor job
DataOps AWS Engineer -MlOps

Published on
Apache Airflow
AWS Cloud
AWS Glue

12 months
500-580 €
Paris, France
Hybrid
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Contractor

Contractor job
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Published on
DBT
Snowflake

6 months
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Hybrid
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Contractor
Permanent
Fixed term

Job Vacancy
Devops supervision réseau

Published on
Grafana

12 months
Ile-de-France, France
Hybrid
Cherchons un profil ayant une forte expertise grafana, prometheus, victoria metrics pour assurer une mission longue autour de la supervision réseau Les livrables sont 1. MCO 2. Administration de la solution en place 3. Développements Python et Go Compétences techniques impératives - Grafana, Prometheus, Victoria Metrics - Expert - Impératif - Connaissance des exporter SNMP, ICMP et réseaux - Expert - Impératif - Python, Go - Expert - Impératif Description détaillée Au sein du Centre de Service Supervision vous serez chargé de la mise en œuvre des moyens de supervision La mission consistera à effectuer, sur le périmètre de la supervision réseau : - Des tâches de MCO - Administrer l'existant maison et éditeur - Assurer des développements autour des solutions et outils ci-dessous. Les compétences clés recherchées : - Expertise exigée sur le soutils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (requests, flask, grafanalib, grafana-api, pandas, glob, tqdm, numpy), Go. Une évaluation technique sera organisée (questions de la part d'un expert). 3 jours de présence sur site requise Mission basée dans le 92, mais déplacements à prévoir (91)
Internship

Internship offer
Stage – Développeur·se Full Stack AI

Published on
FastAPI
Python

6 months
Paris, France
Remote
Tu veux plonger au cœur de l’innovation et explorer l’ IA , les architectures microservices et le développement full stack ? CBX Group recherche plusieurs stagiaires Développeur·ses Full Stack AI pour rejoindre sa Direction Technique , aux côtés de nos architectes expérimentés. Vos missions Concevoir des architectures microservices innovantes Développer des modèles IA from scratch Fine-tuning avec Hugging Face/PEFT. Prétraitement des données (pandas, NumPy). Scripts d’inférence & déploiement (FastAPI, Flask). Créer des agents no-code Rédiger des guidelines techniques Participer au design & à l’architecture des projets internes Contribuer à la vie d’équipe (Daily, Weekly, Sprint Demo)

Contract roles and jobs for Pandas

Data Scientist

The Data Scientist uses Pandas to process and analyze large amounts of data, perform statistical analyses, and prepare datasets for machine learning models.

Data Analyst

The Data Analyst uses Pandas to extract, clean, and analyze data from various sources to provide insights to decision-making teams and optimize performance.

Python Developer

The Python Developer uses Pandas in applications requiring advanced data management, such as creating reports, manipulating databases, or integrating data systems.

Business Intelligence Consultant (PowerBI, SAS, Tableau...)

The Business Intelligence Consultant (PowerBI, SAS, Tableau...) uses Pandas to transform and prepare data before importing it into BI tools for creating visualizations and decision-making reports.

19 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us