Trouvez votre prochaine offre d’emploi ou de mission freelance Pandas

Ce qu’il faut savoir sur Pandas

Pandas est une bibliothèque open-source pour Python, conçue pour la manipulation et l’analyse de données. Très populaire dans le domaine de la science des données et du traitement des informations, Pandas offre des structures de données flexibles et puissantes, comme les DataFrames et les Series, permettant de gérer efficacement des données tabulaires ou structurées. Avec Pandas, il est possible d’effectuer diverses opérations, telles que le nettoyage des données, les transformations, l’analyse statistique, ou encore la visualisation simple. Elle prend en charge de nombreux formats de fichiers, comme CSV, Excel, JSON ou SQL, facilitant l’importation et l’exportation des données. Grâce à sa facilité d’utilisation, ses performances et ses fonctionnalités avancées, Pandas est un outil incontournable pour les scientifiques de données, les analystes et les développeurs, leur permettant de travailler rapidement avec des données complexes.

Votre recherche renvoie 15 résultats.
Offre premium
Freelance

Mission freelance
Devops Supervision

Publiée le
Flask
Go (langage)
Grafana

6 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Devops Supervision pour une mission longue en Île de France pour un démarrage ASAP. Au sein du Centre de Service Supervision, chargé de la mise en œuvre des moyens de supervision. La mission consiste à effectuer, sur le périmètre de la supervision réseau : - Des tâches de MCO - Administrer l'existant maison et éditeur - Assurer des développements autour des solutions et outils ci-dessous. Les compétences clés recherchées : - Expertise exigée sur les outils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (Requests, Flask, , Grafanalib, Grafana-api, pandas, glob, TQDM, Numpy), Go. Les livrables sont: MCO Administration de la solution en place Développements Python et Go
Freelance

Mission freelance
Data Automation Engineer Confirmé

Publiée le
CI/CD
Dataiku
DevOps

6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Freelance

Mission freelance
Ingénieur en automatisation de données IA/ Python /Pandas / Polars / dataïku / LLM / Anglais(H/F)

Publiée le
Automatisation
Dataiku
IA

6 mois
500-580 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans le domaine bancaire, un ingénieur senior en données/IA (Dataiku) ayant une expérience averée en automatisation Objectifs de la mission : L'accélération de la création de nouveaux produits basés sur les données, l'automatisation des processus métier grâce à l'automatisation agentique des processus et la prise de décisions stratégiques. Apporter à la fois rapidité et robustesse aux pipelines et solutions de données. En collaboration avec les parties prenantes commerciales, soutenir les projets de bout en bout, de la conception et du prototypage rapide au déploiement en production. Missions : • Collaborer avec les parties prenantes des secteurs commercial, opérationnel et informatique afin de recueillir les exigences et de concevoir des solutions sur mesure, basées sur les données. • Développer et optimiser des pipelines de données robustes, évolutives et hautement performantes qui prennent en charge les flux de travail critiques de l'entreprise. • Co-créer des prototypes rapides avec les utilisateurs métier afin de valider les hypothèses et d'accélérer le retour sur investissement. • Industrialiser ces prototypes en solutions prêtes à être mises en production en mettant l'accent sur la qualité des données, la maintenabilité et les performances. • Soutenir la livraison et le déploiement continus en appliquant les meilleures pratiques en matière d'ingénierie logicielle et de DevOps. • Contribuer à l'évolution de la stack data et promouvoir les meilleures pratiques au sein de l'équipe.
Freelance
CDI

Offre d'emploi
Data Analyst

Publiée le
Pandas
PySpark

1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Freelance

Mission freelance
Profil expérimenté DBT/Snowflake

Publiée le
AWS Cloud
DBT
Pandas

6 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Freelance

Mission freelance
Lead Machine leaning engineering

Publiée le
FastAPI
Flask
Gitlab

12 mois
470-510 €
Île-de-France, France
Télétravail partiel
Je recherche un(e) Lead Machine Learning Engineer pour accompagner la Direction Data d’un grand média français dans la mise en place d’une équipe dédiée aux sujets de recommandation et de personnalisation. 👤 Mission Vous interviendrez au cœur d’une équipe Data (PO, Data Scientist, Lead ML, ML Engineer) pour concevoir, déployer et industrialiser des modèles de machine learning en production, dans un environnement full Google Cloud. 💼 Compétences requises : • 5+ années d’expérience en environnement Data / Machine Learning • Déploiement en production de modèles ML (scalabilité, haute perf) • Maîtrise de Google Cloud (Vertex AI, BigQuery, Cloud Run, Composer, CloudSQL, IAM) • Très bonnes compétences en Python et SQL • Connaissances de Flask, FastAPI, SQLAlchemy, Pgvector, Pandas, Hugging Face • Expérience en Terraform / Terragrunt • Très bonnes connaissances en ML, Deep Learning, systèmes de recommandation • Maîtrise de GitLab & GitLab CI/CD • Capacité à vulgariser, communiquer et accompagner une équipe • Expérience des méthodes Agile (Scrum / Kanban) 📍 Modalités : • Présence sur site requise (~50% du temps) • Expérience attendue : Sénior • Environnement : Paris • Matériel sécurisé requis (chiffrement, antivirus, etc.)
Freelance
CDI

Offre d'emploi
Développeur IA

Publiée le
IA Générative
Nosql
Python

12 mois
42k-47k €
400-420 €
Montpellier, Occitanie
Télétravail partiel
Vos missions seront le développement de solution IA génératives, le tests et le déploiement de ses dernières. Vous travaillerez sur plusieurs projets en simultanée. Nous recherchons quelqu’un de motivé pour travailler sur des solution innovante en perpétuelle évolution, avec une capacité à s'inscrire dans un collectif (partage, collaboration) Compétences demandées : IA GEN Landing Zone Python Back end & data science Frameworks : TensorFlow Libraries : scikit-learn, pandas, NumPy, PyKrige, Pyspark NoSQL, mySQL
CDI

Offre d'emploi
Quantitative Analyst

Publiée le

70k €
75001, Paris, Île-de-France
Télétravail partiel
Missions / Responsabilités Développer, mettre en œuvre et maintenir des modèles quantitatifs et des stratégies pour éclairer les tendances de marché et optimiser les décisions de pricing et de risk management sur différents produits et marchés. Collaborer étroitement avec les équipes de vente (Sales) pour identifier les besoins clients et construire des solutions sur mesure. Mener des recherches approfondies, analyses de données et modélisations statistiques pour produire des insights sur les tendances, le pricing et la dynamique des risques. Posséder et maintenir des bibliothèques analytiques et l'infrastructure front‑office associée (qualité, performance, robustesse). Contribuer à l'innovation en apportant une expertise sur les méthodologies quantitatives, les avancées technologiques et les meilleures pratiques de l'industrie. Profil recherché Expérience avérée en Quantitative Analytics sur les dérivés actions (Equity Derivatives) - une exposition FX et commodities est également considérée. Master/Ingénieur (ou équivalent) en Mathématiques financières / appliquées, Physique, Génie. Excellentes compétences en C++ (développement performant, architecture), et bonne maîtrise de Python. Capacité démontrée à travailler de façon autonome, à gérer plusieurs projets simultanément dans un environnement rapide. Aptitude à expliquer des concepts complexes de manière claire (oral/écrit/présentation) à des collègues, traders, sales, management. Anglais écrit et oral de bon niveau. Connaissances cross‑asset (Credit / Rates / Commodities) et/ou forte appétence pour les développer. Environnement & outils (indicatif) Bibliothèques de pricing et risk analytics maison, C++ (modern C++), Python (NumPy/Pandas), collaboration avec IT (qualité, CI/CD), marchés actions et produits exotiques/hybrides.
Freelance

Mission freelance
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal

Publiée le
DBT
Snowflake

6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Freelance

Mission freelance
Devops réseau supervision 10 ans d'expérience

Publiée le
Flask
Grafana
ICMP

6 mois
520-600 €
Île-de-France, France
Télétravail partiel
Contrainte forte du projet Expertise grafana, prometheus, victoria metrics pour de la supervision réseau Les livrables sont MCO Administration de la solution en place Développements Python et Go Compétences techniques Grafana, Prometheus, Victoria Metrics - Expert - Impératif Connaissance des exporter SNMP, ICMP et réseaux - Expert - Impératif Python, Go - Expert - Impératif Connaissances linguistiques Français Courant (Impératif) - Expertise exigée sur le soutils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (requests, flask, grafanalib, grafana-api, pandas, glob, tqdm, numpy), Go.
Freelance

Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal

Publiée le
DBT
Snowflake

6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Freelance

Mission freelance
Business Analyst / Confirmé - Senior

Publiée le
Microsoft Excel
MySQL
Python

3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients un Business Analyst. Voici les missions principales : Réalignement et qualité des données • Cartographier et analyser les données provenant des différentes sociétés du Groupe. • Identifier les écarts, incohérences et redondances. • Réaliser les opérations de nettoyage, harmonisation et migration (via Excel, Python, SQL si nécessaire). • Développer et maintenir des scripts d’automatisation (Python, Pandas, Regex, API). • Expérimenter l’usage de modèles IA (GPT, ML) pour accélérer l’enrichissement, le matching et la classification de données. RUN BI & Reporting • Assurer la disponibilité et la fiabilité des modèles/reports Power BI de publication. • Gérer les incidents et demandes utilisateurs (RUN BI, correctifs, évolutions). • Monitorer les traitements Fabric/Power BI (Data pipelines et Refresh Semantic models) et collaborer avec l’IT pour résoudre les problèmes. • Documenter et optimiser les process de mise à jour et de refresh des dashboards. Analyse métier & accompagnement • Traduire les besoins métiers en spécifications fonctionnelles et data. • Accompagner les équipes locales dans l’adoption des dashboards et outils analytiques. • Proposer des recommandations pour améliorer la gouvernance et la qualité des données. • Être le point de contact privilégié entre équipes Data, IT, BI et filiales.
Stage

Offre de stage
Stagiaire Développeur Python / IA (H/F)

Publiée le
IA
Python

6 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
🎯 Contexte du stage Dans le cadre du développement de nouveaux outils internes et de projets innovants autour de la donnée, nous recherchons un stagiaire Développeur Python , avec idéalement une première sensibilité aux sujets d’ Intelligence Artificielle . Vous évoluerez au sein d’une équipe technique dynamique, accompagnée pour monter en compétence sur des technologies modernes. 🧩 Missions principales Développer des scripts, outils ou micro-services en Python Participer à la conception et l’optimisation de pipelines ou traitements de données Contribuer à l’amélioration ou au développement d’algorithmes Réaliser de la veille technique et proposer des améliorations Participer à des projets IA / ML (selon profil) : entraînement de modèles création de POC automatisation de tâches Rédiger de la documentation technique 🛠️ Compétences recherchées Techniques Maîtrise de Python (obligatoire) Bases en : gestion de données (Pandas, NumPy…) API / scripts Bonus apprécié (non obligatoire) : IA / Machine Learning (scikit-learn, PyTorch, TensorFlow…) Notions de LLM / IA générative
CDI

Offre d'emploi
Ingénieur Data SQL H/F

Publiée le
Administration réseaux
Administration système
Supervision

67150, Erstein, Grand Est
Contexte et définition du poste Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Ingénieur Data SQL H/F et vous présentons les points clés du poste : Poste en CDI Basé à Erstein Secteur du commerce de détails et de gros Les conditions : Rémunération selon le profil et les expériences Mode de travail : sur site ; Télétravail possible 1j/semaine après la période d'essai Période d'essai de 3 mois Les missions : Au sein du service Développement de la DSI, l'équipe Data a en charge la conception, la réalisation et le maintien en condition opérationnelle des principaux flux d'échanges de données inter-applicatifs. Pour accompagner son développement, l'entreprise cherche à renforcer l'équipe par une mission de prestation en régie sur site. Les attendus sont les suivants : La conception et l’alimentation de modèles de données dans la base de données pivot de l’entreprise (Staging DB) : Cluster MSQ SQL Server Accompagner l'entreprise dans la migration vers SQL server 2025 : déploiement d'un nouveau Cluser SQL Server 2025 et implémentation de la recherche vectorielle dans les applications existantes Mettre en place des flux d'échanges de données entre les différentes systèmes : ETL SSIS ave possible passage sur un ETL Opensource de type Polars / Pandas sous Airflow Réaliser des cahiers de charges et d'études de faisabilité Accompagner les métier s sur les choix d'architecture de données (choix des données pivots, format approprié des données, etc.) Garantir la qualité des données autant sur le plan technique que métier Intervenir ponctuellement sur le Datawarehouse : Base de données Oracle avec Scripting Bash
Freelance
CDI
CDD

Offre d'emploi
Devops supervision réseau

Publiée le
Grafana

12 mois
Île-de-France, France
Télétravail partiel
Cherchons un profil ayant une forte expertise grafana, prometheus, victoria metrics pour assurer une mission longue autour de la supervision réseau Les livrables sont 1. MCO 2. Administration de la solution en place 3. Développements Python et Go Compétences techniques impératives - Grafana, Prometheus, Victoria Metrics - Expert - Impératif - Connaissance des exporter SNMP, ICMP et réseaux - Expert - Impératif - Python, Go - Expert - Impératif Description détaillée Au sein du Centre de Service Supervision vous serez chargé de la mise en œuvre des moyens de supervision La mission consistera à effectuer, sur le périmètre de la supervision réseau : - Des tâches de MCO - Administrer l'existant maison et éditeur - Assurer des développements autour des solutions et outils ci-dessous. Les compétences clés recherchées : - Expertise exigée sur le soutils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (requests, flask, grafanalib, grafana-api, pandas, glob, tqdm, numpy), Go. Une évaluation technique sera organisée (questions de la part d'un expert). 3 jours de présence sur site requise Mission basée dans le 92, mais déplacements à prévoir (91)

Les métiers et les missions en freelance pour Pandas

Data scientist

Le/ La Data scientist utilise Pandas pour traiter et analyser de grandes quantités de données, réaliser des analyses statistiques et préparer des jeux de données pour des modèles de machine learning.

Data analyst

Le/ La Data analyst utilise Pandas pour extraire, nettoyer et analyser des données provenant de diverses sources afin de fournir des insights aux équipes décisionnelles et optimiser les performances.

Développeur·euse Python

Le/ La Développeur·euse Python utilise Pandas dans le développement d'applications qui nécessitent une gestion avancée de données, comme la création de rapports, la manipulation de bases de données ou l'intégration de systèmes de données.

Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...)

Le/ La Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...) utilise Pandas pour transformer et préparer des données avant de les importer dans des outils de BI afin de créer des visualisations et des rapports décisionnels.

15 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous