Trouvez votre prochaine offre d’emploi ou de mission freelance Panda Cloud Antivirus
Votre recherche renvoie 13 résultats.
Offre premium
Mission freelance
Devops Supervision
Publiée le
Flask
Go (langage)
Grafana
6 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Devops Supervision pour une mission longue en Île de France pour un démarrage ASAP. Au sein du Centre de Service Supervision, chargé de la mise en œuvre des moyens de supervision. La mission consiste à effectuer, sur le périmètre de la supervision réseau : - Des tâches de MCO - Administrer l'existant maison et éditeur - Assurer des développements autour des solutions et outils ci-dessous. Les compétences clés recherchées : - Expertise exigée sur les outils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (Requests, Flask, , Grafanalib, Grafana-api, pandas, glob, TQDM, Numpy), Go. Les livrables sont: MCO Administration de la solution en place Développements Python et Go
Mission freelance
Data Automation Engineer Confirmé
Publiée le
CI/CD
Dataiku
DevOps
6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Offre d'emploi
Data Analyst
Publiée le
Pandas
PySpark
1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Mission freelance
Profil expérimenté DBT/Snowflake
Publiée le
AWS Cloud
DBT
Pandas
6 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Mission freelance
Lead Machine leaning engineering
Publiée le
FastAPI
Flask
Gitlab
12 mois
470-510 €
Île-de-France, France
Télétravail partiel
Je recherche un(e) Lead Machine Learning Engineer pour accompagner la Direction Data d’un grand média français dans la mise en place d’une équipe dédiée aux sujets de recommandation et de personnalisation. 👤 Mission Vous interviendrez au cœur d’une équipe Data (PO, Data Scientist, Lead ML, ML Engineer) pour concevoir, déployer et industrialiser des modèles de machine learning en production, dans un environnement full Google Cloud. 💼 Compétences requises : • 5+ années d’expérience en environnement Data / Machine Learning • Déploiement en production de modèles ML (scalabilité, haute perf) • Maîtrise de Google Cloud (Vertex AI, BigQuery, Cloud Run, Composer, CloudSQL, IAM) • Très bonnes compétences en Python et SQL • Connaissances de Flask, FastAPI, SQLAlchemy, Pgvector, Pandas, Hugging Face • Expérience en Terraform / Terragrunt • Très bonnes connaissances en ML, Deep Learning, systèmes de recommandation • Maîtrise de GitLab & GitLab CI/CD • Capacité à vulgariser, communiquer et accompagner une équipe • Expérience des méthodes Agile (Scrum / Kanban) 📍 Modalités : • Présence sur site requise (~50% du temps) • Expérience attendue : Sénior • Environnement : Paris • Matériel sécurisé requis (chiffrement, antivirus, etc.)
Offre d'emploi
Développeur IA
Publiée le
IA Générative
Nosql
Python
12 mois
42k-47k €
400-420 €
Montpellier, Occitanie
Télétravail partiel
Vos missions seront le développement de solution IA génératives, le tests et le déploiement de ses dernières. Vous travaillerez sur plusieurs projets en simultanée. Nous recherchons quelqu’un de motivé pour travailler sur des solution innovante en perpétuelle évolution, avec une capacité à s'inscrire dans un collectif (partage, collaboration) Compétences demandées : IA GEN Landing Zone Python Back end & data science Frameworks : TensorFlow Libraries : scikit-learn, pandas, NumPy, PyKrige, Pyspark NoSQL, mySQL
Mission freelance
Data Engineer (F/H)
Publiée le
1 an
380-420 €
Erstein, Grand Est
Télétravail partiel
Freelance OU Portage salarial (TJM : 380-420) - Erstein - Expérience de 3 ans minimum (hors stages / alternance) Envie d’intervenir sur un projet de migration et d’optimisation des flux de données dans le secteur industriel ? Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients dans le secteur industriel. Votre rôle : Vous accompagnerez l’équipe dans la conception, la mise en place et l’optimisation des flux de données et du Datawarehouse. - Développer et maintenir les modèles de données : vous assurez l’alimentation de la base pivot et participez à la migration vers SQL Server 2025, en veillant à la performance et à la fiabilité des données. Vous contribuez également à l’intégration de la recherche vectorielle dans les applications existantes - Mettre en place et optimiser les flux de données : vous concevez et développez des pipelines ETL (SSIS), tout en évaluant la transition vers des solutions Open Source (Polars / Pandas sous Airflow) pour moderniser et automatiser les flux - Accompagner la conception et l’architecture des solutions Data : vous rédigez des cahiers des charges, réalisez des études de faisabilité et conseillez les métiers sur le choix des données pivots, les formats et les modèles adaptés, tout en garantissant la qualité et la cohérence des données - Contribuer à l’exploitation du Datawarehouse : vous intervenez sur la base Oracle et développez des scripts Bash pour automatiser les tâches et faciliter la maintenance des données Situation géographique : Erstein (67) – Facile d’accès en transport en commun
Offre d'emploi
Quantitative Analyst
Publiée le
70k €
75001, Paris, Île-de-France
Télétravail partiel
Missions / Responsabilités Développer, mettre en œuvre et maintenir des modèles quantitatifs et des stratégies pour éclairer les tendances de marché et optimiser les décisions de pricing et de risk management sur différents produits et marchés. Collaborer étroitement avec les équipes de vente (Sales) pour identifier les besoins clients et construire des solutions sur mesure. Mener des recherches approfondies, analyses de données et modélisations statistiques pour produire des insights sur les tendances, le pricing et la dynamique des risques. Posséder et maintenir des bibliothèques analytiques et l'infrastructure front‑office associée (qualité, performance, robustesse). Contribuer à l'innovation en apportant une expertise sur les méthodologies quantitatives, les avancées technologiques et les meilleures pratiques de l'industrie. Profil recherché Expérience avérée en Quantitative Analytics sur les dérivés actions (Equity Derivatives) - une exposition FX et commodities est également considérée. Master/Ingénieur (ou équivalent) en Mathématiques financières / appliquées, Physique, Génie. Excellentes compétences en C++ (développement performant, architecture), et bonne maîtrise de Python. Capacité démontrée à travailler de façon autonome, à gérer plusieurs projets simultanément dans un environnement rapide. Aptitude à expliquer des concepts complexes de manière claire (oral/écrit/présentation) à des collègues, traders, sales, management. Anglais écrit et oral de bon niveau. Connaissances cross‑asset (Credit / Rates / Commodities) et/ou forte appétence pour les développer. Environnement & outils (indicatif) Bibliothèques de pricing et risk analytics maison, C++ (modern C++), Python (NumPy/Pandas), collaboration avec IT (qualité, CI/CD), marchés actions et produits exotiques/hybrides.
Mission freelance
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Mission freelance
Devops réseau supervision 10 ans d'expérience
Publiée le
Flask
Grafana
ICMP
6 mois
520-600 €
Île-de-France, France
Télétravail partiel
Contrainte forte du projet Expertise grafana, prometheus, victoria metrics pour de la supervision réseau Les livrables sont MCO Administration de la solution en place Développements Python et Go Compétences techniques Grafana, Prometheus, Victoria Metrics - Expert - Impératif Connaissance des exporter SNMP, ICMP et réseaux - Expert - Impératif Python, Go - Expert - Impératif Connaissances linguistiques Français Courant (Impératif) - Expertise exigée sur le soutils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (requests, flask, grafanalib, grafana-api, pandas, glob, tqdm, numpy), Go.
Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Mission freelance
Business Analyst / Confirmé - Senior
Publiée le
Microsoft Excel
MySQL
Python
3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients un Business Analyst. Voici les missions principales : Réalignement et qualité des données • Cartographier et analyser les données provenant des différentes sociétés du Groupe. • Identifier les écarts, incohérences et redondances. • Réaliser les opérations de nettoyage, harmonisation et migration (via Excel, Python, SQL si nécessaire). • Développer et maintenir des scripts d’automatisation (Python, Pandas, Regex, API). • Expérimenter l’usage de modèles IA (GPT, ML) pour accélérer l’enrichissement, le matching et la classification de données. RUN BI & Reporting • Assurer la disponibilité et la fiabilité des modèles/reports Power BI de publication. • Gérer les incidents et demandes utilisateurs (RUN BI, correctifs, évolutions). • Monitorer les traitements Fabric/Power BI (Data pipelines et Refresh Semantic models) et collaborer avec l’IT pour résoudre les problèmes. • Documenter et optimiser les process de mise à jour et de refresh des dashboards. Analyse métier & accompagnement • Traduire les besoins métiers en spécifications fonctionnelles et data. • Accompagner les équipes locales dans l’adoption des dashboards et outils analytiques. • Proposer des recommandations pour améliorer la gouvernance et la qualité des données. • Être le point de contact privilégié entre équipes Data, IT, BI et filiales.
Offre de stage
Stagiaire Développeur Python / IA (H/F)
Publiée le
IA
Python
6 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
🎯 Contexte du stage Dans le cadre du développement de nouveaux outils internes et de projets innovants autour de la donnée, nous recherchons un stagiaire Développeur Python , avec idéalement une première sensibilité aux sujets d’ Intelligence Artificielle . Vous évoluerez au sein d’une équipe technique dynamique, accompagnée pour monter en compétence sur des technologies modernes. 🧩 Missions principales Développer des scripts, outils ou micro-services en Python Participer à la conception et l’optimisation de pipelines ou traitements de données Contribuer à l’amélioration ou au développement d’algorithmes Réaliser de la veille technique et proposer des améliorations Participer à des projets IA / ML (selon profil) : entraînement de modèles création de POC automatisation de tâches Rédiger de la documentation technique 🛠️ Compétences recherchées Techniques Maîtrise de Python (obligatoire) Bases en : gestion de données (Pandas, NumPy…) API / scripts Bonus apprécié (non obligatoire) : IA / Machine Learning (scikit-learn, PyTorch, TensorFlow…) Notions de LLM / IA générative
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
13 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois