L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 331 résultats.
Offre d'emploi
Développeur Python / DevSecOps
MSI Experts
Publiée le
DevSecOps
Linux
Python
1 an
Saint-Denis, Île-de-France
Nous recherchons un(e) Développeur DevSecOps disposant de solides compétences en Python pour rejoindre une équipe IT dédiée à des projets métiers à fort enjeu. Vous interviendrez au sein d’une équipe technique en collaboration étroite avec un référent technique, sur des sujets mêlant automatisation, sécurité et valorisation des données. Vos missions Au cœur des activités de développement et d’exploitation, vous serez amené(e) à : Mettre en place et améliorer les pratiques DevSecOps sur plusieurs applications Automatiser les processus liés au développement, aux tests, aux déploiements et à la maintenance Identifier, analyser et corriger les vulnérabilités de sécurité Suivre et optimiser les performances des applications Participer à la conteneurisation des environnements (type Docker / Kubernetes) En parallèle, grâce à votre expertise en Python, vous contribuerez à des projets orientés data et outils métiers : Développer des scripts de traitement et d’analyse de données Concevoir des reportings à destination des équipes métiers Alimenter et structurer les bases de données internes Développer des interfaces simples pour faciliter l’exploitation des données Assurer la maintenance et l’évolution des outils existants Accompagner les équipes dans la création de tableaux de bord (type BI) Participer à des travaux de modélisation et de prévision Une montée en compétences progressive est prévue afin de vous permettre de gagner en autonomie et de devenir un appui fiable sur les sujets techniques clés.
Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F
Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)
6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Mission freelance
Data Engineer Snowflake - Lyon
Net technologie
Publiée le
Snowflake
3 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de la migration de BW vers Snowflake, les deux profils seront en charge de la migration des données SAP & BW vers Snowflake au sein d’une équipe d’une dizaine de personnes pour notre client. Tâches à réaliser : Concevoir et développer les pipelines d’ingestion et de transformation des données depuis SAP et BW vers la plateforme Snowflake. · Assurer la qualité, la cohérence et la sécurité des données tout au long du processus de migration. · Collaborer étroitement avec les équipes fonctionnelles et techniques pour comprendre les besoins métiers et adapter les solutions data. · Optimiser les performances des flux de données et veillez à leur scalabilité dans l’environnement Snowflake. · Participer à la documentation technique et à la mise en place des bonnes pratiques autour des données. · Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration.
Mission freelance
Ingénieur Machine Learning
FUZYO FRANCE
Publiée le
CI/CD
FastAPI
Flask
3 mois
Paris, France
👩💻 Nous recherchons un profil disposant : - Au moins 3 ans d’expérience dans un environnement / - Expériences dans le déploiement en production de modèles de machine learning - Expériences sur la - Expériences avec des technologies de type ou - Maîtrise des langages et - Solides connaissances en data : structures de données, code, architecture - Connaissances de l’infrastructure-as-code () - Connaissances du Machine Learning, des concepts liés à l’ - Connaissances des technologies liées à l’IA : , etc - Connaissances de et /CD - Capacité à vulgariser et à communiquer sur des aspects purement techniques - Pratique des méthodes : de préférence Scrum ou Kanban 📍 Localisation : 📅 Démarrage : ASAP 📢 Type de contrat : Freelance ou sous-traitance ❌ Offre réservée aux résidents européens
Mission freelance
247811/Incident Manager Data Niort - Dynatrace, Confluence, ITIL
WorldWide People
Publiée le
ITIL
6 mois
350 €
Niort, Nouvelle-Aquitaine
Incident Manager Data Niort - Dynatrace, Confluence, ITIL Contexte de la mission Le Data Office de mon client définit les orientations stratégiques dans le domaine de la donnée et assure l'homogénéité et la performance de l'écosystème Data. L'équipe Exploitation des Services de Services Delivery Data pilote, assure et améliore au quotidien la disponibilité des services informatiques. Des compétences d'autonomie, de force de proposition tout en ayant une bonne connaissance des environnements de production sont indispensables. Le candidat doit avoir une posture d'amélioration continue. Objectifs et livrables Le poste d'Incident Manager a pour objectif de piloter le processus de gestion des incidents sur le périmètre Data, conformément aux bonnes pratiques ITIL. Il veille à la restauration rapide du service lors d’incidents, à la résolution durable des causes racines, et à la satisfaction du client. Objectifs et livrables Son rôle s’inscrit pleinement dans une démarche d’amélioration continue et de pilotage de la qualité de service. Les missions principales consistent à : ● Piloter le traitement des incidents selon ITIL. ● Coordonner les équipes techniques et suivre les escalades. ● Gérer les incidents majeurs (crise, communication, RCA). ● Assurer la production, l’analyse et la présentation des reportings opérationnels et de gouvernance. ● Participer aux comités techniques et opérationnels. ● Contribuer à l’amélioration continue des processus et de la performance du service. Compétences Requises Un minimum d’expérience est demandé (x<3 ans) avec des compétences avérées. Savoir-Être (Soft Skills) ● Connaissance du référentiel ITIL v4 (certification souhaitée). ● Expérience en pilotage d’incidents. ● Maîtrise de l’outil ITSM (Easyvista). ● Maîtrise du reporting (Google WorkSpace). ● Capacité d’analyse, esprit de synthèse et orientation résultats. ● Excellentes aptitudes en communication et en relation client. ● Rigueur, diplomatie, réactivité et sens du service. ● Activité réalisée partiellement sur site et télétravail. Compétences Techniques (Hard Skills) Le niveau d'expertise souhaité est détaillé ci-dessous : Compétence Niveau Souhaité Ordonnanceur (Control M) Élémentaire (*) Monitoring (Dynatrace) Élémentaire (*) Easyvista ITSM Avancé (**) Jira, Confluence, Google Workspace Élémentaire (*) Certification ITIL Avancé (**) Légende : Élémentaire (*), Avancé (**), Confirmé (***), Expert (****) Compétences demandées Compétences Niveau de compétence CONFLUENCE Expert DYNATRACE Expert ITIL Expert
Offre d'emploi
Développeur Java Spring / Data / Greenplum / Vtom - Niort
HR DNA
Publiée le
Greenplum
Java
Spring
2 ans
40k-55k €
400-510 €
Niort, Nouvelle-Aquitaine
Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Spring avec : - des connaissances Data - de l'expérience sur Greenplum - des connaissances en accès API - de l'expérience sur un orchestrateur comme Vtom par exemple 2 jours sur site à Niort par semaine obligatoire. Si vous êtes intéressé, envoyez-moi votre CV par mail Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Spring avec : - des connaissances Data - de l'expérience sur Greenplum - des connaissances en accès API - de l'expérience sur un orchestrateur comme Vtom par exemple 2 jours sur site à Niort par semaine obligatoire. Si vous êtes intéressé, envoyez-moi votre CV par mail
Offre d'emploi
Architecte dataops
OBJECTWARE
Publiée le
Agent IA
DevOps
3 ans
Île-de-France, France
🎯 Nous recherchons un(e) Senior DevOps / Platform Engineer (Data & AI) Dans le cadre du développement d’une plateforme Data & IA stratégique, nous recherchons un profil senior DevOps / Cloud Engineer pour renforcer une équipe d’experts. 🏗️ Le projet Plateformes MLOps en production à grande échelle Environnements Cloud & On-Premise Cas d’usage autour de l’ IA générative Infrastructures critiques à forte exigence de disponibilité 🚀 Vos responsabilités Concevoir et maintenir des solutions d’automatisation avancées (IaC, CI/CD, GitOps) Assurer la stabilité et la performance des plateformes Gérer le cycle de vie des environnements (déploiement, release, migration) Participer à l’industrialisation des pratiques DevSecOps / MLOps Collaborer avec des équipes Data, Infra et Produit 🛠️ Environnement technique Kubernetes / Docker / OpenShift Cloud + On-Premise (GPU) Python / Shell GitLab CI, ArgoCD, Ansible, Vault 👤 Profil recherché Expérience confirmée en DevOps / Cloud / Kubernetes Maîtrise des outils d’automatisation et CI/CD Expérience en environnements complexes en production Autonomie, rigueur et esprit d’équipe Anglais professionnel 💡 Les + Environnement technique de pointe Projets Data & IA innovants Équipe experte et culture DevOps forte 👉 Opportunité idéale pour un profil souhaitant évoluer sur des sujets Platform Engineering & IA à grande échelle .
Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy
Mon Consultant Indépendant
Publiée le
Data analysis
IA
1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Mission freelance
TECH LEAD - AWS DATA ENGINEER
CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow
3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Offre d'emploi
DEVOPS Platform Engineer - Niveau 3
KEONI CONSULTING
Publiée le
Grafana
Linux
Terraform
18 mois
20k-60k €
100-500 €
Paris, France
Contexte Nous recherchons un Devops de Platform Engineer pour répondre aux besoins des & équipes de fabrication applicatives. Au sein de la Platform Engineering dans la tribe, le Platform Engineer sera en charge de l’intégration et l’administration des offres. MISSIONS • Maîtrise des serveurs Linux, Unix, RedHat, etc. ainsi que d’un ou plusieurs langages de programmation, notamment Python • Accompagné les clients internes « ME » projet sur la livraison de leurs applications dans le cloud • Être support des « ME » en cas de bug ou anomalie sur leur livraison • Assurer les installations des logiciels fournis par les éditeurs • Concevoir, industrialiser et maintenir des pipelines CI/CD pour les offres IaaS / PaaS de la Direction Technique, en respectant les standards internes (GitHub Actions, Jenkins, ArgoCD) • Installer et paramétrer le progiciel et l’adapter aux exigences du client • Automatiser le provisioning et la configuration des offres Platform Engineering • Développer des playbooks Ansible et des modules Terraform • Installation et Intégration des produits DT d’observabilité (Grafana, LOKI, Instana ELK • , Prometheus) • Automatiser les tests et la validation technique • Installation et Intégration des produits Socle de la Platform Engineering (PostgreSQL, MongoDB, HAproxy, Kafka, Redis) • Intégrer et paramétrer les solutions logicielles et applicatives dans les environnements de tests et d’assurer la cohabitation de l’ensemble des composants techniques et applicatifs des environnements de tests. • Paramétrer ces logiciels en conformité avec les exigences fonctionnelles définies et en adaptation avec les autres composants de l’environnement technique. • Préparer et suivre avec les équipes projets & de production, les mises en exploitation des applications. • Acquérir une maîtrise des offres d’infrastructures du cloud provider « GTE » pertinentes sur ce périmètre • Rédiger les scénarios de test & identification des outils de benchmarking • Communiquer les résultats du benchmark et présentation du rapport d’analyse • Participer au chantier de définition du modèle opérationnel • Maîtriser les standards de l’offre de service avec des cas d’usage à destination des fabrications RÉSULTATS ATTENDUS Les résultats attendus sont : • Accompagner et Participer aux livraisons des projet défini • Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continu des itérations • Être support des « ME » en cas d’anomalie sur les livraisons et proposer des solutions de résolution. • Participer aux ateliers avec « GTE » • Développer et documenter des cas de test manuels et scénarisés • Analyse et recommandations de mise à l'échelle des applications et de l'infrastructure • Préparation et présentation des résultats de performance • S’inscrit dans une démarche d’amélioration continue par des feedbacks au sein de l’équipe d’accompagnement projets • Être garant du modèle d’intégration du socle de conteneurisation avec les systèmes d’échange, et d’une manière générale l’ensemble de l’écosystème • Rédiger doc technique • Réaliser les tests associés au paramétrage : tests unitaires, tests d’intégration… • Participe aux cérémonies/réunions projet • Suit et réalise les actions projets qui lui sont affectées • Participe à l’identification des risques projet • Participe aux comités de pilotage
Offre d'emploi
Tech Lead Python
Webnet
Publiée le
Python
50k-55k €
Lille, Hauts-de-France
📍 Tourcoing ⏱ Démarrage : ASAP 💰 Rémunération : 50–55 K€ brut annuel Contexte Dans le cadre d’un vaste programme de transformation numérique, un acteur majeur du secteur public à fort impact territorial modernise son système d’information : refonte de l’ERP, évolution du SIRH, structuration de la plateforme data, ouverture du SI via des APIs et services découplés. Votre rôle : En tant que Tech Lead Python, vous êtes le référent technique des équipes de développement. Vous intervenez à la fois sur la conception des solutions , les choix technologiques , la qualité du code et la montée en compétences des développeurs . Missions principales : Piloter les choix techniques (langages, frameworks, patterns, outillage) Concevoir et valider des architectures applicatives modernes (APIs, microservices, services découplés) Encadrer le développement backend et frontend Garantir la qualité du code , la performance et la sécurité des applications Mettre en œuvre les bonnes pratiques DevSecOps Participer aux arbitrages techniques structurants avec les chefs de projet Rédiger et maintenir la documentation technique Accompagner et former les développeurs (mentorat, revues de code) Collaborer avec des partenaires externes et assurer la cohérence globale du SI Environnement technique : Backend : Python Frontend : Angular, JavaScript / TypeScript Architecture : APIs REST, microservices, SI modulaire Conteneurisation & orchestration : Docker, K3s Sécurité : sécurité applicative, gestion des flux, bonnes pratiques RGPD Méthodologies : DevSecOps, normes et standards d’architecture Documentation & gouvernance : référentiels type TOGAF (appréciés)
Mission freelance
Développeur Python - Accessibilité RGAA
ROCKET TALENTS
Publiée le
Support utilisateurs
1 an
300-350 €
Orléans, Centre-Val de Loire
Ci dessous le besoin : Les principales activités consistent à : Analyser les demandes d’évolution et/ou de correction Concevoir des solutions adaptées à WebAccess et NVDA, en conformité avec le cahier des charges et les exigences de qualité (performance, maintenabilité, exploitabilité, etc.) Concevoir en équipe la nouvelle solution « Aide en ligne » Développer et tester les solutions conçues Participer aux phases de recette avec des utilisateurs déficients visuels Assurer le support direct auprès des utilisateurs déficients visuels Pré-requis techniques Maîtrise du JavaScript natif Maîtrise de Python Maîtrise de HTML & CSS Maîtrise de React Sensibilité ou formation à l’accessibilité numérique et à l’éco‑conception ==> tres important
Offre d'emploi
DATA MANAGER EXPERT SNOWFLAKE
BEEZEN
Publiée le
Snowflake
3 mois
40k-76k €
510-600 €
Île-de-France, France
SQL & data analysis (expert) Data quality rules, controls & reconciliation (expert) Snowflake (expert) Technical data documentation & lineage (expert) 1) Cadrage & design des Data Products (Customer) Contribuer au cadrage et à la conception des data products alignés aux besoins métiers. Apporter une compréhension fonctionnelle des processus Customer . Challenger les choix de modélisation (complexité, faisabilité, impacts cross-domain). Assurer l’alignement avec la target data architecture et les standards dès la phase de design. 2) Standards & gouvernance Data Définir / maintenir / promouvoir les standards de data management (modélisation, conventions, documentation). Produire et faire appliquer des guidelines/patterns réutilisables. Garantir l’adoption des standards sur le domaine Customer . Être garant(e) de la qualité de la documentation et des pratiques de gouvernance. 3) Urbanisation transverse & qualité long terme Assurer la cohérence et l’ interopérabilité entre domaines data. Identifier et réduire doublons / recouvrements / fragmentation autour des concepts Customer. Proposer des recommandations transverses favorisant harmonisation, réutilisation et robustesse.
Offre d'emploi
Backend Python AWS – Serverless / Produit d’hypervision
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Datadog
Python
3 ans
10k-45k €
100-380 €
Nantes, Pays de la Loire
On cherche un backend Python qui sait mettre les mains dans le run autant que dans le code . Le sujet : construire et faire évoluer des outils d’hypervision qui permettent de comprendre, en temps réel, l’état de systèmes complexes (chaînes métier complètes). Pas un projet vitrine. 👉 Un produit utilisé, qui sert vraiment. 🧩 Le contexte Petite équipe (PO, dev front, dev back, ops, agile master) Organisation agile simple, sans surcouche Beaucoup de responsabilités côté backend (logique + infra + déploiement) Tu ne seras pas “le dev backend”. 👉 Tu seras le backend . ⚙️ Ce que tu vas vraiment faire Développer des APIs en Python (propres, maintenables, utilisées) Travailler sur une archi serverless AWS (Lambda, API Gateway, S3, DynamoDB) Gérer l’infra via Terraform (pas juste lire du code) Déployer via Gitlab CI/CD Exploiter des données de monitoring (Datadog) Corriger, améliorer, optimiser → en continu Et surtout : 👉 participer à la création d’un nouveau produit (pas juste maintenir l’existant) 🧠 Stack Python AWS (Lambda, S3, API Gateway, Cognito) DynamoDB Terraform Gitlab CI Datadog 💬 Pourquoi ça vaut le coup stack propre, moderne, sans legacy lourd vraie autonomie impact direct sur le produit environnement où tu peux proposer et changer des choses
Offre d'emploi
Chef de projet Data MDM (industrie)
Amontech
Publiée le
BigQuery
Looker Studio
Master Data Management (MDM)
40k-45k €
Aubervilliers, Île-de-France
📌 Contexte Dans le cadre d’une mission au sein du Pôle DATA (secteur industriel) nous recherchons un/une Chef(fe) de projet Master Data pour intervenir sur la gestion et l’amélioration du référentiel d’entreprise. Vous intégrerez une équipe dédiée à la gouvernance des données , travaillant sur une solution interne et des projets d’amélioration continue de la qualité des données et des workflows métiers. 🎯 Missions En tant que Chef(fe) de projet Master Data, vous interviendrez à la fois sur la gestion du référentiel, l’amélioration de la qualité des données et la conduite de projets d’évolution. 🔧 Gestion et administration du référentiel (50%) Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents pour l’appropriation des outils et workflows Maintenir la cohérence et l’intégrité du référentiel de données ⚙️ Amélioration de la qualité des données (30%) Réaliser des analyses croisées multi-sources pour identifier anomalies et incohérences Définir et prioriser les plans d’action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives 🔧 Conduite de projets d’amélioration continue (20%) Recueillir et analyser les besoins d’évolution exprimés par le business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement)
Mission freelance
Développeur Back-End Python Senior (H/F)
Freelance.com
Publiée le
Ansible
Apache Airflow
CI/CD
1 an
520-580 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme technologique stratégique, nous recherchons un développeur back-end Python expérimenté pour intervenir sur une application de traitement et d’analyse d’images satellites. Vous rejoindrez une équipe de développement déjà en place afin de contribuer à l’évolution fonctionnelle et technique d’une solution existante dédiée à la détection d’objets d’intérêt sur des données satellitaires. Votre mission consistera à travailler sur une base de code importante et mature, en participant à l’amélioration continue de l’architecture, des performances et des fonctionnalités. Vous interviendrez notamment sur l’analyse de problématiques complexes, l’optimisation de la gestion des données et la mise en place de solutions robustes permettant d’assurer la fiabilité et la scalabilité de la plateforme.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3331 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois