L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 042 résultats.
Offre d'emploi
Développeur Fullstack Python & React / AWS
Publiée le
Apache Maven
AWS Cloud
CI/CD
45k-55k €
Île-de-France, France
Télétravail partiel
Secteur d'activité : Energie Mission(s) : Dévelopement et maintenance d'un portail web et d'une plateforme web regroupant plusieurs sites. Attendu(s) : Développements de nouvelles fonctionnalités backend Python et front ReactJS, la mise en place de maintenance corrective et la migration des services On premise vers des solutions Cloud AWS ainsi que des déploiements. Collaboration avec les Product Owners et intervention sur les développements en s’appuyant sur les besoins Métiers. Profil (s) : Developpeur Fullstack Python/ReactJS/AWS Méthodologie : agile Scrum Télétravail : 60%
Offre d'emploi
Expertise Fonctionnel Cyber Sécurité & Protection des Données
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
67k-76k €
660-670 €
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein d’une entité spécialisée dans la cybersécurité des données liées au Cloud, IA, Big Data et Blockchain. Votre rôle sera d’apporter une expertise avancée en sécurité pour accompagner les projets Gen-AI et garantir la conformité des usages des technologies Microsoft et des standards internationaux. Missions principales : Assurer l’assistance sécurité des projets et centres de compétences sur les sujets Gen-AI . Définir et mettre en œuvre des architectures sécurisées pour les technologies Microsoft (Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML). Produire des dossiers de sécurité : analyses de risques, recommandations, blueprints, normes et standards. Réaliser des revues de code et audits sécurité des composants logiciels. Participer à la définition des KPI de gouvernance , tableaux de bord et roadmap de sécurité AI. Contribuer à la rédaction des politiques d’usage des LLM et guidelines de sécurité. Assurer le reporting et la consolidation des exigences sécurité pour les projets France et International.
Mission freelance
Lead Site Reliability Engineer
Publiée le
AWS Cloud
Docker
Gitlab
12 mois
600-650 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de l’équipe SRE de la plateforme Paiement d’un grand groupe, notre client recherche un SRE Lead expérimenté. Votre rôle sera de garantir la fiabilité, la performance, la scalabilité et l’optimisation des coûts des infrastructures et applications Cloud. Missions principales Assurer la disponibilité, la performance et la supervision des applications (observabilité / monitoring) Analyser et résoudre les incidents critiques (N3) en garantissant le suivi et la communication avec les équipes internes Optimiser les coûts et l’usage des infrastructures Cloud (FinOps) Maintenir et faire évoluer les pipelines CI/CD (tests, sécurité, déploiements progressifs) Automatiser les opérations récurrentes et améliorer la résilience des systèmes Participer à la définition des architectures cibles et patterns d’infrastructure (sécurité, réseau, observabilité…) Collaborer avec les équipes Dev, Architecture et Support sur les évolutions & nouveaux services Rédiger et maintenir la documentation opérationnelle Assurer un rôle de leader technique et accompagner la montée en compétences des SRE
Offre d'emploi
Responsable SysOps – Encadrement et animation de l’équipe SysOps au sein de l’entité Plateforme IT
Publiée le
AWS Cloud
Cloud privé
Infrastructure
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour un grand compte un Responsable SysOps – Management équipe infrastructures OnPremise & Cloud , dans le cadre d’un poste en CDI . Nous étudions – prioritairement – les candidatures qui nous sont adressées à sourcing à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence MDE/CDI/4971 dans l’objet de votre message Le poste concerne un Responsable SysOps intégré à une entité Plateforme IT organisée en agilité à l’échelle. La personne recrutée encadrera l’équipe SysOps responsable du build et du run des infrastructures OnPremise et Cloud public. Le rôle couvre la disponibilité, la performance, l’évolutivité, la capacité, la gestion de l’obsolescence et la maîtrise des coûts des environnements OnPremise, Cloud public et hybrides. Le rôle comprend l’encadrement hiérarchique d’une équipe d’environ quinze personnes (collaborateurs internes et intervenants externes). La structure hiérarchique est distincte de l’organisation opérationnelle : le Responsable SysOps travaille en transverse avec les Product Owner, le Product Manager et le responsable DevOps pour contribuer au delivery et atteindre les objectifs. L’équipe SysOps opère sur trois périmètres : Cloud privé : compute, stockage, virtualisation, OS, datacenter, backup Réseau / sécurité : LAN, WAN, téléphonie, load balancer, firewall Cloud public : Landing Zone AWS L’entité Plateforme IT développe et opère des infrastructures, plateformes et services destinés aux autres équipes de la DSI et contribue à l’accélération du delivery et à la montée en autonomie. Activités principales Encadrement et animation de l’équipe : Organisation et gestion de la charge Suivi du delivery et de la performance Gestion des compétences et recouvrements Uniformisation des pratiques Déclinaison de la vision stratégique Animation de la collaboration et de l’engagement de l’équipe Points de suivi avec les leads et l’équipe Gestion des collaborateurs : Recrutements Gestion des congés et aspects administratifs Suivi des compétences et formations Respect du cadre de travail Réalisation des entretiens annuels Relations avec les ESN : Suivi commercial et organisationnel Gestion des besoins et rotations KPIs, SLAs, reporting : Définition et suivi des KPIs alignés avec les objectifs DSI Pilotage du reporting organisationnel Suivi de la qualité de service et des SLAs Budget et ressources : Construction et suivi budgétaire Gestion des demandes d’achat Gestion des relations avec les ESN Participation aux recrutements Suivi des imputations d’activités et projets
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Mission freelance
Data Engineer Finance et Risque (H/F)
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
229375/Ingénieur CloudOps / SysOps AWS ou AZURE
Publiée le
AWS Cloud
Azure DevOps
6 mois
Paris, France
Ingénieur CloudOps / SysOps AWS ou AZURE, Devops, Kubernetes, Linux. Responsabilités : • Intégration : Concevoir, mettre en œuvre et faire évoluer les infrastructures Cloud et les services Cloud dans un souci constant d'industrialisation, d'efficacité et de coûts (FinOps) • Définir, concevoir, documenter les solutions d'industrialisation en lien avec les équipes R&D du groupe (devOps) et les autres équipes Cloud. • Assurer le transfert de compétences auprès de l’équipe N1 pour une prise en charge au bon niveau des alertes et incidents impactant nos services et les parcours clients. • Prendre en charge des incidents escaladés par les pilotes (Niveau 1 Cegid), le customer care ou les équipes R&D du groupe pendant les phases de transition double RUN • Piloter et correspondre avec les fournisseurs SaaS, logiciels et matériels de la plateforme Cloud • Assurer le respect des processus ITIL (Change, Incident, Problem) • Assurer la mise en œuvre, le respect et l'application des processus sécurité (ISO 27001) • Participer à des groupes de travail transversaux • Définir et rédiger la documentation technique propre au périmètre • Assurer une veille technologique et obtenir les certifications requises au maintien de son expertise Background & skills Experience • Expérience en tant qu’ingénieur Cloud Operation ou infrastructure (minimum 7 ans) dans des environnements IaaS/PaaS de production exigeants (niveau de service et disponibilité) et large volumes • Expérience dans la gestion d’environnement AWS, automatisation et intégration continue • Contribution à des projets de migration cloud applicative et infrastructure (lift & shift, replatform, re build) • Expérience en gestion d’infrastructures IT (Admin System, database) avec une forte orientation en environnements de production clients avec des enjeux de disponibilités très élevés. • Expérience de la gestion des incidents et des crises • Capacité à travailler dans un environnement agile, à gérer et ajuster les priorités de l’équipe Cloud Education • Bac+5 ou supèrieur. Diplôme en informatique, ingénierie ou domaine équivalent. Required Skills • Esprit analytique, rigueur et sens de l’anticipation • Autonomie, proactivité et capacité à prendre des décisions • Appétence pour l’excellence opérationnelle • Organisation, priorisation, pragmatisme • Partage de connaissance • Communication technique avec les autres équipes, leurs managers ou dans toute instance nécessitant la présentation de projets et de leurs objectifs • Passionné avec l’envie d’apprendre et de transmettre, qui sait créer les conditions d’un échange constructif – individuel et collectif • Intègre, transparent • Anglais courant Desirable Skills Mandatory • Certification avancée sur AWS • Compute / virtualisation : Windows et/ou Linux, scripting Powershell ou python, VMWare • DB : SQL Server, Cosmos DB, Oracle, Mysql • Outils de monitoring type APM (Ex : Dynatrace, Splunk) • Terraform, Ansible, GitHub, Azure DevOps Expected skills Microsoft Azure Confirmed DEVOPS Confirmed KUBERNETES Confirmed LINUX Confirmed AWS Confirmed
Offre d'emploi
Ingénieur DevOps AWS (H/F)
Publiée le
Azure DevOps
CI/CD
Databricks
1 an
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre du renforcement des équipes techniques d’un acteur majeur du secteur de l’énergie, nous recherchons un Ingénieur DevOps expérimenté maîtrisant l’écosystème AWS et les outils modernes de CI/CD et de supervision. Environnement technique : Cloud : AWS (certification AWS appréciée) Supervision : Datadog Data platform : Databricks CI/CD : GitLab CI/CD Containerisation & orchestration : Docker, Kubernetes, EKS Traitement de données : Spark Missions : Gérer, maintenir et faire évoluer les environnements AWS (infrastructure as code, sécurité, monitoring). Automatiser les pipelines CI/CD sous GitLab . Mettre en place et maintenir les clusters Kubernetes / EKS . Superviser la production avec Datadog et optimiser les performances. Collaborer avec les équipes Data sur les environnements Databricks / Spark . Participer à la mise en œuvre des bonnes pratiques DevOps (automatisation, observabilité, déploiement continu).
Mission freelance
POT8733 - Un développeur Springboot/Angular sur Grenoble
Publiée le
AWS Cloud
6 mois
330-420 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem) Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem).
Offre d'emploi
Architecte Solution
Publiée le
API
AWS Cloud
ETL (Extract-transform-load)
1 an
La Défense, Île-de-France
Télétravail partiel
Contexte de mission Renfort ponctuel suite au changement de poste de l’Architecte Solution Integration. Participation à un programme stratégique international visant à consolider et moderniser les solutions d’intégration data & applicatives du groupe. L’Architecte Solution Integration interviendra dans le cadre du programme stratégique de globalisation, rationalisation et modernisation des solutions d’intégration du groupe. Sous la responsabilité du Directeur Integration Platform et du manager de programme, il aura pour missions : Rôle & Responsabilités : Analyse & Cadrage Architecture & Design Authority Documentation & Gouvernance Innovation & Expertise
Offre d'emploi
Architect Solution (H/F)
Publiée le
API
AWS Cloud
IA
3 ans
40k-60k €
560-650 €
Île-de-France, France
Pour notre client dans le secteur énergétique, nous recherchons un Architecte SI / Architecte Technique pour contribuer aux projets d’évolution du système d’information. Le poste implique un rôle central dans la conception des solutions, la coordination technique entre les équipes, le suivi de la dette technologique et la participation active aux chantiers d’amélioration continue, notamment autour des technologies cloud, microservices et de l’IA agentique. Missions principales : Conception et études techniques Réalisation de macro-études permettant de dimensionner les projets, incluant l’identification des solutions, des impacts, des risques et des chantiers techniques nécessaires à la mise en œuvre. Conception d’architectures techniques répondant aux exigences métiers, de sécurité, d’urbanisation et d’exploitation. Production des documents d’architecture tels que DAT, HLD et LLD. Accompagnement projet Rédaction et suivi des tickets de provisioning d’infrastructure pour les équipes concernées. Suivi des chantiers techniques tout au long du projet et participation aux instances de pilotage : rituels agiles, comités projet, revues techniques. Coordination transverse avec les équipes de développement, TMA, infrastructures système et réseau, et exploitation. Accompagnement run Support aux mises en production, analyse et accompagnement lors des incidents et problèmes. Contribution au maintien en conditions opérationnelles et à la qualité de service du SI. Gestion de l’obsolescence Analyse régulière de l’obsolescence du patrimoine du SI, identification des risques et définition des actions de remédiation. Suivi de la dette technique et contribution aux plans d’évolution. Standards et amélioration continue Participation active aux comités développeurs et aux comités d’architecture. Rédaction, mise à jour et promotion des standards techniques et des bonnes pratiques. Contribution aux chantiers d’industrialisation, d’automatisation, de sécurité et d’optimisation du SI. Projets IA et agents intelligents Participation à la conception et à l’intégration de solutions s’appuyant sur des agents IA simples ou complexes. Contribution au cadrage technique, au design des architectures IA et au choix des frameworks, orchestrateurs et composants. Participation aux projets intégrant LLM, frameworks agentiques et modèles avancés.
Mission freelance
PMO Transformation Cloud Hybride
Publiée le
AWS Cloud
Azure
Direction de projet
6 mois
800-1 200 €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l’un de ses clients un PMO Transformation dans le cadre d’un projet de transformation Cloud Hybride ambitieuse Vos missions : Agir comme PMO de programme aux côtés du directeur de la transformation cloud (suivi planning, risques, budgets, dépendances, reporting comités). Piloter opérationnellement les streams de transformation liés à la plateforme d’ingénierie : cloud privé OpenShift, cloud public (GCP / Azure / AWS), outillage CI/CD, modèles de déploiement. Coordonner les équipes projet multi‑sites (Niort, Paris, Le Mans…) et les parties prenantes (architectes, équipes de développement, exploitation, sécurité). Contribuer, en tant que expert de l’hybridation d’architectures , à challenger les choix techniques 2/3‑tiers et les modèles de déploiement applicatif. Structurer et animer la gouvernance de la transformation : rituels, indicateurs de progrès, suivi des chantiers (build, migration, run). Préparer et consolider les livrables de pilotage : roadmaps, dashboards d’avancement, comptes‑rendus de comités, plans d’actions. Faciliter l’appropriation de la plateforme par les équipes de développement et d’hébergement (acculturation, accompagnement au changement).
Offre d'emploi
Tech Lead Snowflake
Publiée le
Apache Airflow
AWS Cloud
Snowflake
2 ans
40k-81k €
400-640 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Tech Lead Snowflake : le Tech Lead « aura donc la charge de: 1)Co-piloter la Feature Team 2)Créer un binôme fort avec son homologue ‘Produit’ (Product Owner déjà présent). 3)Encadrer les Data Engineers : 4 externes + 1 interne 4)Assurer la mise en oeuvre des bonnes pratiques de développements (DevOps, Qualité, FinOps, etc.) 5)Contribuer au cadrage, découpage & macro-estimation des nouveaux sujets. 6)Orienter les choix techniques et de modélisation (urbanisation Snowflake, patterns Archi, etc.) 7)Livrer les produits Data (Analytics & IA) suivant les engagements de qualité et de délais pris. 8)Gérer la communication et la résolution en cas d’incidents. 9)Tenir informés ses supérieurs, voir les alerter ou demander de l’aide en cas de risque ou pb. 10)Participer aux évènements organisés à l’échelle de la DATA ou de la verticale ENGINEERING.
Mission freelance
DBA & Cloud (AWS)
Publiée le
AWS Cloud
dBase
36 mois
650-660 €
La Défense, Île-de-France
Je cherche pour l'un de nos clients un DBA avec une forte culture DevOps/Cloud . le Client est basé à la défense. Missions: Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Missions principales Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité , le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD . Contribuer au monitoring et à l’ observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’ évolution des schémas BDD via des outils de migration comme Liquibase .
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2042 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois