L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 045 résultats.
Mission freelance
Architecte AWS
Publiée le
AWS Cloud
1 an
500-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Architecte Architecte logiciel et applicatif / Cloud AWS. Secteur d'activité client final : énergie Contexte : Le consultant interviendra dans une équipe en tant qu’architecte applicatif et logiciel sur les technologies Cloud AWS. Son rôle d’Architecte Cloud consistera à assembler (Architecte ensemblier) de services applicatifs (souvent fournis par un service Platform sous forme de module Terraform) pour intégrer des frameworks logiciels, des services de stockage, des services d’IA, de l’outillage de IAC/CI/CD, d’outillage d’observabilité ou de résilience.
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles
Publiée le
BI
Data Lake
Microsoft Fabric
9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Offre d'emploi
Architecte Système Cloud AWS
Publiée le
Architecture
AWS Cloud
Management
80k-85k €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Système Cloud AWS en CDI répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à sourcing à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/ARCHI/4969 en objet du message Vos responsabilités Missions : Décliner la vision d’architecture système à l’échelle des produits et applicatifs de l'entité Intégrer les besoins métier dans la définition de la roadmap d’architecture de l'entité Assumer le rôle de Business Owner de l’entité plateforme et porter des besoins via le portfolio DSI Garantir la non-obsolescence du SI de l’entité, via une veille active et une stratégie de modernisation continue Collaborer étroitement avec les techs leads et leads dev pour s’assurer de la bonne mise en œuvre de la roadmap logicielle et technique Identifier et remonter les besoins en compétences nécessaires pour accompagner les évolutions d’architecture Participer à la définition, au cadrage et à l’évaluation des initiatives transverses (sécurité, observabilité, interopérabilité, etc.). Activités : Participer au cadrage des besoins portés par son entité, à travers des études d’architecture impliquant les parties prenantes clés (architectes d’entreprise, sécurité, PO/PM, leads tech /lead dev…) ; Contribuer à la construction du portfolio de son entité et représenter celui-ci dans les instances du portfolio DSI ; Porter des besoins techniques structurants (ex : monitoring, automatisation, outils de delivery), en assurant leur cadrage et leur priorisation ; Participer activement aux cérémonies agiles de l’entité (refinement, PI Planning, démonstrations…) ; Élaborer des dossiers d’architecture en lien avec les normes internes et le catalogue des composants homologués ; Être moteur dans les Communautés de Pratiques (CoPs) en partageant des retours d’expérience, bonnes pratiques et innovations ; Participer aux recrutements techniques. Gestion projets : Garantir la cohérence des infrastructures dans le cadre de l’urbanisation du SI Participer à la définition et à la mise en œuvre de la roadmap technique ; S’assurer de l’alignement avec la stratégie d’entreprise. Accompagner les équipes projets dès la phase de cadrage Participer aux comités d’architecture selon le sujet Apporter une expertise sur les choix d’infrastructure (on-prem, cloud, hybride) ; Valider les livrables techniques (dossiers d’architecture, plans d’exploitation…). Veille et amélioration continue : Suivre l’évolution des technologies (virtualisation, containerisation, cloud, sécurité…) Identifier des axes d’amélioration de l’existant (disponibilité, coût, performance) Participer à des communautés d’architectes (guildes, chapters, COPs…)
Offre d'emploi
Data Engineer H/F
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Mission freelance
Ingénieur Système / Cybersécurité – RUN & Sécurité Cloud
Publiée le
AWS Cloud
Run
Terraform
12 mois
Provence-Alpes-Côte d'Azur, France
Télétravail partiel
Nous recherchons un Ingénieur Système / Cybersécurité pour intervenir chez l’un de nos clients grands comptes dans le cadre du renforcement de l’équipe sécurité. Votre rôle sera essentiel pour assurer le maintien en condition opérationnelle des solutions de cybersécurité et accompagner les évolutions techniques sur le périmètre cloud & sécurité. Vos missions Assurer le MCO / RUN des systèmes et solutions de sécurité Traiter les incidents, demandes et changements Déployer, configurer et maintenir des solutions de sécurité en environnement projet Mettre en place des PoC et participer aux phases de test et de validation Rédiger la documentation technique nécessaire au RUN (procédures, process, guidelines) Automatiser certaines tâches d’administration (Ansible, scripts, etc.) Compétences techniques recherchées ✔️ Indispensables : Zscaler – niveau Expert (ZIA / ZPA) UNIX / Linux – Expert Expérience forte en RUN / MCO Connaissances solides en BUILD / projets ✔️ Très appréciées : Cloud AWS – Confirmé Infrastructure as Code Terraform – Confirmé Ansible – notions acceptées Connaissances en environnement sécurité, proxy cloud, Zero Trust Profil recherché Ingénieur Système / Sécurité expérimenté (5+ ans idéalement) Capacité à diagnostiquer, exploiter et optimiser des environnements de sécurité Aisance en RUN, gestion d’incidents et relation avec les équipes internes Esprit analytique, rigueur, sens de la documentation Ce que nous offrons Mission longue dans un environnement technique exigeant Intervention sur des technologies de sécurité cloud de premier plan Montée en compétence sur l’écosystème Zero Trust Possibilité de pré-embauche selon affinités
Mission freelance
Architecte/Techlead Python AWS
Publiée le
AWS Cloud
DevOps
Python
1 an
600-650 €
Paris, France
Télétravail partiel
Le Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement, en veillant à la qualité technique des solutions mises en œuvre et au respect des meilleures pratiques de développement. Il ou elle sera responsable de l'architecture technique du projet, de la planification des tâches de développement. Le Tech Lead devra également encadrer et mentorer les développeurs et développeuses, en les accompagnant dans leur montée en compétences et en veillant à ce que les objectifs de développement soient atteints. Description détaillée des tâches qui constituent la mission • La conception et la révision du code source – python o ETLs, 2 app back, 1 schéma de BDD • La documentation du code source • La performance des services back • L’administration des infrastructures informatiques – Jenkins, AWS (S3, RDS), Ansible, Helm, Kubernetes • Les déploiements des apps back sur les différents environnements (dev, recette, intégration, production) • La revue de code des autres .s back-end En parallèle, il.elle se démarquera par sa capacité à s’imprégner des enjeux du projet. Cela passe par : • Un intérêt marqué pour comprendre les enjeux métier du projet • L’appropriation de l’outil et du code source. • Le partage de connaissance technique pour améliorer, en équipe, l’application. • La prise d’initiative sur les sujets techniques. • L’investissement dans les activités de l’équipe projet Le Tech Lead disposera d’une grande autonomie et sera force de proposition technique pour assurer le fonctionnement de l’application et garantir son adéquation avec le cahier des charges. Nous recherchons un profil Senior, proactif dans la mise en qualité de l’outil et le travail en équipe, avec une à minima une expérience en DevOPS. Il sera également très apprécié que la candidate maitrise certains des outils de l’environnement DevOps parmi les suivants : Jenkins, AWS (S3 et RDS), Ansible, Helm, Docker, Kubernetes, Datadog. Le/la tech lead devra également maitriser la méthodologie de gestion de projet Agile – Scrum ainsi que l’outil de gestion de version GitLab. La connaissance des outils de gestion de projet Jira ou Linear sera appréciée. En termes de formation, deux types de profils peuvent également être très valorisés : • Un profil ingénieur issue de grande école française • Un profil ingénieur issue d’écoles spécialisées en développements informatiques et web en sont de bons exemples Environnement technique : Le projet fait à date appel aux technologies suivantes : • Python – FastAPI, SQLalchemy, Alembic pour les services back-end • PostgreSQL – PostGIS pour les services de base de données La bonne maitrise des technologies suivantes est donc requise : • Python 3.13 o FastAPI o SQLalchemy 2 o Pydantic 2 o Pytest • PostgreSQL 14 o PostGIS
Offre d'emploi
Architecte Solution (On-Premise & Cloud – SaaS / PaaS)
Publiée le
AWS Cloud
Azure
PaaS (Platform-as-a-Service)
12 mois
55k-70k €
550-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre du développement et de la modernisation de notre paysage applicatif, nous recherchons un Architecte Solution capable d’intervenir sur des architectures on premise ainsi que sur des environnements Cloud (SaaS, PaaS) . La mission consiste à accompagner les projets, rationaliser notre portefeuille applicatif et garantir la cohérence technique avec les standards du groupe. Architecture & Documentation Être force de proposition pour répondre aux besoins des projets et des équipes métiers. Documenter techniquement l’existant en vue de migrations , stratégies de rationalisation et consolidation des applications. Rédiger les documents d’architecture : HLD (High Level Design) LLD (Low Level Design) Schémas de modélisation et d’architecture Alimenter et cartographier le référentiel applicatif via l’outil d’EA (LeanIX). Conformité & Best Practices Garantir le respect des bonnes pratiques du groupe , notamment en matière de sécurité , lors de la mise en place des solutions Cloud. Assurer le suivi de l’obsolescence applicative et proposer des solutions pour résorber la dette technique (système et applicative). Stratégie Cloud & Expertise Apporter son expertise dans la stratégie Move-to-Cloud des applications. Participer activement à la modernisation et à l’évolution des architectures. Interactions & Coordination Être le point de contact privilégié avec : Les équipes projets / MOA pour le build et le run des applications Les équipes IT internes (Architecture d’entreprise, IT OPS, Sécurité, etc.)
Offre d'emploi
Architecte Cloud et Data H/F
Publiée le
75k-90k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : mw69pzfxh8
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Mission freelance
CLOUD analyst - Azure AWS Finops
Publiée le
Azure
Cloud
FinOps
24 mois
450-900 €
Paris, France
Télétravail 100%
PROPULSE IT recherche un cloud analyst pour une mission en région parisienne ou en Full remote. La mission a lieu dans une équipe technique mondiale qui opère de manière agile au sein d'une organisation produit dynamique. Plongez-vous dans un environnement collaboratif où l'innovation prospère, et vos contributions joueront un rôle direct dans l'élaboration du chemin de nos produits de pointe. En tant qu'acteur clé de notre configuration agile, vous aurez l'opportunité d'améliorer l'efficacité, de favoriser créativité et jouent un rôle central dans notre processus de développement de produits. Faites partie d'une équipe qui embrasse l'adaptabilité et valorise l'amélioration continue, garantissant que nous restons à la pointe des avancées technologiques mondiales. L'analyste Cloud travaillera au sein de l'équipe Cloud Office, incluse dans la gestion des services. Ce sera une démarche transversale rôle au sein de l'ensemble de l'équipe technique, collaboration avec des collègues et des membres d'autres équipes. L'analyste cloud fournira un support transversal pour maintenir l'infrastructure et les services cloud afin d'offrir la meilleure valeur à tous les salariés. Il/elle aide Cloud Officer à aligner les solutions cloud avec les objectifs et buts de l'entreprise et superviser les opérations cloud d'un point de vue technique pour fournir la meilleure valeur sur les services cloud. o Soutenir le Cloud Officer dans la vision du paysage cloud en fournissant des contributions et des analyses o Diriger l'extension de la pratique FINOPS au sein du client en travaillant en étroite collaboration avec des coéquipiers des différents produits et équipes en charge des opérations quotidiennes o Concevoir et mettre en œuvre une analyse appropriée sur l'utilisation, la qualité, les performances et la valeur générée des services Cloud. o Collaborer au programme de perfectionnement pour les services cloud en fournissant une formation et une sensibilisation aux services avancés o Collaborer à la conception et à la gestion des services Cloud et d'infrastructure et assurer leur sécurité, leur disponibilité, et fiabilité o Assurer la livraison et la mise en œuvre des solutions techniques convenues o Participer à la mise en œuvre des processus, normes, directives et contrôles d'assistance informatique o Surveiller et rendre compte du respect, de la performance et coordonner ou intervenir chaque fois que nécessaire VOS DOMAINES DE CONNAISSANCES ET D'EXPERTISE COMPÉTENCES FONCTIONNELLES VOTRE ÉQUIPE Ligne hiérarchique (directe/indirecte) : Cloud Officer sur une base régulière et permanente. Intervenants internes clés : Directeur de la gestion des services, Toute autre équipe produit consommant des services cloud, notamment (Cloud & Infra, Données technologiques mondiales) Acteurs externes clés : Fournisseurs de services Cloud (Microsoft, AWS,...
Mission freelance
Ingénieur Cloud (H/F)
Publiée le
Architecture ARM
Azure DevOps
CI/CD
24 mois
430-580 €
Île-de-France, France
Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data. Votre mission principale sera de participer au déploiement des projets data du client. La plate-forme utilisée est le Cloud Microsoft Azure. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Vos missions seront de : -construire des infrastructures Cloud Public (principalement sur Azure) -Industrialiser les architectures cibles et configurer les équipements (CI / CD) -mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures -participer aux phases de validation technique lors des mises en production ou des évolutions -collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation La mission longue prévoit deux jours de télétravail par semaine
Offre d'emploi
Ingénieur Cloud VMware Senior – Pré-embauche (vSphere / VCF / NSX-T / AVI)
Publiée le
Cloud privé
VMware
1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior pour concevoir, déployer et sécuriser une plateforme VMware de nouvelle génération. Le projet s’inscrit dans un environnement exigeant, avec des enjeux forts de sécurité , haute disponibilité , résilience , et conformité . 📦 Livrables attendus Conception & développement des plateformes VMware Documentation d’exploitation (Runbook, Architecture, Procédures) Hardening & fiches de conformité sécurité 🛠️ Missions principales Conception & Build Concevoir et optimiser des plateformes VMware (vSphere, NSX-T, AVI, VCF) Définir des services Cloud adaptés aux besoins internes Participer au développement du Cloud privé souverain Administration & Exploitation avancée Administrer les infrastructures VMware : NSX-T, AVI, VCF, BGP Garantir la disponibilité, la performance et la résilience réseau (Cisco/Juniper) Assurer le troubleshooting avancé sur les incidents critiques Sécurité & Conformité Mettre en place des contrôles de sécurité avancés Réaliser audits, hardening et mises en conformité Support & Collaboration Accompagner les équipes internes (Dev, Cloud, Infra) Former et apporter un soutien technique Produire une documentation complète et fiable 🧰 Compétences techniques impératives VCF – Expert NSX-T – Expert AVI (NSX Advanced Load Balancer) – Expert vSphere / VMware Cloud Réseaux & BGP Très bonne connaissance des architectures Datacenter Français courant (impératif) 🎓 Profil attendu Bac+5 en informatique ou équivalent Minimum 6 ans d’expérience sur VMware Cloud Forte expertise architecture VMware / virtualisation / SDN Excellente capacité d’analyse, troubleshooting et sécurisation Goût pour l’innovation, la rigueur et les environnements critiques
Offre d'emploi
Architecte calcul/Stockage et plateformes DATA
Publiée le
Architecture
Cloud
12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3045 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois