L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 104 résultats.
Mission freelance
Data Steward
Publiée le
BigQuery
Data governance
RGPD
3 ans
Paris, France
Télétravail partiel
Nous recherchons un Data Steward expérimenté , opérationnel et proactif, capable de prendre en main la gouvernance data et d’être le lien privilégié entre les métiers et les équipes Data. Nous pouvons valider votre intégration la semaine prochaine, pour un démarrage en Février ✅ Déployer la gouvernance data : qualité, métadonnées, gestion des accès. ✅ Assurer la qualité des données : définition des règles, contrôles, suivi des anomalies, plans de remédiation. ✅ Gérer les métadonnées : glossaire métier, cohérence, respect des standards et bonnes pratiques. ✅ Garantir les accès & la conformité : sécurité, RGPD, gestion des données sensibles, coordination avec les équipes. ✅ Animer la gouvernance : communication, accompagnement, support aux Data Owners & Data Champions. ✅ Piloter le domaine data : suivi des Data Sets, conformité, documentation, gouvernance quotidienne.
Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)
Publiée le
Ansible
Azure
Check Point
3 mois
320-710 €
Le Havre, Normandie
Télétravail partiel
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Offre premium
Mission freelance
Tech Lead Data – Migration vers Microsoft Fabric
Publiée le
Apache Spark
Microsoft Fabric
PySpark
3 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre de la modernisation de sa plateforme data, notre client remplace un ETL historique par un socle basé sur Microsoft Fabric et Spark. Les flux concernés alimentent un Data Hub finance/risque (contrats, positions, instruments de couverture, flux futurs, contreparties, notations, données de marché). Pour piloter cette transformation, nous recherchons un Tech Lead Data, référent technique auprès des équipes data, architecture et métiers. Descriptif de la mission Évaluer l’existant (flux batch, modèles pivots, dépendances applicatives) avec l’équipe data Concevoir le framework d’ingestion et de transformation (Spark / PySpark / Python / Notebooks) Définir les standards de développement et conventions de nommage Mettre en place la chaîne CI/CD (Azure DevOps, GitHub Actions ou équivalent) Mettre en œuvre les mécanismes de monitoring, alerting et logging des traitements Accompagner les équipes d’intégration et métiers sur les flux critiques Encadrer techniquement et mentorer une équipe d’environ 3 data engineers Optimiser les performances et garantir la qualité des livrables Contribuer à la documentation et au transfert de connaissances Profil recherché Maîtrise de Spark / PySpark et des optimisations de performance Très bonne connaissance de Microsoft Fabric (Lakehouse, Notebooks, Data Pipelines, OneLake) ou Databricks Excellente pratique de Python pour les traitements de données et frameworks internes Très bon niveau SQL, bonne culture ETL/ELT, Data Hub et ingestion temps réel Pratique de la CI/CD (Azure DevOps, GitHub Actions ou similaire) Connaissance appréciée des Webservices / APIs REST Bonne compréhension des produits financiers (prêt, emprunt, titres, swaps, FX) appréciée Aisance relationnelle avec les équipes Finance et Risques, posture de “référent bienveillant” Expérience en lead technique / pilotage de projets data, autonomie, capacité d’auto-formation Français courant, anglais professionnel
Offre d'emploi
Data Engineer Streamlit SnowFlake expérience santé
Publiée le
Python
Snowflake
Streamlit
3 mois
40k-45k €
340-500 €
Roubaix, Hauts-de-France
Télétravail partiel
La prestation consiste à contribuer activement à la mise en œuvre d’une application Streamlit dédiée à la tarification des contrats Santé et Prévoyance, s’appuyant sur notre socle Snowflake. Cette application sera mise à disposition des équipes métiers. La mission inclut : - Développer des écrans interactifs avec Streamlit - Participer à la conception du modèle de données sous-jacent - Contribuer à la définition des règles de gestion et des calculs pris en charge par l’application - Effectuer les tests (recette) afin de garantir la conformité de l’interface et des calculs aux besoins métiers - Assurer l’optimisation et la performance des traitements - Rédiger la documentation applicative Équipe projet : - Deux développeurs Streamlit/Snowflake - Un chef de projet
Mission freelance
DATA MANAGER
Publiée le
Data cleaning
Data governance
Data quality
3 ans
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Gouvernance des données Définir les standards de gestion et gouvernance des données. Assurer la mise en conformité avec les réglementations (RGPD, CCPA). Qualité et sécurité Mettre en place des contrôles automatisés et surveiller la qualité des données. Sécuriser les accès et protéger les données sensibles. Exploitation et partage Standardiser les processus d’accès aux données. Accompagner les équipes métiers dans leur exploitation des données. Éthique et conformité Vérifier la conformité des analyses et modèles. Sensibiliser les équipes à l’éthique des données. Compétences Gouvernance : Standards, gestion des métadonnées. Sécurité : Chiffrement, contrôle des accès. Architecture : Structuration des modèles de données en couche Business, Solution et Exposition, Collaboration : Formation, animation de workshops Expérience utilisateur : Storytelling, recueils feedback Indicateurs de performance Taux de conformité aux standards. Qualité des données et réduction des erreurs. Performance des processus de gouvernance. Sécurisation et protection des données.
Offre premium
Mission freelance
Chef de produit Middleware
Publiée le
Supply Chain
Échange de données informatisé (EDI)
12 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Je recherche un Middleware / EDI Integration Lead orienté Supply Chain pour un projet stratégique chez mon client final, basé à Marseille (TSF). Objectif : piloter et développer les flux B2B supply (approvisionnement, commandes, stocks, facture) via les plateformes Axway B2Bi / Sentinel et OpenText ECS. Missions clés : Gérer et faire évoluer les plateformes Axway (B2Bi, Sentinel) et OpenText ECS, Définir et challenger l’architecture d’intégration B2B, Superviser les projets de flux EDI / AS2 / XML Manager une équipe basée à Marseille ainsi qu’un centre offshore
Mission freelance
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps
Publiée le
Big Data
Cloudera
6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
Mission freelance
Architecte Data
Publiée le
Data Lake
Data Warehouse
6 mois
400-660 €
Paris, France
Nous recherchons pour notre client un Architecte Data dans le cadre d’un programme de transformation Data. Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager avec Apicil les REX sur des solutions et architectures mises en oeuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues.
Offre d'emploi
Cybersecurity Officer - Experimenté
Publiée le
Cybersécurité
Data governance
Data management
3 ans
80k-86k €
700-750 €
Montreuil, Île-de-France
Télétravail partiel
Le consultant interviendra pour : Accompagner le Group Data CISO dans l’évolution de la stratégie Data Security. Être l’interlocuteur privilégié du GDPO , des équipes Data, IT, sécurité et métiers. Préparer et organiser les Group Data Steering Committee et Group DataSec Steering Committee . Renforcer le contrôle, la gouvernance et l’usage sécurisé de la donnée, notamment en environnements hors production . Définir une stratégie permettant de sécuriser, anonymiser et mettre à disposition des données sensibles cohérentes pour les tests, analyses et usages Data. Missions : Interaction & coordination Définition & déploiement des exigences cyber liées à la Data Gouvernance & pilotage Data Security Gestion de la sécurité des environnements hors production
Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES
Publiée le
Collibra
Data governance
Gouvernance
1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Mission freelance
Data Quality Tale of Data
Publiée le
Data quality
6 mois
450-470 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Quality Tale of Data (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Energie. Description 📍 Contexte de la mission Au sein de l'équipe Data Achat, cette mission s'inscrit dans la continuité des travaux d'analyse et de mise en qualité des données achats initiés précédemment. L'objectif est d'accélérer et d'industrialiser les processus de qualité de données (Data Quality) via l'outil Tale of Data , en vue de l'année 2026. 🎯 Objectifs Principaux Le consultant devra assurer le nettoyage, la fiabilisation et l'industrialisation des données provenant de sources multiples, tout en participant à la structuration de la future Data Plateforme. 💼 Responsabilités & Missions 1. Data Quality Management & Tale of Data (Cœur de mission) Administration de Tale of Data : Tous les flux transitent par cet outil. Une maîtrise (ou une très forte capacité d'adaptation immédiate) est impérative car le consultant devra être autonome rapidement. Configuration et Nettoyage : Paramétrer l'outil pour identifier les anomalies (doublons, erreurs, manquants) sur les données Fournisseurs, Contrats, Données Clients (tables SAP), Marketing, etc. Industrialisation : Faire face à la demande croissante en automatisant les contrôles qualité et les redressements de données. 2. Gestion Multi-Sources & Analyse Consolidation des données : Travailler sur des environnements hétérogènes : SAP MM , Business Central, et outils non-ERP (appels d'offres, qualifications). Rapprochement : Croiser les données entre les différents outils pour produire des référentiels fiables. Investigation : Aller chercher l'information à la source, évaluer la donnée et comprendre sa structure (ne pas "tâtonner"). 3. Pilotage & Projets Transverses (Data Gouv) KPIs : Spécifier et produire les indicateurs de suivi de la qualité des données par périmètre. Data Platform : Monter en compétences sur la structure des données pour accompagner le lancement de la nouvelle Data Plateforme Achats et le projet global de Data Gouvernance. Collaboration : Identifier les nouveaux cas d'usage avec les Business Process Owners (BPO) et les Data Domain Owners.
Mission freelance
Architecte DATA- Data Architecture
Publiée le
DBT
Python
Terraform
18 mois
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : la Direction Technique a besoin d’être accompagnée sur une prestation d’Architecture Data pour l’ensemble de la Data Platform et des dispositifs associés. MISSIONS Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l’accompagnement des équipes dans les domaines suivants : · Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation Expertises demandées pour la réalisation de la prestation : · Au moins 3 ans d’expérience en tant qu’Architecte Data dans un environnement data · Compétences solides en data : structures de données, code, architecture · Expériences approfondies des meilleures pratiques des architectures en général et data en particulier · Expérience dans la sécurisation d’application dans le Cloud · Expériences dans un environnement du cloud Google (GCP) · Expériences intégrant BigQuery, Cloud Composer (Airflow) et Dataplex Universal Catalog · Expériences intégrant les langages Python et SQL · Expériences intégrant Spark · Expériences intégrant dbt · Expériences intégrant Terraform et Terragrunt
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Mission freelance
Cloud, Network and Datacenter Solution Consultant(H/F)
Publiée le
Azure
Big Data
3 mois
240-650 €
Puteaux, Île-de-France
Anglais courant obligatoire Fournir une expertise avancée sur les solutions de datacenters directs, hybrides et cloud, ainsi que sur les infrastructures associées, grâce à un support d’ingénierie solide et une direction technique claire. Le rôle garantit que les plateformes technologiques respectent les exigences réglementaires, assurent la sécurité des données, optimisent l’efficacité opérationnelle et permettent une innovation évolutive et des services fiables pour soutenir l’entreprise et ses clients. C’est une excellente opportunité de travailler sur des besoins locaux tout en faisant partie d’une équipe mondiale, au service de l’ensemble de l’organisation. Nous recherchons une personne disposant de solides compétences techniques, organisée, rigoureuse et motivée par un environnement exigeant. Le rôle Évaluer l’infrastructure informatique existante et recommander des stratégies cloud et datacenter conformes aux réglementations du secteur financier (ex. : FCA, PRA, GDPR). Concevoir, architecturer et mettre en œuvre des solutions alignées sur la stratégie technologique régionale tout en répondant aux besoins métiers. Collaborer avec l’équipe de direction sur les feuilles de route et les initiatives stratégiques. Conseiller sur l’optimisation des coûts, la gestion des risques et la résilience des systèmes financiers critiques. Architecturer des solutions sécurisées et évolutives sur les plateformes cloud publiques (Azure) et au sein des datacenters on-premise. Collaborer avec les équipes transverses pour gérer dépendances, priorités, intégrations et impacts du changement sur les personnes, processus et technologies. Travailler avec les équipes techniques (Architectes, Plateformes, Cyber, Cloud Ops, etc.) pour créer des solutions équilibrant besoins métiers et exigences de cybersécurité, en conformité avec les standards et l’appétence au risque de l’entreprise. Mettre en œuvre des stratégies de cloud hybride pour supporter les charges sensibles et les obligations réglementaires. Diriger les migrations d’applications centrales vers les environnements cloud. Contribuer à la création de documents de processus, guides, procédures, outils et modèles favorisant l’efficacité et l’adoption du cloud. Veiller au respect des cadres de conformité financière (ISO 27001, PCI DSS, SOC 2). Mettre en place des contrôles de sécurité avancés, le chiffrement et la gestion des identités pour les données financières sensibles. Supporter les audits et fournir la documentation nécessaire pour les rapports réglementaires. Surveiller les performances et la disponibilité des systèmes critiques. Optimiser l’infrastructure pour garantir haute disponibilité, reprise après sinistre et continuité d’activité. Collaborer avec les équipes risques, conformité et sécurité pour aligner la technologie sur les standards de gouvernance. Compétences requises Diplôme universitaire, idéalement dans un domaine lié au business, à l’IT ou à la sécurité. Expérience avérée en architecture cloud et solutions datacenter dans le secteur financier. Expertise en Microsoft Azure, Hyper-V et forte connaissance des modèles hybrides. Compréhension des réglementations et cadres de conformité financière. Solides connaissances en réseaux, virtualisation et stockage. Certifications telles que Azure Solutions Architect Expert ou équivalent. Minimum 10 ans d’expérience dans les domaines mentionnés. Leadership avéré. Excellentes capacités d’analyse et souci du détail. Qualités de communication exceptionnelles, à l’écrit comme à l’oral (français et anglais indispensables). Capacité à communiquer clairement auprès de différents types d’audiences. Expérience en conseil technologique. Résilience et adaptabilité. Excellentes compétences d’écoute. Compétences souhaitées Expérience avec les systèmes de transaction financière et les traitements de données volumineux. Très bonne maîtrise de l’écosystème technologique Microsoft Azure. Expérience des méthodologies d’architecture. Connaissances en sécurité applicative Azure et déploiements associés. Familiarité avec le DevOps et l’Infrastructure as Code. Standardisation des bonnes pratiques, processus et procédures de sécurité Azure. Capacité à prioriser plusieurs demandes et à communiquer clairement ces priorités aux équipes et au management. Capacité à gérer les demandes complexes, instaurer des relations de confiance sur le long terme avec les parties prenantes internes et gérer les attentes métier.
Mission freelance
Concepteur Développeur IBM DataStage
Publiée le
BI
Data governance
ETL (Extract-transform-load)
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
Offre premium
Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)
Publiée le
AWS Cloud
Data analysis
DevOps
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Micro entreprise ACRE et ARCE
- ❰Vérifié❱ Codé promo TÉMU 25€ (ALH199386) + 30% de réduction pour deja client
- CODÉ PROMO TÉMU valide ➥ [ALH199386] 10 € de réduction première commande
- CODÉ PROMO TÉMU gratuit ➥ [ALH199386] 100€ de réduction première commande
- Créer une société et toucher le chômage, comment gérer ?
- CODÉ PROMO TÉMU 25 € de réduction ➥ [ALH199386] pour les clients existants
3104 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois