Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Votre recherche renvoie 78 résultats.
Offre d'emploi
DATA ENGINEER Python
Publiée le
Python
Terraform
6 mois
40k-45k €
380-470 €
Boulogne-Billancourt, Île-de-France
Nous sommes à la recherche deux consultants de haut niveau spécialisés en Data Engineering, disposant d’une expertise approfondie dans les technologies Python, Data, GenAI, AWS (Kinesis, S3, EMR, etc.), Airflow, Terraform, GitLab CI/CD, Python ainsi qu’une solide maîtrise de SQL, Snowflake et les architectures Data Streaming. Une expertise en Scala et Spark serait fortement appréciée. Il sera chargé de concevoir et développer des pipelines de données, développer sur des chatbots AI dans un environnement cloud tout en contribuant activement à la fiabilité, l’automatisation et la scalabilité de notre plateforme data.
Mission freelance
Tech Lead/Développeur full stack : Java Angular 15+ minimum, Spring Boot, BDD
Publiée le
Full stack
6 mois
Rennes, Bretagne
Télétravail 100%
Tech Lead/Développeur full stack : Java Angular 15+ minimum, Java, Spring Boot, BDD (SQL/NoSQL) 7 ans d'expérience minimum full remote possible • Lead technique, support à l'équipe, autonome public sector • Développement full stack : Angular 15+ minimum, Java, Spring Boot, BDD (SQL/NoSQL), ElasticSearch – et si possible Keycloak, S3 • Connaissance et sensibilité aux domaines de l’accessibilité (RGAA), de la sécurité, des performances • Appétence et implication sur les fonctionnalités indispensable Développeur full stack : Angular 15+ minimum, Java, Spring Boot,
Mission freelance
Architecte Infrastructure
Publiée le
API
Docker
Kubernetes
1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Architecte Infrastructure. Réaliser la conception technique des architectures pour le périmètre des applications, objet du présent AO ; Cette mission est centrée sur des compétences spécifiques Kubernetes de RedHat, RehHap d'OpenShift Connaissance d'une ou plusieurs solutions d'API Management, IBM API Connect Compétences rédactionnelles Serveurs X86 WMWARE RedHat Lunix 7.x/8.x Docker/Kubernetes Infrastructures Java Accès de fichiers et protocoles S3 Livrables : Dossier de cadrage technique Dossiers de choix techniques Dossiers d'Exigence Non Fonctionnelles
Mission freelance
Développeur Full Stack Node.js / React / AWS Freelance - Paris (F/H)
Publiée le
React
6 mois
500-550 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet chez l’un de nos clients grands comptes, nous sommes à la recherche d’un Développeur Node/React/AWS . Intégré(e) à une squad agile, vous interviendrez sur le développement de nouveaux modules applicatifs et leurs évolutions, dans un cadre 100 % serverless. Vos missions : Concevoir, développer et maintenir des APIs serverless (AWS Lambda + API Gateway) Développer des interfaces utilisateur performantes avec React Gérer les bases de données DynamoDB et MongoDB Participer aux cérémonies agiles (sprints de 2 semaines, daily, review…) Collaborer avec les PO, architectes, DevOps et testeurs pour livrer une solution robuste et scalable Environnement : Backend : Node.js + AWS Lambda (API Gateway, S3, CloudWatch…) Frontend : React Base de données : DynamoDB, MongoDB Méthodologie : Agile Scrum (sprints de 2 semaines) Équipe : une dizaine de développeurs full stack, testeurs QA, PO, DevOps, architectes, responsable d’équipe
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales : 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Mission freelance
TECH LEAD ( H/F)
Publiée le
Docker
Java
6 mois
400-550 €
Paris, France
Télétravail partiel
2 jour de TT TJM : 550 euros Dans le cadre d’un programme stratégique de modernisation du SI B2C , nous recherchons un consultant expert technique avec une forte connaissance du secteur Télécom pour intervenir au sein de la DSI B2C / Direction de la Modernisation du SI . 🎯 Contexte de la mission 👉 Mise en place d’une nouvelle solution de billing B2C Mobile & Fixe , basée sur ARBOR/KENAN (AMDOCS) 👉 Objectif : concevoir un système de facturation robuste et évolutif pour les 10 à 15 prochaines années 🧩 Rôle & responsabilités Le consultant interviendra en tant que référent technique et pilote du Delivery . 🔹 Pilotage du Delivery Animation et encadrement d’une équipe de 5 développeurs Estimation des charges, planification et suivi des développements Reporting et pilotage de l’avancement Garantie de la qualité, des délais et des engagements 🔹 Expertise technique Définition des architectures techniques et des outils de développement Revue de code et mise en place des bonnes pratiques Rédaction des spécifications techniques Support technique aux équipes de développement 🛠️ Compétences techniques clés ✅ Java / Backend Java 8+ (Spring Boot, Spring Data, Spring Security, Spring Cloud) JPA / Hibernate Web Services REST & SOAP Maven / Gradle Git ✅ DevOps & Cloud Docker & Kubernetes (Helm, scaling, ConfigMaps, Secrets, volumes) CI/CD & pratiques DevOps S3 Buckets ✅ Data & Middleware Bases de données : Oracle, PostgreSQL, MongoDB ETL / Apache NiFi Kafka (producers, consumers, Kafka Connect, configuration) ✅ Qualité & Tests Tests unitaires et d’intégration : JUnit, Mockito 📡 Pré-requis indispensables 🔴 Très forte connaissance du secteur Télécom 🔴 Expérience sur des systèmes de billing B2C Mobile & Fixe 🔴 Une expérience sur ARBOR / KENAN – AMDOCS est un atout majeur 🌟 Qualités personnelles Leadership et capacité à piloter une équipe Esprit d’équipe et excellent relationnel Autonomie, rigueur et sens des responsabilités Capacité à tenir des engagements dans des contextes complexes et exigeants
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Mission freelance
Data Engineer Finance et Risque (H/F)
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Mission freelance
Tech Lead Python
Publiée le
Python
3 mois
400-550 €
Île-de-France, France
Mission Freelance : Tech Lead Senior Python/DevOps - Secteur Ferroviaire/IndustrielContexte du Projet Vous rejoignez une Direction Générale du Numérique pour une application stratégique d'aide à la décision nommée Opticapa . Cet outil est essentiel pour la planification amont des travaux (de A-5 à A-2) sur le réseau ferré national, s'inscrivant dans un programme de numérisation et de supervision de la capacité travaux. L'application web à support cartographique comporte deux briques fonctionnelles : Macro-ordonnancement (MO) : Planification à la semaine des chantiers dits à fort impact capacitaire (A-5 à A-2). Plan d'exploitation de référence (PER) : Construction de scénarii capacitaires conçus en amont du macro-ordonnancement (dès A-10) pour identifier les potentiels conflits sillons-travaux. Votre Rôle en tant que Tech Lead Senior Le Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement , en veillant à la qualité technique des solutions mises en œuvre. Il ou elle sera responsable de l'architecture technique du projet et de la planification des tâches de développement. Le ou la Tech Lead disposera d'une grande autonomie et sera force de proposition technique. Tâches Clés : Conception et révision du code source (Python). Revue de code des autres développeurs back-end. Administration des infrastructures informatiques (Jenkins, AWS, Ansible, Helm, Kubernetes). Supervision de l'automatisation des tests. Participation à la définition des roadmaps techniques et fonctionnelles. Encadrement et mentorat des développeurs. Veille technologique et participation aux cérémonies agiles (Scrum). Environnement Technique Une excellente maîtrise des technologies suivantes est requise : Back-end : Python 3.13 (FastAPI, SQLalchemy 2, Pydantic 2) . Tests : Pytest. Base de Données : PostgreSQL 14, PostGIS. Méthodologie : Maîtrise de la méthodologie de gestion de projet Agile - Scrum et de l'outil de gestion de version GitLab. Compétences DevOps/Infra Appréciées : Maîtrise de Jenkins, AWS (S3 et RDS), Ansible, Helm, Docker, Kubernetes, Datadog. Profil Recherché Nous recherchons un profil Senior , proactif dans la mise en qualité de l'outil et le travail en équipe , avec a minima une expérience en DevOPS. Une appétence pour le ferroviaire ou les milieux industriels est appréciée. La connaissance des outils de gestion de projet Jira ou Linear sera appréciée. Profil Ingénieur issu de grande école française ou d'écoles spécialisées en développements informatiques et web (ex: Epita / Epitech) est valorisé.
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
Résumé du poste L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Mission freelance
consultant IBM senior H/F
Publiée le
IBM Cloud
6 mois
Suisse
Télétravail partiel
Nitrolabz accompagne les entreprises dans le développement et la concrétisation de leurs projets technologiques. De l’expertise technique à la création de solutions digitales innovantes, nous intégrons les technologies les plus avancées pour booster votre performance et vos ambitions. Aujourd'hui un de nos plus grand client souhaite renforcer son infrastructure cloud interne autour de la solution ODF (OpenShift Data Foundation) afin d’optimiser le stockage et la disponibilité des données critiques. La mission s’inscrit dans un projet stratégique visant à améliorer la résilience, la sécurité et l’efficacité des systèmes de stockage au sein de l’environnement OpenShift. Nous cherchons donc a recruter un(e) consutant(e) IBM senior qui aura pour mission: Titre de la mission : Consultant IBM – Solution ODF sur OpenShift Durée de la mission : [À préciser, ex. 6 mois avec possibilité de prolongation] Lieu : Suisse Missions principales : Déployer, configurer et administrer la solution ODF interne sur OpenShift. Assurer la gestion des différents types de stockage : bloc, file et objet (S3). Garantir la haute disponibilité des services et la continuité des opérations. Mettre en place les stratégies de sauvegarde et restauration adaptées aux différents environnements et exigences métier. Collaborer avec les équipes DevOps et infrastructure pour optimiser les performances et la sécurité du stockage. Documenter les procédures et accompagner les équipes internes sur les bonnes pratiques ODF. Livrables attendus : Plateforme ODF déployée et opérationnelle avec monitoring et alerting configurés. Stratégie de sauvegarde et plan de restauration testés et documentés. Guide de bonnes pratiques pour l’exploitation quotidienne de la solution ODF. Entreprise handi-accueillante : à compétences égales, une attention particulière est portée aux candidatures des personnes en situation de handicap.
Offre d'emploi
Ingénieur SysOps H/F
Publiée le
50k-60k €
Lyon, Auvergne-Rhône-Alpes
À propos de nous : Fort de plus de 40 années d'expérience en Europe, Grafton est spécialisé dans le recrutement de professionnels qualifiés que ce soit pour des besoins uniques comme pour des projets volumiques. En France, Grafton rassemble une centaine de professionnels du recrutement répartis au sein d'un réseau de 14 bureaux. Ils délèguent quotidiennement du personnel aussi bien en intérim, CDD, CDI qu'en contracting et consulting auprès de plus de 800 clients qui leur font confiance. Missions : Grafton Recruitment, spécialiste de l'intérim et du recrutement de profils juniors à professionnels confirmés, recherche pour son client un Ingénieur sysops H/F pour intégrer son site situé à Lyon : Contrat CDI Démarrage : ASAP Localisation : Lyon Rémunération : 50 à 60 K€ Vos missions : Implémentation et suivi des bonnes pratiques de sécurité sur l'ensemble des serveurs. Sécurité des applicatifs logiciels : tests de sécurité (pentest) et sensibilisation des équipes de développeurs aux bonnes pratiques. Surveillance des accès, des droits utilisateurs et audits de sécurité réguliers. Maintenance des serveurs Linux (CentOS/Rocky Linux), mise à jour des correctifs de sécurité et suivi des performances. Nettoyage des données , gestion des logs (rotation, archivage) et automatisation des tâches répétitives. Optimisation des performances sur les environnements PHP, MariaDB, ElasticSearch, RabbitMQ, Redis et MongoDB. Mise en place et gestion d'un système de stockage S3 pour les environnements internes et clients. Paramétrage et gestion de GitLab CI et des runners pour les pipelines de déploiement en collaboration avec notre équipe DevOps. Configuration et gestion des serveurs avec Ansible pour automatiser les déploiements et les configurations. Profil recherché : Gestion des serveurs Linux (CentOS/Rocky Linux) et optimisation des environnements techniques (PHP, MariaDB, ElasticSearch, etc.). Automatisation des déploiements avec Ansible et GitLab CI. Minimum de 3 à 5 ans d'expérience et diplôme en informatique ou domaine connexe. Esprit d'équipe, proactivité et rigueur indispensables.
Mission freelance
POT8733 - Un développeur Springboot/Angular sur Grenoble
Publiée le
AWS Cloud
6 mois
330-420 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem) Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem).
Offre d'emploi
Tech Lead Python
Publiée le
Python
2 ans
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Tech Lead / Lead Developer expérimenté pour piloter un périmètre technique orienté back-end Python au sein d’un environnement AWS serverless. La mission, inscrite dans la durée, s’appuie sur un contexte technologique structurant et une équipe déjà en place. Le rôle inclut une forte expertise Python ainsi qu’une maîtrise des services AWS (Lambda, S3, DynamoDB, API Gateway), complétées par des pratiques DevOps telles que GitLab CI/CD et Docker, tandis que Terraform constitue un atout apprécié. Le Tech Lead contribuera activement à la définition, au challenge et à l’évolution de l’architecture logicielle, participera au recueil des besoins et à la conception, et interviendra sur le développement back-end. Il aura également pour responsabilité d’encadrer techniquement l’équipe, de garantir la qualité des livrables, de sécuriser les choix techniques et d’accompagner la montée en compétence des développeurs.
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation électronique 01 : Rappel du calendrier !
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
78 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois