L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 36 résultats.
Mission freelance
DBA Cassandra Mysql Postgresql
Publiée le
Cassandra
MySQL
6 mois
550-650 €
Saint-Denis, Île-de-France
Télétravail partiel
En tant que DBA de Production spécialisé Cassandra / MySQL / PostgreSQL , vous évoluez dans un environnement moderne, distribué et critique hébergé entièrement sur AWS . Vous êtes responsable de l’exploitation, de la performance et de l’évolution de plusieurs clusters haute disponibilité, tout en participant activement aux projets de modernisation Cloud. Vos missions : Administration / exploitation de clusters Cassandra 4.x (environ 60 nœuds, 10 clusters de production). Administration des environnements MySQL 8.x (réplication avancée, InnoDB Cluster, ou Arbiters AWS). Gestion des clusters PostgreSQL 14/15 en réplication haute disponibilité (Streaming Replication, Patroni, etc.). Supervision avancée : mise en place / optimisation de Prometheus, Grafana, CloudWatch, Alertmanager. Gestion des incidents 24/7 (astreintes), diagnostiques et résolution Niveau 2 & 3. Gestion et automatisation des sauvegardes : pgBackRest, XtraBackup, snapshots AWS, tests de PRA. Rafraîchissement automatisé des environnements hors production (CI/CD, anonymisation, pipelines). Optimisation continue des performances (requêtes, indexation, tuning des clusters, optimisation IO). Documentation technique : normes, procédures, architecture data, runbooks. Projets structurants : Migration complète et modernisation sur AWS : Refonte des architectures Data sur AWS Automatisation via Terraform / Ansible Mise en conformité, durcissement et standardisation des clusters Migration / modernisation des clusters Cassandra 4.x vers des architectures AWS optimisées Contribution aux projets orientés conteneurisation (Docker / Kubernetes sur EKS — bonus). Environnement technique (100% AWS) : AWS Services : EC2, EBS, S3, EKS, IAM, CloudWatch, ALB/NLB, KMS, VPC, Secrets Manager, Backup. OS : Rocky Linux / RedHat 8.x Bases de données : Cassandra 4.x, MySQL 8.x, PostgreSQL 14/15 Écosystème : Elasticsearch 8.x, Kafka/MSK Outils : Terraform, Ansible, GitLab CI/CD, Prometheus, Grafana
Mission freelance
Senior JAVA Developpeur (H/F)
Publiée le
Elasticsearch
Microservices
18 mois
500-550 €
Paris, France
Télétravail partiel
Notre client, Scale-Up Tech en forte croissance, accélère le renforcement de ses équipes techniques. Dans un contexte d’innovation soutenue (IA, nouveaux produits digitaux, optimisation de plateformes), le département Tech – plus de 350 collaborateurs – recherche plusieurs Développeurs Java (Juniors et seniors) pour renforcer ses squads produit et accompagner la montée en charge de ses applications web à fort trafic. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * * Concevoir et développer des fonctionnalités backend et ponctuellement front (80/20) en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code. * Collaborer avec les équipes design, architecture, infra et data. * Contribuer aux bonnes pratiques : tests, CI/CD, revue de code, clean code. ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
Mission freelance
Lead Développeur Front Angular
Publiée le
Angular
API
TypeScript
24 mois
Seine-Saint-Denis, France
Télétravail partiel
Metier : Etudes & Développement Fonction : Lead Développeur Spécialités technologiques : Front-End, API Type de facturation : Assistance Technique (facturation avec un taux journalier) Technologies et outils : Angular (7 ans) TypeScript (5 ans) Méthodes / Normes : Agile Soft skills : Leadership Secteurs d'activités : Transports Terrestres Description de la prestation : Dans le cadre du développement d'une application stratégique, la mission consiste à intervenir en tant que Lead Développeur Front Angular (version 21). Le rôle nécessite une expertise technique en front-end, du leadership et un accompagnement des développeurs juniors au sein d'une équipe agile. Objectifs : Garantir la qualité du front-end : performance, maintenabilité, sécurité Structurer et faire évoluer l’architecture Angular Encadrer et faire monter en compétences les développeurs juniors Être le référent technique front Encadrement : Techniquement encadrer les développeurs (juniors et confirmés) Animer des revues de code, promouvoir bonnes pratiques Angular Mentorat et pair programming pour la montée en compétences Développement Front-End : Conception et développement d'interfaces complexes avec Angular 21 et TypeScript Implémentation d’architectures front robustes (modules, standalone components, signals, RxJS) Assurer la qualité du code : lisibilité, testabilité, performance Collaborer avec les équipes backend pour une intégration API fluide Qualité, performance & sécurité : Optimisation des performances front (temps de chargement, rendering, gestion des états) Maintien et mise en place de tests (unitaires, intégration, e2e) Environnement technique : Frontend : Angular 21, TypeScript, RxJS, HTML, CSS/SCSS Backend (interaction) : NestJS Messaging / Data : Kafka, MongoDB Cloud & DevOps : AWS (Lambda, Glue), Jenkins Outils : Git, CI/CD
Mission freelance
Data Architect / Engineer Senior – Écosystème IoT & Sport
Publiée le
Architecture
Big Data
3 mois
400-550 €
Lille, Hauts-de-France
ANGLAIS COURANT OBLIGATOIRE Acteur majeur du secteur du sport et de l'innovation depuis plus de 40 ans, nous réinventons constamment le marché grâce à des produits accessibles et technologiques. Notre mission est de rendre les bienfaits du sport accessibles au plus grand nombre via un écosystème numérique complet : coaching virtuel, expériences connectées en magasin, services de location et produits intelligents. Vous rejoindrez une équipe technique de plus de 2 500 experts (ingénieurs, product managers, data experts) répartis entre Paris et Lille, dédiée à répondre aux besoins de 500 millions d'utilisateurs. Contexte de la mission Au sein de la division Connected Sports Platform (CSP) , nous accélérons notre transformation digitale via l'implémentation de solutions IoT. L'équipe Data est au cœur de ces enjeux : elle développe les briques nécessaires à l'ingestion, au stockage et à l'exposition des données échangées entre le cloud, les appareils connectés (vélos électriques, machines de fitness, etc.) et les applications mobiles. Objectifs : Optimiser l'exploitation des données pour la BI, la maintenance prédictive, la détection d'incidents et le design intelligent. Vos responsabilités En tant que Data Architect / Engineer (Freelance) , vous accompagnerez les projets dans leurs choix architecturaux et techniques avec les priorités suivantes : Architecture : Concevoir l'architecture d'ingestion et de stockage des données IoT (directes ou via mobile). Pipeline : Construire des pipelines de données structurées et non structurées scalables. Stratégie Tech : Définir la stratégie des stacks techniques et garantir le CI/CD. Optimisation : Maintenir et refondre les datasets existants pour de nouveaux cas d'usage. Qualité & Gouvernance : Assurer la fiabilité, l'accessibilité et la confidentialité des données (Data Privacy). Standardisation : Définir les standards d'architecture et assurer l'alignement entre la vision technique et les besoins utilisateurs. Profil recherché Expérience : +5 ans en tant que Senior Data Engineer dans un environnement microservices avec échanges de données en temps réel. Expertise Technique : Maîtrise de la modélisation de données, des systèmes distribués et de l'optimisation de requêtes. Stack : Maîtrise de Python (Scala ou Java sont un plus) et des technologies Kafka et Spark . Méthodologie : Culture Agile, GIT, Code Review et Peer Programming. Soft Skills : Excellente capacité de synthèse, communication fluide et esprit d'équipe. Langues : Français courant et anglais professionnel. Le "plus" pour cette mission : Expérience sur l'environnement AWS Big Data (Lambda, Redshift, S3). Expérience confirmée sur des produits IoT ou des appareils connectés. Modalités pratiques Durée : Mission longue durée. Lieu : Paris ou Lille (déplacements ponctuels à prévoir sur Lille si basé à Paris). Télétravail : Rythme hybride (environ 2 jours de télétravail par semaine). Matériel : Choix de l'environnement de travail (Mac, Windows). Compétences clés attendues (Récapitulatif) CompétenceNiveau attenduKafka / Spark Avancé AWS (Lambda, Redshift, S3) Confirmé Data Modeling Confirmé Écosystème IoT Confirmé Data Governance Confirmé
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Mission freelance
Tech Lead Sénior Solution Lead (550€ MAX)
Publiée le
Méthode Agile
1 an
400-550 €
Île-de-France, France
Télétravail partiel
● Expertise reconnue dans l'écosystème de l'Encaissement Autonome (SCO/Self Check Out), ● incluant la connaissance des contraintes matérielles, logicielles et des solutions du marché. ● Pilotage d’équipe avec réorganisations structurantes. ● Pilotage de projets d’envergure impliquant un déploiement à risque et à grande échelle. ● Pilotage transverse d’équipe et forte capacité à aligner les parties prenantes (Produit, Ops, ● Support, Infrastructure). ● Excellente connaissance des contraintes liées au pilotage d’éditeur et de fournisseurs de solutions d’encaissement / SCO. ● Anglais courant ● Solides connaissances techniques autour de l'intégration d’applications éditeur et capacité à prendre des décisions d’architecture complexes. ● Bonne connaissance sur la mise en place de KPI, de monitoring avancé (Observability) et du suivi de performance d’applications critiques. ● Solide expérience en méthode de delivery Agile (Scrum, Kanban) et outils associés. ● Bonnes connaissances techniques autour de : Test Automation, Performance, Monitoring, CICD (avec des technologies comme Kafka, Kubernetes, etc.). ● Connaissance générale d’architecture des SI incluant une culture Cloud (GCP/Azure/AWS), API Management (Apigee), et Data (Data Lake).
Mission freelance
Lead Développeur Front Angular
Publiée le
Angular
Front-end
TypeScript
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Lead Développeur Spécialités technologiques : Front-End, API Dans le cadre du développement et de l’évolution d’une application stratégique, nous recherchons un Lead Développeur Front Angular (version 21). La mission combine expertise technique front-end, leadership technique et accompagnement de développeurs juniors, au sein d’une équipe agile. MISSIONS Garantir un haut niveau de qualité du front-end (performance, maintenabilité, sécurité). - Structurer et faire évoluer l’architecture Angular. - Encadrer et faire monter en compétences les développeurs juniors. - Être le référent technique front Encadrement : - Encadrer techniquement les développeurs front (juniors et confirmés). - Animer des revues de code, bonnes pratiques et standards Angular. - Accompagner la montée en compétences (mentorat, pair programming). Développement Front-End : - Concevoir et développer des interfaces complexes avec Angular 21 et TypeScript. - Implémenter des architectures front robustes (modules, standalone components, signals, RxJS). - Garantir la qualité du code : lisibilité, testabilité, performance. - Travailler étroitement avec les équipes backend pour assurer une intégration fluide des API. Qualité, performance & sécurité : - Optimiser les performances front (temps de chargement, rendering, gestion des états). - Mettre en place et maintenir les tests (unitaires, intégration, e2e). Environnement technique : - Frontend : Angular 21, TypeScript, RxJS, HTML, CSS / SCSS - Backend (interaction) : NestJS - Messaging / Data : Kafka, MongoDB - Cloud & DevOps : AWS (Lambda, Glue), Jenkins - Outils : Git, CI/CD Expertise souhaitée Expérience : - Déjà une expérience confirmée en qualité de Tech Lead Front Angular Compétences techniques - Excellente maîtrise de Angular (idéalement versions récentes) et TypeScript. - Très bonne compréhension des patterns front-end modernes. - Capacité à concevoir une architecture front scalable et maintenable. - Sensibilité aux enjeux de performance, sécurité et UX.
Offre d'emploi
Ingénieur DevOps / CI-CD – Construction & Déploiement Multi-Environnements
Publiée le
Ansible
Python
3 ans
Île-de-France, France
Télétravail partiel
Objectif de la mission Participer à la construction, l’industrialisation et la sécurisation des chaînes de build, test et déploiement automatisés pour plusieurs projets stratégiques (RFM-Core1/IP, Sabr, Core2). L’expert interviendra sur l’amélioration de l’outillage, l’optimisation des pipelines CI/CD, et l’accompagnement des équipes Delivery & Production. Missions Concevoir, construire et maintenir les chaînes de build et de test multi-environnements. Développer des outils et modules de déploiement automatisé. Intégrer et améliorer les outils nécessaires à la fiabilisation : logging, tests de performance, résilience, supervision. Contribuer au support aux mises en production et au support de niveau Production. Renforcer la sécurisation et le durcissement des composants middleware et infrastructures. Concevoir et optimiser les workflows de déploiement automatisés depuis le dev jusqu’à la prod. Rationaliser et optimiser les processus d’Intégration Continue. Analyser et résoudre les anomalies de performance, fiabilité et scalabilité. Participer à l’amélioration continue : méthodes, standards, bonnes pratiques DevOps. Travailler étroitement avec les équipes Développement et QA pour l’automatisation des tests. Collaborer avec la Production pour fiabiliser et industrialiser les déploiements. Livrables attendus Dossiers d’intégration (RFM-Core1/IP, Sabr, Core2). Comptes rendus de tests d’intégration. Pipelines CI/CD multi-environnements (Build, Test, Déploiement). Environnement technique Technologies / Middleware Kafka, PostgreSQL, Cassandra Packaging Linux / RPM (RedHat/CentOS) Gestion des certificats Middleware & EAI Outils & Infrastructure Ansible, Terraform, Python Jenkins, GitHub, CI/CD vSphere, AWS Outils Admin / Infra / Réseau / Middleware Ordonnanceurs & automatisation Systèmes & Sécurité CentOS, RedHat Durcissement, sécurisation, conformité Compétences requises Maîtrise d’Ansible, Python et Terraform Solide expertise DevOps : CI/CD, automatisation, pipelines de déploiement Très bonne connaissance de l’intégration et configuration middleware (Kafka, PostgreSQL, Cassandra, etc.) Compétences infrastructure : Linux, package RPM, réseaux, sécurité Capacité à travailler en transverse (Dev, QA, Production) dans un contexte critique
Offre d'emploi
CDI - Software Backend Engineer - NodeJS/Typescript (H/F)
Publiée le
Architecture
Back-end
Node.js
60k-90k €
Paris, France
Télétravail partiel
En tant que Senior Backend developer (H/F), votre responsabilité principale sera de concevoir et de développer les fonctionnalités, composants et services de l'e-commerce de notre client, en appliquant les best practices de développements et de qualité. Vous travaillerez en direct avec des Product Owners & l'équipe infra (SRE & DEVOPS), dans un environnement agile & cloud AWS. Vous ferez du code review et pair programming au sein de votre équipe. Vous contribuerez aux décisions techniques et fonctionnelles, respecterez les normes de qualité, de sécurité et de performance. Principaux sujets : - Développement de nouvelles features - API, consommateurs kafka - Monitoring avec l'équipe infra - Pair programming, code review - Mise en place des best practices : TDD, DDD, SOLID STACK : NodeJS Typescript APIRest Kubernetes Docker Terraform Kafka Environnement cloud AWS
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Ingénieur IT – Infrastructure Run Leader / Support Déploiement UNS
Publiée le
Support informatique
1 an
450-550 €
Belgique
Télétravail partiel
Définir et mettre en œuvre les processus de Run de l’infrastructure IT sur un environnement Openshift. Garantir l’observabilité IT : monitoring, alerting, reporting, suivi des incidents et recommandations d’amélioration. Assurer le support ITSM de niveaux 1/2/3 (diagnostics, résolution d’incidents, coordination des interventions). Piloter la maintenance, le scanning sécurité et la gestion des Operating Level Agreements (OLA). Suivre et analyser les KPIs Run, proposer des plans d’action pour garantir la disponibilité et la robustesse des infrastructures. Supporter le déploiement de l’UNS : administrer et déployer des solutions de conteneurisation (Openshift, Podman), orchestrer Node-Red, broker MQTT, Kafka, bases PostGre, connexions AWS et autres systèmes industriels. Collaborer avec l’équipe UNS et les métiers pour assurer la connectivité et la performance des systèmes.
Offre d'emploi
CDI - Tech Lead Java
Publiée le
Java
Île-de-France, France
Télétravail partiel
Contexte du poste : Dans un contexte de croissance et de modernisation des systèmes d’information , notre client renforce ses équipes avec un Tech Lead Java capable de jouer un rôle central : leader technique, moteur de la vision, et ambassadeur de la stack aussi bien en interne qu’en externe. Ce poste s’adresse à un profil qui ne se contente pas d’implémenter, mais qui embarque, convainc et fait grandir : auprès des développeurs, des équipes produit, et ponctuellement auprès des clients , lors de présentations ou de cadrages techniques. Votre rôle : Vous êtes le référent technique de l’équipe et le garant de la cohérence globale des choix technologiques. Vous combinez exemplarité technique , leadership naturel et capacité à vulgariser pour porter la vision et donner du sens aux décisions. Missions principales : Incarner le leadership technique Encadrer, accompagner et faire monter en compétence une équipe de développeurs, en instaurant des standards clairs et partagés. Être un Tech Lead hands-on Participer activement au développement back-end Java (60 à 80 % du temps), avec un rôle moteur sur les sujets complexes. Porter et expliquer la vision technique Concevoir, faire évoluer et défendre les architectures applicatives (microservices, APIs, intégrations), en sachant les expliquer clairement à des interlocuteurs techniques et non techniques. Garantir l’excellence du delivery Mettre en place et faire respecter les bonnes pratiques : revues de code, tests automatisés, CI/CD, clean code. Piloter la modernisation de la stack Accompagner les migrations et la montée en maturité technique (Spring Boot, Docker, Kubernetes, cloud). Jouer un rôle d’évangélisateur Faire de la veille, challenger l’existant, proposer des améliorations continues et embarquer les équipes autour des choix techniques. Être un interlocuteur crédible côté client Participer à des cadrages, présentations ou échanges techniques avec des clients ou partenaires, en véritable ambassadeur de la plateforme . Profil recherché : > 10 ans d’expérience en développement Java, avec une expérience avérée en lead technique . Très forte maîtrise de l’écosystème Java / Spring / Spring Boot et des architectures distribuées. Goût prononcé pour la transmission , le mentoring et le partage de bonnes pratiques. Leadership naturel, capacité à fédérer sans autorité hiérarchique. Excellentes compétences de communication et de vulgarisation technique. À l’aise pour prendre la parole , expliquer, convaincre et représenter la tech. Formation Bac +5 (école d’ingénieurs ou université). Compétences techniques attendues : Langages / Frameworks : Java, Spring, Spring Boot, Spring Security Architecture : microservices, REST / SOAP, MVC Front (bonus) : Angular ou équivalent DevOps : Docker, Kubernetes, Jenkins, Git Data & Messaging : PostgreSQL, MySQL, MongoDB, Kafka Environnements : Tomcat, cloud (AWS / Azure / GCP) Bonnes pratiques : CI/CD, tests automatisés, clean code Pourquoi ce poste est différent : Vous ne serez pas “juste” un Tech Lead, mais la voix de la tech . Vous aurez un vrai espace d’influence sur les choix, la vision et la culture technique. Vous incarnerez la stack, en interne comme auprès des clients.
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Mission freelance
Testeur Technique / Intégrateur Industry 4.0 - BELGIQUE
Publiée le
MES (Manufacturing Execution System)
6 mois
550 €
Belgique
Télétravail partiel
Nous recherchons un(e) Intégrateur(trice) Industry 4.0 pour rejoindre l’équipe Manufacturing 4.0 d’un grand acteur de l’aéronautique, dans le cadre d’un projet ambitieux de modernisation des systèmes industriels et digitaux de l’usine du futur. Contexte : Les usines produisent des éléments de turboréacteurs en titane avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 apporte des outils digitaux et des moyens technologiques pour soutenir les équipes métiers et la production industrielle. Le projet vise à concevoir et déployer une solution Industry 4.0 intégrée, performante, sécurisée et scalable, incluant robotique, pilotage par la donnée et intelligence artificielle. Vos missions principales : Assurer l’intégration des différents modules du système d’information industriel. Préparer et réaliser les tests techniques du système « Usine du futur » : robustesse, performance, scalabilité, sécurité, traçabilité. Analyser les protocoles, flux et structures de données. Identifier et corriger les problèmes, proposer des améliorations. Participer à l’optimisation des performances du système et à la mise en place de la chaîne CI/CD. Collaborer étroitement avec les équipes IT, MES, UNS, PLM, maintenance et qualité industrielle. Profil recherché : Ingénieur ou bachelor expérimenté en informatique, avec 5+ ans sur des projets de grands systèmes d’information. Expérience en intégration de systèmes industriels et tests techniques approfondis (Recette, IVVQ, Qualification, Acceptance). Curiosité technique et capacité à résoudre les problèmes. Connaissance du monde industriel/OT et des architectures SI industrielles (atout). Bon relationnel, autonome et capable de travailler en équipe. Maîtrise du français à l’oral et à l’écrit ; anglais technique apprécié. Compétences techniques requises : Connaissance des architectures de systèmes d’information. Expérience sur cloud public (AWS, Azure, GCP). Idéalement : MES, conteneurs (Podman), IIOT, brokers (Kafka, MQTT), plateformes Big Data/Data Lakes. Certifications ISTQB, Katalon Practitioner ou équivalent appréciées. Conditions : Mission de 4 mois, possible extension. Présentiel sur le site industriel (Belgique) avec télétravail possible 1 à 2 jours/semaine. Horaires de jour, flexibles selon interventions. Qualités attendues : Autonomie, pro-activité, curiosité et esprit critique constructif. Esprit d’équipe, polyvalence et orientation résultat.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- Contrat de prestation ESN
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
36 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois