L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 466 résultats.
Mission freelance
DBA OpenSource / DevOps - Projet Innovant - Île-de-France (H/F)
EASY PARTNER
Publiée le
MariaDB
MySQL
PostgreSQL
1 an
500-550 €
Châtillon, Île-de-France
Missions Missions principales Assurer le maintien en condition opérationnelle des environnements de bases de données OpenSource SQL et NoSQL. Gérer les incidents et garantir un support de niveau 2 pour toutes les problématiques BDD. Participer activement à l'automatisation des processus dans un environnement DevOps. Missions annexes Réaliser des audits et apporter une expertise en performance tuning. Former et assister les équipes projet dans l'utilisation optimale des bases de données. Participer à la conception technique et à la gestion des performances des BDD. Stack technique À maîtriser PostgreSQL - Expert MariaDB/MySQL - Confirmé AWX - Expert CouchBase - Confirmé Environnement technique global Bases de données SQL & NoSQL Méthodologies DevOps Anglais professionnel impératif
Mission freelance
Expert Observabilité Datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
Terraform
12 mois
550-650 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : 1. Formation & expérience : Bac +5 (école d’ingénieur, université ou équivalent) en informatique Expérience confirmée (3 à 5 ans minimum) dans le domaine du monitoring, observabilité Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus 2. Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) 3. Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Offre d'emploi
Expert Transfert de Données et Middleware
VISIAN
Publiée le
Axway
Python
1 an
40k-45k €
400-630 €
Île-de-France, France
Offre d'emploiDescriptif du poste Dans le cadre du projet Globe, un besoin d'expertise a été identifié concernant les transferts de données entre les différents systèmes d'information. Les travaux seront réalisés en étroite collaboration avec les experts en place (middleware, ordonnancement, connectivité, applications, etc.) afin de mettre en œuvre les connexions et les flux de données nécessaires entre les applications actuelles de la société acquise et celles de la société acquérante. Intégrer les flux de migration (au niveau applicatif et/ou technologique) Préparer et mettre en œuvre les dispositifs de transfert de données (middleware, réseau, etc.) Assurer le support et le dépannage des dispositifs mis en place
Offre d'emploi
DevOps / Cloud Engineer (H/F)
AGH CONSULTING
Publiée le
AWS Cloud
DevOps
6 mois
40k-50k €
310-450 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’une hausse d’activité, nous recherchons un(e) DevOps / Cloud Engineer pour renforcer nos équipes techniques et intervenir sur des environnements Cloud et CI/CD à forts enjeux. Missions Vous interviendrez sur l’ensemble de la chaîne DevOps et Cloud : Concevoir, mettre en œuvre et maintenir les infrastructures Cloud Créer, maintenir et optimiser les pipelines CI/CD Automatiser les processus de build, de test et de déploiement Collaborer avec les équipes développement et produit pour garantir des déploiements fiables Superviser la disponibilité, la performance et la fiabilité des systèmes Mettre en place des dashboards de monitoring Contribuer à l’amélioration continue des outils et pratiques DevOps Produire un compte-rendu d’activité mensuel
Offre d'emploi
Data Ingénieur Spark
R&S TELECOM
Publiée le
Batch
Docker
Git
1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
Mission freelance
Data Engineer Snowflake (H/F)
Cherry Pick
Publiée le
AWS Cloud
Python
Snowflake
12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
Offre d'emploi
Ingénieur OPS - Confirmé
KEONI CONSULTING
Publiée le
DevOps
Powershell
Scripting
18 mois
20k-40k €
Paris, France
CONTEXTE : 3 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Ingénieur OPS Spécialités technologiques : Méthodes / Normes Agile MISSIONS Dans le cadre du renforcement des activités OPS Sécurité du Système d’Information (OPS SSI), nous recherchons un Ingénieur OPS qui interviendra au sein du département Opérations. La mission consiste à concevoir, développer, intégrer et déployer des solutions techniques destinées à renforcer la sécurisation des environnements Cloud (CAAS, PAAS, IAAS) et on-premise (Core IT). Participer à la conception, au développement et à la mise en œuvre des solutions et des évolutions existantes dans le cadre du plan de sécurisation du SI. Contribuer à l’automatisation des processus de déploiement en collaboration avec les équipes Sécurité, DevOps, Architecture et Développement. S’appuyer sur le cadre d’utilisation des ressources Azure, conformément aux règles établies par les équipes concernées (Sécurité, Architecture, DevOps). Déployer et configurer les solutions de sécurité, notamment dans le cadre de projets de remédiation (failles infrastructure, hardening système, bases de données, middleware tels qu’Apache, IIS, etc.), en garantissant les niveaux de qualité de service et de performance attendus. Assurer les livraisons sur l’ensemble des environnements, de la DEV à la PROD, et veiller à leur exploitabilité (mise en place du monitoring, servitudes, documentation, etc.). Gérer le Change Management et garantir la maintenabilité et la pérennité des solutions déployées. Collaborer avec des équipes pluridisciplinaires au sein des projets, dans un contexte agile. Participer à la résolution d’incidents, à la livraison de correctifs et à la mise en œuvre des plans de fiabilisation des systèmes applicatifs. Contribuer à l’amélioration continue des solutions et des pratiques OPS Sécurité. Participer aux interventions HNO et/ou aux astreintes selon les besoins opérationnels. Expertise souhaitée Solide expérience en environnements Cloud (Azure) et on-premise. Bonne maîtrise des outils d’automatisation et de scripting (PowerShell, Python, etc.). Compétences confirmées en sécurisation d’infrastructures et middleware (Apache, IIS, bases de données). Connaissance des méthodes Agiles et des pratiques DevOps. Capacité à travailler en transverse avec les équipes sécurité, développement et infrastructure.
Mission freelance
Ingénieur DevSecOps / SysOps
HAYS France
Publiée le
Ansible
API REST
Gitlab
1 an
Île-de-France, France
Dans le cadre d’un projet stratégique à forte criticité technique, notre entreprise recherche un Ingénieur DevSecOps / SysOps Confirmé ou Senior . La mission s’inscrit dans un environnement multi‑équipes, sur un site client sécurisé, avec un objectif majeur : développer, intégrer et livrer un module logiciel destiné à être déployé dans les systèmes d’information clients via des machines virtuelles . L’activité se déroule en cotraitance multi‑industriels , dans une logique proche d’un éditeur logiciel, exigeant une qualité irréprochable des livrables, un haut niveau d’automatisation et une maîtrise des environnements sécurisés. Objectif du module Développement d’un module logiciel destiné à être intégré chez les clients via des machines virtuelles . Production de packages déployables totalement validés, automatisés et exploitables par le client final. Intervention dans un contexte multi‑industriels , en mode “éditeur”, avec forte exigence de qualité, de sécurité et d’intégration continue. Rôle du DevSecOps / SysOps Travailler en étroite collaboration avec les équipes de développement . Garantir une livraison maîtrisée des packages versions. Assurer le maintien, l’optimisation et la sécurité des environnements internes (intégration, validation). Superviser et suivre les vulnérabilités tout au long du cycle de vie. Prestations attendues 1. Pilotage / Intégration / Livraison Livrer les packages versions conformément au planning. Maintenir, optimiser et faire évoluer les chaînes CI/CD . Assurer le suivi des processus d’intégration et validation interne. 2. Supervision & Sécurité Maintenir et enrichir les outils de monitoring, logging et alerting . Analyser la sécurité et la sûreté des produits développés. Maîtriser la configuration, l’installation et la maintenance des VM des environnements hors exploitation . 3. Documentation & Accompagnement Documenter clairement les processus, changements, configurations, modops . Accompagner les équipes de développement, proposer et mettre en place les actions correctives . Assurer un reporting sur la sécurité, les vulnérabilités et l’état des environnements.
Offre d'emploi
Développeur/se JAVA Confirmé.e (H/F)
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
DevOps
Roubaix, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
DBA expérimenté SQL / Mongo DB/ AWS (H/F)
ADSearch
Publiée le
AWS Cloud
Mongodb
SQL
3 mois
Île-de-France, France
Contexte du poste Dans le cadre du renforcement de son équipe technique, notre client recherche un DBA expérimenté capable de gérer, sécuriser et optimiser des bases de données relationnelles (SQL) et NoSQL (MongoDB) dans un environnement cloud AWS à forte volumétrie et criticité. Missions principalesAdministration & exploitation Administrer et maintenir les bases de données SQL (MySQL, PostgreSQL, SQL Server, Oracle…) et MongoDB Assurer la disponibilité , la performance et la fiabilité des bases de données Mettre en œuvre les stratégies de sauvegarde, restauration et PRA Gérer les montées de version, patchs et migrations Performance & optimisation Analyser et optimiser les requêtes SQL et les index Surveiller les performances et anticiper les problèmes de capacité Mettre en place des mécanismes de scalabilité (replication, sharding, clustering) Sécurité & conformité Gérer les droits d’accès, rôles et politiques de sécurité Mettre en œuvre le chiffrement des données (at rest / in transit) Garantir la conformité aux bonnes pratiques (RGPD, sécurité cloud) Cloud & DevOps (AWS) Administrer les services AWS liés aux bases de données : RDS, Aurora, DynamoDB, EC2, S3 Automatiser les déploiements et la supervision (Terraform, CloudFormation, scripts) Collaborer avec les équipes DevOps et applicatives Collaboration & support Accompagner les équipes de développement (conseils schéma, requêtes, bonnes pratiques) Participer aux revues techniques et à l’amélioration continue Rédiger la documentation technique Compétences techniques requisesBases de données Excellente maîtrise d’au moins un SGBD SQL Très bonne connaissance de MongoDB Concepts avancés : réplication, haute disponibilité, partitionnement Cloud & outils Solide expérience sur AWS Supervision : CloudWatch, Prometheus, Grafana (ou équivalents) Scripting : Bash, Python Outils CI/CD et Infrastructure as Code appréciés
Offre d'emploi
Développeur Backend Confirmé (H/F)
AVA2I
Publiée le
CI/CD
Cloud
Go (langage)
3 ans
46k-63k €
400-550 €
Île-de-France, France
Un acteur majeur dans le secteur bancaire recherche un Développeur Backend confirmé pour renforcer ses équipes techniques sur des projets à forte valeur ajoutée , au cœur de plateformes critiques et à forte volumétrie. 🔧 Tes missions Concevoir et développer des services backend scalables et sécurisés Contribuer aux choix d’architecture (microservices, APIs REST) Optimiser la performance, la robustesse et la fiabilité des applications Collaborer étroitement avec les équipes Produit, DevOps et Frontend
Offre d'emploi
Intégrateur DevOps - Infrastructure & Delivery (F/H)
Experis France
Publiée le
40k-55k €
Rennes, Bretagne
Intégrateur DevOps - Infrastructure & Delivery (F/H) - Rennes 🎯 Contexte de la mission Dans le cadre d'un projet stratégique pour un client grand compte, nous recherchons un intégrateur DevOps expérimenté (F/H), capable d'intervenir sur les phases de conception, d'intégration et de validation technique des solutions d'infrastructure, tout en assurant leur conformité non fonctionnelle avant mise en production. 🛠️ Vos responsabilités En avant-projet : Étudier l'impact non fonctionnel des évolutions du SI. Définir les exigences d'intégration et d'exploitation. Mettre en place des chaînes CI/CD. Estimer les charges d'intégration en phase de réalisation. En projet : Vérifier la conformité des environnements déployés. Réaliser l'intégration technique en environnement de test. Organiser et dérouler les tests techniques et de sécurité. Produire les livrables techniques et prononcer la conformité en CAB. Assurer le transfert de connaissances vers les équipes d'exploitation. Accompagner la phase de VSR (Vérification Service Régulier) post-production. En amélioration continue : Optimiser et industrialiser les livrables et processus d'intégration. Contribuer à la rationalisation des pratiques DevOps et ITIL.
Mission freelance
Directeur Technique Finances et Risques Devops, Cloud, mainframe, sécurité - Nantes (2 Jours TT)
WorldWide People
Publiée le
Cloud
DevOps
Mainframe
12 mois
400-450 £GB
Nantes, Pays de la Loire
Directeur Technique Finances et Risques Devops, Cloud, mainframe, sécurité - Nantes (2 Jours TT) Nous recherchons un directeur technique qui interviendra sur la plateforme "Finances et Risques" d'un de nos clients du secteur bancaire. Il aura pour mission de garantir la pérennité et la bonne évolution technologique de la plateforme. A ce titre, les principales activités seront: • Accompagner la maturation et la mise en œuvre des programmes et projets en cohérence avec les cibles d’architecture d’entreprises et solutions, • Porter les exigences de la plateforme sur les travaux d’industrialisation (de la méthode aux environnements en passant par les filières de développement) • S’assurer, pour chaque plateforme, de la bonne instruction des dossiers techniques et fluidifier la mise en œuvre des projets • S’assurer du bon delivery des projets du plan technique (PIAT) concernant la plateforme, • Superviser la gestion du MCO de la plateforme • Aider à construire une vision et une stratégie pour répondre aux ambitions de la plateforme • Servir de relai pour les sujets transverses de maitrise des coûts et Numérique Responsable en interne de la plateforme • Maintenir une vision 360 technique de la plateforme • Être force de proposition sur les possibilités qu’offrent les nouvelles technologies auprès des acteurs de la plateforme • Contribuer à une démarche d’amélioration continue du fonctionnement (simplification de certains processus, suppression d’irritants, …) Nous recherchons un profil capable de proposer des évolutions et des corrections techniques stratégiques à mettre en œuvre sur la plateforme. A ce titre, le consultant doit bénéficier d’une très bonne culture technique (connaissances en architecture applicative, connaissances en data, mainframe, cloud, devops, sécurité)
Offre d'emploi
Développeur Dataiku Expérimenté
KEONI CONSULTING
Publiée le
Dataiku
Python
UNIX
18 mois
20k-40k €
Paris, France
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Data management Dans le cadre d’une mission pour un grand compte bancaire, nous vous partageons le besoin suivant pour un développeur Dataiku Expérimenté : MISSIONS Contexte de la mission : Dans un contexte de convergence Risques/Finance visant à améliorer la production des reportings reglementaires (Finrep/corep/surfi..), le programme a pour objectif d’avoir un outil unique pour la collecte / préparation des données et des reportings. La prestation consiste à travailler sur la dimension Collecte du projet, afin de développer de nouvelles fonctionnalités ou d’améliorer des fonctionnalités existantes identifiées, avec une méthodologie « en V ». La mission pourra évoluer vers un rôle de référent sur ces sujets, en fonction de l’acquisition et de la maîtrise des sujets. Livrables / Résultats attendus : - Développer des fonctionnalités - Collaborer avec l’équipe produit/métier pour concevoir au mieux les fonctionnalités - Être en mesure de rédiger de la documentation fonctionnelle ou technique - Décliner les tickets des nouvelles fonctionnalités pour redispactch aux autres développeurs - Améliorer les pratiques de développement et de test - Tester et apprendre de nouvelles technologies, et partager vos connaissances avec le reste de l’équipe - Participer à l’esprit d’équipe via la montée en compétence des développeurs juniors L’équipe est organisée actuellement en mode agile Scrum. Expertise souhaitée 5/7 ans d'expérience Environnement technique à maitriser : - Dataiku (certifications souhaitées) - Python - Base de données relationnelle (db2, oracle…) et SQL - Datastage - Spark - Unix
Mission freelance
Ingénieur DevOps Production/Cloud GCP
CAT-AMANIA
Publiée le
Google Cloud Platform (GCP)
12 mois
400-550 €
Noisy-le-Grand, Île-de-France
Vous participerez à la mise en production et à l’industrialisation des projets et infrastructures s’appuyant sur les plateformes Confluent Cloud Kakfa SaaS, Kakfa Connect GCP & OnPremise. Vos missions consisteront à contribuer: Administration Kafka Maintenir la configuration Confluent KAFKA Support aux équipes de développements sur les configurations & bonnes pratiques Confluent Kafka (topics..) Infrastructure & Réseau Administrer et optimiser les configurations NGINX pour le relais des flux depuis le réseau Corporate Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Monitoring et Observabilité Mettre en place et améliorer les solutions de monitoring de la plateforme Confluent Cloud (métriques, alertes, dashboards) Superviser les clusters Kubernetes GKE hébergeant Kafka Connect et Kafka Streams Assurer la surveillance des machines On-Premise participant à l'écosystème Kafka Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Sécurité & Gouvernance Garantir la conformité des accès selon les standards de sécurité Superviser les mécanismes d'authentification (Service Accounts, API Keys, OIDC) Contribuer à l'audit et à la gouvernance des ressources Confluent Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques Automatisation & IaC Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement et de rollback
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelances : comment vous gérez votre admin au quotidien ?
- SASU IR - Prelevement sociaux
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Etat du marché 2026: rebond ou stagnation ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
1466 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois