Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 759 résultats.
Mission freelance
SOC Detection Engineer
Phaidon London- Glocomms
Publiée le
Active Directory
C/C++
Python
12 mois
550-650 €
Paris, France
Traduire les renseignements sur les menaces et les tactiques, techniques et procédures (TTP) des équipes rouges en logique de détection exploitable (principalement KQL). Examiner, affiner et enrichir la bibliothèque de règles de détection de l'organisation afin d'en optimiser la précision, la profondeur et la couverture. Collaborer avec l'équipe de réponse aux incidents pour comprendre les erreurs de détection passées et concevoir des règles permettant d'éviter leur récurrence. Travailler en étroite collaboration avec le SOC, la cyberdéfense et divers intervenants internes dans plusieurs régions. Collaborer avec les fournisseurs et les acteurs du secteur, le cas échéant, afin d'améliorer les capacités de détection.
Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)
K-Lagan
Publiée le
Big Data
BigQuery
Dataiku
1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
Mission freelance
Data Engineer
MLMCONSEIL
Publiée le
Dataiku
Python
SQL
6 mois
100-460 €
Rennes, Bretagne
Nous recherchons un Data Engineer confirmé pour industrialiser et optimiser les traitements de données via Dataiku et une architecture AWS (S3, Redshift, Glue, Athena) . Le rôle inclut la collecte via API , la modélisation des données , ainsi que la qualité, sécurité et gouvernance des flux en lien avec les équipes métier. Profil attendu : 5 ans d’expérience minimum , maîtrise SQL/Python , Dataiku, environnement Cloud, anglais professionnel requis.. . ... ... ... ... ... ... ... ... ... ... ... ... ... .. .
Mission freelance
Ingénieur Cloud Data plateforme
Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake
12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
Offre d'emploi
INGENIEUR EXPERT DEBIAN
KEONI CONSULTING
Publiée le
Fortran
Node.js
Python
18 mois
20k-60k €
100-400 €
Évry, Île-de-France
Contexte : Dans le cadre de nouveaux logiciels qui doivent être adaptés pour les rendre disponibles pour les systèmes de classe Debian (Ubuntu, Mint, etc). Le déploiement de ces logiciels, et leur maintenance, est ensuite assuré par l’infrastructure Debian : • Dépôts de développement de codes () ; • Usine logicielle avec tests d’intégration (NEW, unstable/testing/backport, ) ; • Dépôts de paquets prêts à l’installation (paquets sources et binaires .deb, ) • Mise à jour lorsque de nouvelles versions de code source sont rendues disponibles. MISSIONS • Conformation avec les pratiques Debian pour le packaging à partir de code source (patches, signatures de codes, etc). • Communication des besoins définis par le GRADES à travers la page /tree/master, en particulier les catégories « what is on the way » et « HIGH priority ». Ces besoins évoluent avec le temps. • Évaluation du travail nécessaire pour le packaging de chaque logiciel et dépendances (organisation du code, dépendances, estimation des patchs, …). Écriture des ITP. • Importation des projets logiciels dans le GIT Debian (). • Écriture des fichiers de packaging (dossier « debian » avec les patchs et autres recettes). • Demande de migration dans la file « NEW ». • Suivi de l’évolution du packaging (NEW → unstable→ testing → stable) et résolution des erreurs rencontrées. • Communication de toutes ces étapes sur la liste "Debian-pan-maintainers" • Les paquets produits pourront faire l’objet de mise à jour (en particulier de sécurité) selon l’évolution des logiciels scientifiques. LIVRABLES Analyse technique et évaluation du packaging ; - - - - - - Code source adapté pour packaging ; Fichiers de packaging Debian ; Paquets Debian ; Documentation technique ; Profil & Exigences techniques : • Le candidat doit posséder une solide expérience du packaging Debian en paquet ‘source’. L’ensemble des produits de la prestation sera publié sous la forme de code source sur , et sous les formes requises par le processus d’intégration Debian (ITP, bugs, etc). Les paquets installables (binaires) seront produits et hébergés par l’usine logicielle de Debian. • Développement en Informatique spécialisé en packaging Debian –(code source, Debian Science • Maitrise de langages informatiques : Python, C, Node, Fortran, Perl, ...).
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Offre d'emploi
DATA Engineer GCP 2
KEONI CONSULTING
Publiée le
Architecture
Python
SQL
18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
Business Analyst Front Office Taux | BFI | IDF
JobiStart
Publiée le
Python
2 ans
400-570 €
Montrouge, Île-de-France
Intervenir au cœur du Front Office Taux pour concevoir et faire évoluer une application in-house temps réel dédiée au suivi des positions, P&L et risques des desks Bonds. Concrètement, tu interviens sur un blotter temps réel stratégique , utilisé directement par les traders, avec un fort enjeu de qualité fonctionnelle, réactivité et fiabilité des données . Tes responsabilités : Analyser les besoins des utilisateurs Front Office (Traders, Sales, Risk) Concevoir et formaliser les exigences métier sous forme de User Stories avec critères d’acceptation clairs Piloter le backlog produit et les releases dans un cadre Agile Animer les rituels et ateliers Agile (refinement, story mapping, example mapping) Collaborer étroitement avec les équipes de développement pour affiner les spécifications fonctionnelles et techniques Prototyper les besoins métiers (Excel VBA / Python) Définir et exécuter la stratégie de tests fonctionnels Garantir la cohérence, la qualité et la valeur business des livrables Stack & outils clés : Capital Markets IT · Front Office Rates · Bonds / Swaps · P&L FO · Systèmes de booking (Murex / Orchestrade ou équivalent) · Excel VBA · Python · Agile / BDD
Offre d'emploi
Data Scientist NLP (H/F)
STORM GROUP
Publiée le
AI
Apache Airflow
BigQuery
3 ans
50k-58k €
450-500 €
Île-de-France, France
• contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques, • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs
Offre d'emploi
Prompt Engineer PAris
Cogniwave dynamics
Publiée le
Data science
Python
1 an
40k-43k €
290-310 €
Paris, France
Pour un poste en CDI , nous recherchons un prompt engineer (2/5 ans expérience) Salaire Fixe + différentes primes de performance La mission interviendra sur un projet d’IA mise au service de la force de vente. Les principaux cas d’usages de la mission seront la génération de Pre-meeting Reports pour les commerciaux et la génération de leads IA (AI-generated leads). Phase : passage à l’industrialisation (post‑POC / phase initiale). Tâches à réaliser : Concevoir des frameworks de prompts et d’agents (agentic + standard). Mettre en place des pipelines d’évaluation structurés (Promptfoo, LangSmith, QA custom). Garantir des sorties structurées et typées (Pydantic, JSON). Gérer le PromptOps complet : Git, versionning, meilleures pratiques. Optimiser les coûts tokens via RAG et context pruning. Concevoir des API / tool-calling schemas pour l’intégration aux systèmes. Utiliser Chain-of-Thought et Self-Reflection pour améliorer le raisonnement. Construire des systèmes IA autonomes robustes pour la production.
Offre d'emploi
Data scientist (H/F)
IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Mission freelance
Ansible technical architect
Gentis Recruitment SAS
Publiée le
Ansible
Linux
Microsoft Windows
3 mois
Luxembourg
Contexte Dans le cadre du développement et de la standardisation de la plateforme d’automatisation, la mission vise à accompagner la conception, l’implémentation et l’extension des solutions d’Infrastructure as Code (IaC), ainsi que l’intégration de solutions techniques via l’automatisation. Missions principales Concevoir et implémenter une plateforme d’automatisation robuste et évolutive Étendre la couverture Infrastructure as Code (IaC) Standardiser et industrialiser les processus d’automatisation existants Piloter des projets d’intégration de solutions techniques via l’automatisation Participer à la définition de l’architecture technique Assurer la cohérence et la conformité des environnements techniques Contribuer aux pratiques Agile et à l’amélioration continue Compétences techniques Expertise Ansible (Expert – utilisation continue) Architecture IT (Expert – expérience 1 à 3 ans) Gestion de projets IT (Expert – expérience 1 à 3 ans) Intermédiaire Python (expérience récente – cette année) GitLab (CI/CD – cette année) Enterprise Vault (cette année) Linux (1 à 3 ans) Windows (1 à 3 ans) NAS (1 à 3 ans) OpenShift (expérience régulière) Méthodologie Agile (1 à 3 ans) Environnement technique Automatisation : Ansible CI/CD : GitLab Systèmes : Linux & Windows Conteneurisation / Orchestration : OpenShift Scripting : Python Stockage : NAS Archivage : Enterprise Vault Profil recherché Solide expertise en automatisation et Infrastructure as Code Forte capacité d’architecture et de vision transverse Expérience confirmée en gestion de projets IT Capacité à travailler en environnement Agile Esprit d’analyse, rigueur et orientation résultats Bonne capacité à standardiser et industrialiser des processus techniques
Offre d'emploi
DEVELOPPEUR FULLSTACK React/Angular
KEONI CONSULTING
Publiée le
Angular
Java
Python
18 mois
20k-60k €
100-400 €
Évry, Île-de-France
Contexte : Le candidat intervient dans le cadre de la refonte ou de l’évolution d’applications web métier critiques sur l’ensemble du cycle de développement (frontend et backend). Il évolue dans un environnement agile et DevOps, avec des outils modernes (Docker, Docker Compose, CI/CD) et des stacks technologiques comprenant React ou Angular en frontend et Java/Spring Boot côté backend. Il est en lien avec les équipes produit, UI/UX, et infrastructure, notamment pour la conteneurisation et l’orchestration des environnements. MISSIONS Activités principales : • Conception et développement de nouvelles fonctionnalités front et back. • Mise en place et maintenance de pipelines d’intégration et déploiement continus. • Collaboration avec les équipes produit et design pour l'expérience utilisateur. • Réalisation de tests unitaires, d’intégration et gestion des anomalies. • Livraison d’applications conteneurisées prêtes à être déployées en production. LIVRABLES Code source complet (frontend + backend) ; - - - - Pipelines CI/CD et conteneurs ; Tests unitaires et d’intégration ; Documentation technique et manuels de déploiement ; PROFIL & Exigences techniques : • Maîtrise de l’ensemble du cycle : spécifications, conceptions, développements, tests, déploiements, support, maintenance, évolutions... • Connaissance des couches : frontend/backend, microservices, REST, React/Angular, Spring Boot, etc. • Implémentation d’outils et pipeline d’intégration / déploiement automatisés (Jenkins, Docker, Kubernetes, GitLab CI/CD) • Maîtrise des exigences RGPD, IAM, OAuth2, gestion des vulnérabilités (OWASP, SAST, etc.) • Maîtrise des technologies frontend/backend (React.js et Angular, Java, Python, Spring Boot, Django et API REST). • Solide expérience avec Docker, Docker Compose, et principes de conteneurisation. • Bonne compréhension des architectures microservices. • Maitrise des bases de données SQL/NoSQL (PostgreSQL, MongoDB). • Pratiques DevOps : CI/CD, versioning Git, intégration de SonarQube. • Gestion d’état avec Redux ou Context API / RxJS pour Angular.
Offre d'emploi
INGENIEUR ACQUISITION & TRAITEMENT DE DONNEES
KEONI CONSULTING
Publiée le
Jupyter Notebook
Open Source
Python
18 mois
20k-60k €
100-400 €
Évry, Île-de-France
Contexte : Le candidat intervient au sein d’équipes dans des contextes très variés tel que l’optimisation opérationnelle pour des applications de maintenance préventive, optimisation des processus d’acquisition et de contrôle ou le support aux lignes de lumière pour traiter les données expérimentales. MISSIONS Activités principales : • Faire l’analyse technique et la conception du ou des logiciels à réaliser. • Réaliser les logiciels dans le/les langage(s) le plus approprié. • Concevoir et implémenter des procédures de test. • Déployer les logiciels (paquets). • Rédiger les spécifications, documentations techniques et utilisateurs. LIVRABLES Analyse technique et conception (spécifications techniques, architecture logicielle) ; Code source des logiciels développés ; Procédures et scripts de test ; Packages déployables ; Documentation technique et utilisa teurs Profil & Exigences techniques : • Maîtrise approfondie des concepts de traitements de données scientifiques : • Développement et implémentation d'algorithmes pour l'analyse d'images scientifiques (ex: détection de features, segmentation, reconstruction tomographique, analyse de diffraction/diffusion). • Application et développement de méthodes de calculs statistiques (ex: ajustement de modèles, analyse d'erreurs, tests d'hypothèses, classification) et mathématiques (ex: transformées de Fourier, algèbre linéaire, optimisation numérique) appliquées aux données expérimentales. • Compréhension des formats de données scientifiques (HDF5, NeXus, TIFF, etc.) et des bibliothèques associées. • Expérience dans le séquencement et l’orchestration de traitements de données (Apache Airflow, etc.) • Expérience dans la gestion et le traitement de volumes importants de données (Big Data) et dans l'optimisation des pipelines de traitement. • Connaissance et utilisation d'outils de réduction et d’analyse de données du monde open source : • ImageJ/Fiji : Pour le traitement et l'analyse d'images. • Python/Jupyter Notebooks/JupyterLab : • Pour l'analyse interactive, la visualisation et le prototypage. • Bibliothèques spécialisées : Connaissance de bibliothèques dédiées à des techniques d'analyse spécifiques (ex: SPEC, Lima, Bliss, Sardana, TANGO Controls). • Optionnellement, mais fortement apprécié, maîtriser les méthodes de parallélisation de codes pour le calcul intensif (HPC) : • Parallélisation multi-threading (OpenMP). • Calcul distribué (OpenMPI, ZeroMQ, gRPC). • Programmation sur GPU (CUDA/OpenCL, OpenACC). • Compréhension des architectures de calcul parallèle et des problématiques de scalabilité.
Mission freelance
Data Scientist
ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python
1 an
Lille, Hauts-de-France
🎯 Objectif global Concevoir et développer de nouveaux algorithmes de Machine Learning afin d’enrichir et d’améliorer un système de recommandation à fort impact business. 📦 Livrables attendus Développement d’algorithmes ML opérationnels Prototypes (PoC / MVP) validés techniquement Documentation technique associée Mécanismes d’explicabilité des modèles Recommandations d’optimisation et d’industrialisation 🚧 Contraintes du projet Forte exigence de performance et de robustesse Nécessité d’explicabilité des algorithmes Intégration dans un écosystème data existant Collaboration transverse avec équipes produit et techniques 🧠 Missions principales1. Veille & Innovation Suivre les avancées en IA/ML (Deep Learning, Reinforcement Learning, LLM, IA générative) Identifier les technologies pertinentes pour les cas d’usage recommandation Proposer des approches innovantes adaptées aux enjeux métier 2. Conception & Expérimentation Concevoir des Proof of Concept (PoC) Développer des MVP robustes Tester et comparer différentes approches algorithmiques 3. Analyse de données & Modélisation Explorer et analyser des datasets complexes Identifier patterns et signaux exploitables Concevoir, entraîner et évaluer des modèles de recommandation 4. Explicabilité & Qualité Mettre en place des mécanismes d’interprétabilité Garantir la compréhension des résultats par les parties prenantes Documenter les choix techniques et les performances 5. Collaboration & Intégration Travailler en lien étroit avec Product Owners et équipes data Participer à l’intégration des modèles dans les plateformes existantes Contribuer à l’amélioration continue des solutions IA 🌍 Langues Français courant – Impératif Anglais professionnel – Secondaire
Mission freelance
98710/Data Engineer Nantes - Kafka - DBT - Python - Trino
WorldWide People
Publiée le
Apache Kafka
DBT
Python
12 mois
400-420 £GB
Nantes, Pays de la Loire
Data Engineer Nantes - Kafka - DBT - Python - Trino L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
759 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois