Trouvez votre prochaine offre d’emploi ou de mission freelance EGEN
Votre recherche renvoie 780 résultats.
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Offre d'emploi
Spécialiste Google SecOps (anciennement Chronicle)
INFOGENE
Publiée le
Endpoint detection and response (EDR)
Security Information Event Management (SIEM)
SOC (Security Operation Center)
6 mois
50k-68k €
440-620 €
Île-de-France, France
Le projet porte sur l'intégration d'un gros périmètres client au sein d'un SOC, avec migration d'ELK vers SecOps (un peu de Sentinel One aussi). Il faudra réaliser un état des lieux des Uses Cases existants et ainsi réévaluer la stratégie globale de détection actuelle. L'activité de l'équipe adresse à la fois les besoins de détection, onboarding des logs, réalisation des parsers, fiches réflexes associées, validation des règles pendant le build. Elle adresse aussi l'automatisation via les divers outils d'orchestration : au travers de SecOps SOAR / plus globalement avec le XSOAR de Palo Alto - Localisation Ile de France (78) - TT 2 jours/ semaine - Anglais opérationnel
Offre d'emploi
Technicien support IT Event (F/H)
Experis France
Publiée le
75001, Paris, Île-de-France
Technicien support IT Event (F/H) - Paris Dans le cadre du développement de notre offre VIP, nous recherchons des Techniciens Support IT Event (F/H) capables d'intervenir au cœur des événements VIP, showrooms et présentations internes/externes, afin de garantir une expérience technologique fluide, sécurisée et sans faille. Votre rôle : préparation, installation, exploitation et support technique en temps réel lors d'événements haut de gamme, où excellence et réactivité sont essentielles. Vos missions : Préparation & installation Préparer et configurer le matériel IT : postes, écrans, projecteurs, équipements audio-visuels, bornes Wi‑Fi, systèmes de sonorisation… Installer et câbler les infrastructures techniques pour les événements premium. Configurer les systèmes : réseaux, hardware, logiciels, périphériques. Support en événement Assurer un support IT de proximité pendant toute la durée des événements. Diagnostiquer et résoudre rapidement incidents et pannes (réseau, hardware, AV). Gérer les imprévus techniques avec calme, efficacité et professionnalisme. Pilotage & coordination Collaborer étroitement avec les équipes organisatrices pour une logistique fluide. Mettre en place les procédures dédiées à chaque événement/showroom. Gestion des solutions collaboratives Administration de Zoom : Création de salles, attribution de licences, paramétrage des salles de réunion & équipements dédiés, Configuration des sauvegardes Cloud Préparation et gestion des réunions Zoom/Teams : montage des salles, gestion via console, génération des codes d'activation. Gestion du parc & outils IT Gestion de la flotte smartphones et tablettes. Préparation, installation et dépannage des postes de travail. Administration Active Directory : création, modification, réactivation des comptes. Installation des imprimantes Zebra + formation sur l'interface Launchmetrics. Suivi et gestion des stocks matériels et logiciels. Showrooms & projets événementiels Étude des besoins techniques (réseau, hardware) pour toute la durée des showrooms. Implémentation réseau en coordination avec les équipes dédiées selon la configuration du lieu. Tests complets en amont pour garantir performance, stabilité et sécurité.
Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Mission freelance
Directeur de projet TMS
Codezys
Publiée le
Supply Chain
Transformation digitale
12 mois
570-700 €
Les Ulis, Île-de-France
Contexte de la mission Dans le cadre de la transformation de la Supply Chain et du déploiement d’un nouveau Transport Management System (TMS), la Direction Supply Chain met en place une gouvernance clarifiée du programme. Elle recherche un Directeur de Programme Métier pour prendre le relais d’un précédent directeur et assurer le pilotage du programme. Celui-ci est actuellement en phase de qualification fonctionnelle et technique, incluant tests et recettes, en préparation des étapes de prototype et déploiement opérationnel. Le Directeur de Programme Métier sera responsable de la valeur métier, de la trajectoire globale et de la coordination entre les parties prenantes (métiers, IT, partenaires), en collaboration étroite avec le Directeur de Programme IT. Il doit avoir une forte capacité à structurer le dialogue entre ces acteurs pour sécuriser les prochaines étapes. Objectifs et livrables Assurer la direction du programme métier du déploiement du TMS, notamment : Tenir le planning consolidé Conduire les phases de qualification, tests et recettes Coordonner équipes métiers et IT Maîtriser les risques Assurer transparence sur écarts et points d’attention Mettre l’accent sur : La tenue des livrables La formalisation des écarts entre trajectoire cible, planning et réalisations La remontée structurée des risques et arbitrages Pilotage global du programme côté métier Définir la vision métier et la valeur attendue Consolider et maintenir le planning global Piloter le budget et les arbitrages Suivre risques, dépendances et points de vigilance Veiller à la formalisation claire des écarts Management des équipes projet métier Encadrer et animer une équipe de chefs de projet couvrant : Transport Logistique Emballage Reporting & Data Responsabilités : Structuration et animation de l’équipe Priorisation des travaux Coordination transversale Arbitrage des sujets métier Interface Métier – IT Coordonner entre équipes métiers, IT et partenaires pour assurer la cohérence entre trajectoire métier et IT Suivre les jalons IT et leurs impacts métier Structurer le dialogue et escalader les points de blocage si nécessaire Gouvernance du programme Organiser et piloter les instances (COPIL, COMOP, instances de coordination) Consolidation des informations Préparer les supports de pilotage Suivre décisions et arbitrages Communiquer de façon consolidée sur le programme
Offre d'emploi
Site Reliability Engineer (SRE) Transverse H/F - LILLE (pas de full remote)
HELPLINE
Publiée le
Bash
DevOps
Github
3 ans
39k-45k €
370-460 €
Lille, Hauts-de-France
💼 Mission : Vous rejoignez une équipe transverse stratégique pour garantir l'excellence opérationnelle d'un écosystème digital majeur. En tant que SRE, votre rôle est d'apporter une expertise technique pointue pour scaler les services et soutenir les équipes Produit. Vos responsabilités principales : Ingénierie de la Fiabilité (SRE) : Piloter l'amélioration continue de la stabilité, de la performance et de la résilience de la plateforme. Culture SLO/SLI : Accompagner les squads produits dans la définition et le suivi de leurs indicateurs de service (Service Level Objectives/Indicators). Automatisation & Réduction du Toil : Identifier et déployer des outils (IaC) et scripts pour réduire les tâches répétitives et augmenter l'efficacité opérationnelle. Observabilité avancée : Renforcer le diagnostic proactif via la mise en place de métriques, logs et tracing pour anticiper les incidents. Expertise & Conseil : Assister les équipes dans l'adoption des meilleures pratiques (Infrastructure, Sécurité, Gestion des changements).
Offre d'emploi
Lead AI Engineer
ANDEMA
Publiée le
AI
GenAI
Large Language Model (LLM)
60k-75k €
Paris, France
Dans le cadre d’un projet stratégique Data & IA, nous accompagnons l’un de nos clients, acteur tech à fort enjeu produit, dans le recrutement d’un Lead AI Engineer. Le rôle Le Lead AI Engineer est responsable de la conception, du développement et du déploiement de solutions IA à forte valeur métier. À la fois référent technique IA et acteur clé du delivery, il combine une posture très hands-on avec une vision produit / ROI, en lien étroit avec les équipes métier, produit et la direction. Vos responsabilités 1. Conception & développement de solutions IA (cœur du poste) Concevoir et développer des solutions IA avancées : LLM & GenAI (RAG, MCP, agents, workflows IA, fine-tuning si nécessaire) Modèles de scoring, recommandation, prédiction, classification Développer des solutions robustes, scalables et industrialisées, prêtes pour la production Être très fortement hands-on en développement, principalement en Python Garantir la qualité du code, la performance, la sécurité et la maintenabilité Utiliser des outils d’assistance au développement (ex. Claude Code) 2. Leadership technique & delivery IA Porter les projets IA de bout en bout : cadrage fonctionnel et technique, choix d’architecture, priorisation delivery, mise en production et suivi de la valeur Jouer un rôle de leader technique, sans management hiérarchique direct Être capable d’arbitrer et de prendre des décisions techniques structurantes Structurer le delivery dans une logique produit et ROI, en lien avec le CPTO 3. Interface produit, métier et direction Travailler en proximité avec : les équipes métiers, le produit, les équipes techniques, la direction Traduire des besoins métier complexes en solutions IA concrètes Animer des ateliers de cadrage, restituer les avancées, vulgariser les sujets IA Porter une vision transverse des projets (roadmap, dépendances, risques) 4. Structuration et montée en maturité IA Contribuer à la vision IA globale (choix technologiques, standards, bonnes pratiques) Mettre en place des patterns réutilisables (RAG, pipelines IA, templates projets) Participer à la diffusion de la culture IA Assurer une veille active sur les évolutions IA (LLM, frameworks, usages) Environnement technique Langage : Python (expert) IA / Data : LLM / GenAI, RAG, embeddings, agents Pandas, PySpark (selon cas) Plateforme Data : MinIO, MongoDB, PostgreSQL, ElasticSearch, Airflow, RabbitMQ Infra : Docker, Kubernetes Dataviz / exposition : PowerBI, Metabase Outils : Git, CI/CD, outils d’IA d’assistance au développement
Mission freelance
DevOps
QUALIS ESN
Publiée le
Ansible
ELK
GitLab CI
6 mois
400-450 €
Limonest, Auvergne-Rhône-Alpes
e contexte Au sein du d'un Cluster de proximité, vous intégrez l’équipe AppOps « Demat Poste de travail et Socle API» rattachée au service « Ops Socles & Digital ». En proximité des squads qui utilisent des pratiques d’agilité à l’échelle, vous intervenez sur l’ensemble du cycle de vie (design, build, run) des produits qu’elles ont en responsabilité. Vos missions - Contrôle de bon fonctionnement des solutions / produits (proactivité); - Prise en charge, dispatch et traitement des incidents, gestion des problèmes; - Maintien en condition opérationnelle des solutions/produits (gestion de l’obsolescence, sécurité…); - Mise en place de monitoring, d’indicateurs pour mesurer la performance, la qualité de service, intelligence artificielle; - Piloter le plan d’amélioration continue; - Coordination des travaux, des dossiers de la backlog (cadrage, objectif/enjeux, livrables, planning, risque…); - Animer la relation avec notre partenaire (priorité, rituels..); - Maitrise des impacts des changements sur le poste de travail en s’appropriant les usages. - Participation à la transformation Agile de l’AppOps - Optimisation, amélioration et automatisation des tâches d’exploitation Profil recherché Vous êtes issu(e) d'une formation supérieure en informatique d'un minimum BAC+2 ou plus. Compétences comportementales : Esprit d’équipe et coopération; Sens du résultat; Adaptabilité; Assertivité; Autonomie; Capacité d'analyse et de synthèse; Conscience professionnelle; Conseil et sens du service; Dynamisme; Force de proposition; Gestion des priorités; Gestion du stress.
Mission freelance
Senior Data Engineer Palantir
Orcan Intelligence
Publiée le
Big Data
Databricks
9 mois
600-800 €
Paris, France
Orcan Intelligence recherche pour l'un de ses clients dans le secteur de la Finance un consultant Data Engineer senior sur les sujets Palantir . Voici les livrables attendus : Développer des pipelines de données pour nos fondations dans Palantir Foundry Construire, maintenir et documenter des pipelines, notamment pour l'intégration de données dans notre modèle analytique (architecture medallion). Etablir des Contrôles de qualité, tests,........ etc
Mission freelance
DEVELOPPEUR(SE) IA GEN
Les Filles et les Garçons de la Tech
Publiée le
Azure
Copilot
IA Générative
12 mois
400-560 €
Île-de-France, France
Votre rôle principal consistera à assurer l'assistance technique, ainsi que la maintenance corrective et évolutive du portail IA interne. Vos missions s'articuleront autour des axes suivants : Maintenance du portail IA (Front et Back) : Améliorer l'expérience utilisateur (IHM), mettre à jour le catalogue d'assistants existants, gérer la création de nouveaux assistants avec contrôle d'accès, et faire évoluer les mécanismes d'exposition en API et de suivi de la consommation IA. Conception et optimisation : Réaliser des assistants IA préconfigurés selon les besoins métiers, optimiser l'ingestion de documents (bases de connaissances) pour améliorer la qualité des réponses, et affiner les prompts utilisateurs pour augmenter la précision tout en maîtrisant les coûts. Support et accompagnement : Prendre en charge les tickets d'incidents (support de niveau 1 et 2), analyser les dysfonctionnements via les logs applicatifs, et mettre à jour la FAQ ainsi que les parcours d'accueil. Vulgarisation : Une grande partie des utilisateurs étant non technique, vous devrez les accompagner dans la réalisation de leurs prompts et rédiger de la documentation claire et adaptée.
Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours
Almatek
Publiée le
Python
6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
Offre d'emploi
Senior Data Scientist / ML Engineer (H/F)
█ █ █ █ █ █ █
Publiée le
CI/CD
Elasticsearch
Git
53k-59k €
Rennes, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)
Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage
12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
Mission freelance
Mission Freelance - Lead dev Java Spring boot - 91
KUBE Partners S.L. / Pixie Services
Publiée le
Java
React
6 mois
400-600 €
Essonne, France
Pour l'un de nos client, nous sommes à la recherche d'un Lead Dev sur Java Spring Boot pour la mission ci-dessous : Tech Lead : Au delà d'un expert, nous souhaitons avoir un leader avec une grosse connaissance sur la technologie mais aussi quelqu'un ayant les capacités de gérer une équipe de 5 développeurs de manière agile. T1 : Leadership technique et conception d’architectures Définir et porter les choix d’architecture technique (backend en Java Spring Boot , frontend en React ) en garantissant la scalabilité, la performance et la maintenabilité des solutions. Accompagner les équipes dans les bonnes pratiques de conception (DDD, clean architecture, microservices si applicable). T2 : Développement et encadrement technique Participer activement au développement des fonctionnalités critiques tout en encadrant les développeurs (revue de code, mentoring, montée en compétences). Garantir la qualité et la cohérence du code produit. T3 : Mise en place et pilotage de la CI/CD Concevoir, mettre en œuvre et maintenir les pipelines CI/CD (Jenkins, GitLab CI, ArgoCD, SonarQube, Artifactory…). Industrialiser les processus de build, test et déploiement dans une logique DevOps. T4 : Sécurité et gestion des identités Piloter l’intégration et le paramétrage de solutions IAM telles que Keycloak (SSO, OAuth2, OpenID Connect). Assurer la sécurité des applications et la conformité aux standards. T5 : Gestion des environnements et exploitation Superviser les environnements techniques (Linux, conteneurisation Docker/Kubernetes si applicable), assurer la stabilité des plateformes et accompagner les équipes sur les problématiques d’exploitation. T6 : Collaboration transverse et coordination Travailler en étroite collaboration avec les équipes produit, métier, QA et opérations afin d’aligner les solutions techniques avec les besoins business. Faciliter la communication entre les parties prenantes. T7 : Qualité logicielle et bonnes pratiques Mettre en place et faire respecter les standards de qualité (tests unitaires, tests d’intégration, coverage, Sonar). Animer les revues de code et promouvoir les bonnes pratiques de développement. T8 : Pilotage et gestion des priorités Organiser et prioriser les sujets techniques en coordination avec les équipes produit. Être garant du respect des délais et de la qualité des livrables sur plusieurs projets en parallèle. T9 : Reporting et suivi Assurer un reporting régulier (hebdomadaire) auprès du management et des parties prenantes, avec une vision synthétique de l’avancement, des risques et des plans d’actions.
Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API
OBJECTWARE
Publiée le
Apache NiFi
API
JSON
3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- EURL au régime micro-entreprise ?
- Facturation electronique 2026
- Etat du marché 2026: rebond ou stagnation ?
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Consultante freelance disponible | Pilotage de projets IT & conduite du changement : prête pour votre prochaine mission !
- Nouveau volet social dans la déclaration d'impôts sur le revenu
780 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois