L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 774 résultats.
Mission freelance
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT (H/F)
Freelance.com
Publiée le
Apache Kafka
AWS Cloud
MQTT (Message Queuing Telemetry Transport)
6 mois
Malakoff, Île-de-France
Dans le cadre de la transformation digitale d’un grand groupe industriel international, la DSI renforce la maîtrise et la gouvernance des flux applicatifs entre les systèmes d’information Enterprise et les systèmes d’information Industriels. Ces environnements, bien que séparés et segmentés, sont fortement interconnectés et nécessitent des solutions d’intégration robustes, sécurisées et conformes aux standards d’urbanisation IT du groupe. Afin d’accompagner cette évolution, le groupe souhaite renforcer son dispositif d’architecture sur les sujets d’intégration applicative et de gestion des flux de données. Le consultant intégrera l’équipe Solution Design & Architecture as a Service, rattachée au département Enterprise Architecture, et interviendra sur la conception des architectures d’intégration et l’accompagnement des équipes projets. Environnement technique : AWS (services natifs et solutions de transfert de données) MuleSoft Kafka MQTT Architecture d’intégration inter-systèmes Urbanisation du SI CI/CD Envionnement industriel sécurisé
Mission freelance
Tech Lead .Net
Cherry Pick
Publiée le
.NET
AWS Cloud
CI/CD
12 mois
600 €
Paris, France
🎯 Contexte Dans le cadre du lancement d’un nouveau produit européen de distribution de produits financiers (achat, souscription, gestion de contrats), un acteur majeur du secteur démarre un projet stratégique basé sur une plateforme technologique de gestion de patrimoine (Wealth Management), avec une infrastructure indépendante. Le projet démarre mi-avril avec une phase de setup dès mi-mars (Sprint 0). Nous recherchons un Lead/Développeur Senior Back (.NET Core) pour accompagner ce lancement. 🚀 Missions ● Participer à la phase de cadrage et au Sprint 0 ● Contribuer à la conception technique de la solution Back-end / API ● Développer les fonctionnalités liées au tunnel de souscription en ligne ● Garantir la qualité, la robustesse et la standardisation du produit Back-end ● Travailler en collaboration avec : ● PO / BA ● Architecte ● Équipes internationales ● Participer aux revues de code ● Utiliser les outils DevOps standards (GitLab, CI/CD) ● Être à l’aise avec les assistants de développement 🛠 Environnement technique Back : ● .NET Core Infra & DevOps : ● AWS ● Kubernetes ● GitLab ● Jira Une appétence DevOps est un plus. 👤 Profil recherché Hard skills ● Expérience significative en développement .NET ● Expérience en environnement structuré / produit ● Bonne compréhension des architectures modernes (Microservices, API) ● Sensibilité Cloud (AWS) appréciée ● Expérience CI/CD Soft skills (critères clés) ● Forte curiosité ● Intérêt pour le produit ● Capacité à monter en compétence sur un domaine fonctionnel ● Bon relationnel et esprit collaboratif ● À l’aise dans un environnement international ● Bon niveau d’anglais Une expérience en finance est un plus mais non obligatoire. 🌍 Organisation ● Équipe cible : 7 dev + 2 QA ● Encadrement technique expérimenté ● Collaboration avec des équipes internationales ● Méthodologie Agile 📍 Localisation ● Île-de-France (Paris / Proche Banlieue) ● 2 jours de télétravail / semaine 💰 Conditions ● Démarrage : début mars (impératif pour seniors) ● Durée : 1 an
Mission freelance
Data Engineer & API Automation (H/F)
Link Consulting
Publiée le
API
Python
12 mois
450-550 €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Mission freelance
250762/Data Engineer TERADATA ET DATAVIZ
WorldWide People
Publiée le
Data visualisation
Teradata
1 mois
400 €
Paris, France
Data Engineer TERADATA ET DATAVIZ Project context Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Goals and deliverables Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Offre d'emploi
Développeur Full-Stack C# Finance (FH)
ASTRELYA
Publiée le
.NET CORE
API REST
AWS Cloud
Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Développeur Fullstack C# finance vous interviendrez dans un éco système banque sur des sujets critiques liés à la gestion et à la qualité des données produit. Vous participerez à la conception, au développement et à l’évolution d’extensions et d’APIs essentielles au fonctionnement du SI. Concrètement vous allez : La conception et développement de nouvelles fonctionnalités. La contribution au développement Frontend (React/TypeScript) et Backend (.NET Core/C#). La participation aux activités DevOps (CI/CD, déploiement sur Kubernetes, monitoring via Elastic/Kibana). Support technique et maintien en conditions opérationnelles des applications et APIs. Votre futur environnement technique : Back-end : .NET Core/C# Front-end : React/TypeScript APIs : REST Cloud : Azure et/ou AWS
Mission freelance
Data Ingénieur H/F
Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA
2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
Mission freelance
Data Steward H/F
Insitoo Freelances
Publiée le
JIRA
Microsoft Excel
2 ans
200-402 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Steward H/F à Hauts-de-France, France. Contexte : Garantir la structuration, la fiabilité et la performance des données produits intégrées au configurateur, afin d’assurer une expérience digitale cohérente, performante et adaptée aux besoins des marchés, des clients et des collaborateurs en magasins. Les missions attendues par le Data Steward H/F : 1. Structuration et gouvernance des données produits ● Collecter, analyser et structurer les données des produits configurables en lien avec les fournisseurs et le marché. ● Assurer l’intégration et la mise à jour des données produits et tarifaires (prix, options, évolutions de gamme), en garantissant leur fiabilité, leur cohérence et leur conformité aux règles métier. ● Être garant(e) de la qualité, de la cohérence et de la pérennité des référentiels data du configurateur. ● Définir et maintenir les règles de compatibilité et de cohérence entre produits. ● Modéliser et unifier les données multi-fournisseurs afin d’assurer leur intégration dans le configurateur. ● Identifier les attributs produits nécessaires à l’animation des parcours digitaux et coordonner leur complétude avec les parties prenantes (PILCO, marchés, fournisseurs…). ● Documenter les règles métier et référentiels afin d’assurer leur lisibilité, compréhension et transmission. 2. Pilotage du peuplement et performance produit ● Être responsable du peuplement des produits au sein du configurateur. ● Définir et suivre les indicateurs clés de performance (KPI) liés aux produits et aux parcours. ● Réaliser les analyses de performance et identifier les axes d’optimisation. ● Proposer et formaliser des plans d’action en lien avec les marchés. ● Contribuer à l’amélioration continue de l’offre et de l’expérience sur le configurateur.
Mission freelance
Proxy Product Owner
Codezys
Publiée le
API
Data management
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte : Vous intégrerez le département Architecture & Exploitation de la Direction des Systèmes d'Information dans le cadre du programme IAM , en particulier sur le projet IGA . Objectif du projet : Mettre en place une solution de Gestion des Identités et des Accès pour gagner en autonomie par rapport à la solution du groupe, réduire les délais d’accès aux applications, et fiabiliser le traitement pour minimiser les erreurs et écarts entre droits théoriques et réels. Structure du projet : Lot Solution : conception et déploiement de la solution IGA basée sur le produit OIM. Lot Raccordement : raccordement automatisé des applications jusqu’ici raccordées manuellement. Rôle et responsabilités : En tant que Proxy Product Owner pour le lot Raccordement, vous serez intégré(e) à l’équipe produit et aurez pour missions : Cadrer et concevoir les raccordements en : analysant les besoins d’habilitation des applications définissant les spécifications fonctionnelles d’intégration définissant les règles de mapping des données (identités, rôles, attributs) Piloter la réalisation des raccordements, en : collaborant avec les équipes produit, techniques et cybersécurité s’assurant de la bonne compréhension et utilisation des API et mécanismes d’intégration accompagnant dans la mise en œuvre des flux de provisioning Objectifs clés : Sécuriser le provisioning des habilitations Assurer la compréhension des mécanismes d’intégration Garantir la cohérence du mapping des données Maintenir la qualité fonctionnelle des intégrations Responsabilités principales : Analyser et définir les besoins pour les connecteurs applicatifs, incluant flux d’intégration et règles de provisioning Piloter le raccordement des applications, de la phase de cadrage à la mise en production Valider le mapping des données entre le produit et les applications Coordonner les équipes impliquées et animer les ateliers, comités et points de suivi Anticiper et gérer les risques et dépendances Suivre et reporter l’avancement, tenir à jour les outils de pilotage Veiller à la conformité des intégrations avec les standards IAM et processus internes Participer au fonctionnement Agile de l’équipe (backlog, priorisation, rituels)
Offre d'emploi
Master Data Manager SAP
SARIEL
Publiée le
ERP
Master Data Management (MDM)
SAP
12 mois
Villepinte, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un SAP MDM Intitulé du poste Responsable Master Data (Master Data Manager) Localisation : Siège – Villepinte Rattachement hiérarchique : Architecte Informatique Environnement : Systèmes d’information – Data, Intégration & Middleware Encadrement Management direct d’une équipe de Data Stewards __________ Contexte et enjeux du poste Dans un environnement multi-ERP et multi-applicatif, le Responsable Master Data est garant de la qualité, de la cohérence et de la gouvernance des données de référence. Il définit, maintient et fait évoluer le dictionnaire de données, pilote les logiques de migration et sécurise les flux d’échanges de données entre les différents ERP (dont SAP) et briques applicatives. Ce rôle est clé dans les projets de transformation digitale, de migration ERP et d’urbanisation du SI. __________ Missions principales Gouvernance et qualité des Master Data • Définir, maintenir et faire évoluer le dictionnaire de données (modèles, attributs, règles de gestion) • Garantir l’application des standards et règles de gouvernance des données • Assurer la qualité, la cohérence et l’unicité des données de référence • Mettre en place des indicateurs de qualité de données (DQ) Flux de données & interopérabilité • Définir et piloter les logiques d’interaction et de synchronisation des données o Entre ERP (SAP, autres ERP) o Entre ERP et briques applicatives (CRM, WMS, BI, outils métiers…) • Travailler avec les équipes techniques sur les flux ETL / ELT • Participer à l’urbanisation du SI Data Migration de données • Piloter et sécuriser les projets de migration de données • Définir les règles de mapping, de transformation et de reprise des données • Participer aux phases de tests, de validation et de mise en production • Capitaliser sur les retours d’expérience pour améliorer les processus Management de l’équipe Data Steward • Encadrer, animer et faire monter en compétence l’équipe de Data Stewards • Définir les rôles, responsabilités et priorités • Assurer l’alignement entre les métiers, l’IT et la gouvernance data • Être le point de référence sur les sujets Master Data Collaboration transverse • Travailler étroitement avec : o Les équipes métiers o Les équipes IT / ERP / BI o Les chefs de projet data et ERP • Participer aux comités de gouvernance Data __________ Objectifs clés du poste • Sécuriser la fiabilité et la cohérence des données de référence • Réussir les projets de migration et de transformation ERP Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Data Architect
Codezys
Publiée le
API
Collibra
12 mois
400-500 €
Lille, Hauts-de-France
Appel d'offres : Recrutement d'un Data Architect pour l'équipe Ressources Humaines Nous recherchons un Data Architect expérimenté pour renforcer notre équipe Ressources Humaines. Le candidat retenu aura pour mission principale d'assurer la cohérence, la conformité et la qualité de nos données RH en intégrant les meilleures pratiques de data architecture au sein de notre organisation. Compétences requises : Conception de modèles conceptuels de données par contexte métier Identification des événements métier en fonction du contexte Définition et formalisation des Business Terms , Business Attributes et Business Events dans Collibra Définition des Indicateurs Clés de Performance (KPI) par contexte métier Définition des règles de qualité pour les Business Terms Analyse de la conformité des APIs avec la data architecture Analyse de la conformité des Data Sets avec la data architecture Réalisation du data lineage pour assurer la traçabilité des données Rédaction de dossiers d'architecture data en réponse aux demandes métier exprimées dans le cadre de plans trimestriels Participation active à la démarche de data governance Objectifs de la mission : Le candidat devra élaborer et maintenir une architecture data cohérente, facilitant l’exploitation et la conformité des données RH, tout en assurant leur qualité et leur conformité aux exigences métiers. Il sera également responsable de formaliser et documenter les modèles conceptuels de données, tout en participant à la gouvernance des données pour garantir leur intégrité et leur conformité aux réglementations en vigueur. Profil recherché : Vous êtes doté d’une solide expérience en architecture data, notamment dans un contexte RH ou administratif. Vous maîtrisez les outils de gestion des métadonnées tels que Collibra, et avez une bonne compréhension des enjeux liés à la conformité des API et des Data Sets. Vos qualités analytiques, votre capacité à documenter précisément et votre esprit de collaboration seront essentiels pour mener à bien cette mission. Modalités : Les candidats intéressés sont invités à soumettre leur proposition détaillée, comprenant leur méthodologie, leur expérience pertinente et leur tarification, dans le respect des délais fixés par cet appel d’offres. Nous restons à votre disposition pour toute information complémentaire et vous remercions de l’intérêt porté à cette opportunité stratégique au sein de notre organisation.
Offre d'emploi
Data Engineer H/F
█ █ █ █ █ █ █
Publiée le
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Offre d'emploi
Consultant Data Snowflake
AGH CONSULTING
Publiée le
Qlik
Snowflake
6 mois
38k-45k €
280-400 €
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique ▪ BI / Data Viz : Qlik Sense / QlikView ▪ Data Warehouse : Snowflake (niveau compréhension / usage) ▪ Langages & outils : SQL, notions ETL, environnements Data modernes ▪ Méthodologie : projets BI, travail en équipe agile ou hybride
Offre d'emploi
Développeur Full Stack Java/React/AWS
OBJECTWARE
Publiée le
AWS Cloud
J2EE / Java EE
React
3 ans
10k-60k €
100-600 €
Île-de-France, France
Dans ce cadre la prestation consiste à contribuer à/au(x) : 1. Dev front en React 2. Dev back-end en Java et ponctuellement en Node ou NestJs 3. L'évolution de la chaîne CI/CD (DEVOPS) 4. Mise en oeuvre de bonnes pratiques 5. Mise à jour et suivi du backlog technique 6. La qualité du code / couverture de tests 7. Versionning 8. Support 9. Architecture logicielle du projet Environnement technique : Java, Springboot, React, API REST, PostgreSQL, Docker, Kubernetes, Github, Jenkins, Node, NestJS, Vue, Cypress, Kibana, Grafana, Matomo 2 - Livrables attendus Les livrables attendus sont : 1. Dev front en React 2. Dev des APIs backend Java 3. Opération sur la CI/CD - DEVOPS 4. Documentation technique
Offre d'emploi
Data Engineer Teradata/Python/Hadoop/Unix
OBJECTWARE
Publiée le
Hadoop
Python
Teradata
3 ans
40k-70k €
400-550 €
Île-de-France, France
La tribu « CRM » est en charge du parc applicatif dédié à la mise en œuvre et au suivi de l’ensemble de la relation client-banque et des outils de conformité (fraude, lutte contre le blanchiment et financement du terrorisme). La mission consiste à assurer les fonctions suivantes au sein de la Squad Conformité et Sécurité Financière : • vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel (Teradata) • TPT • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Spark • HDFS • Python • Hadoop
Offre d'emploi
Data Engineer Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2774 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois