L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 508 résultats.
Offre d'emploi
Expert Kubernetes / Anthos Projet Cloud & Edge Computing-ile de France (H/F)
Publiée le
Agile Scrum
Ansible
Cloud
1 an
Île-de-France, France
Contexte du besoin Dans le cadre d’un projet stratégique de mise en place d’un Cloud hybride basé sur Anthos / Kubernetes , nous recherchons une expertise senior afin d’accompagner le déploiement, l’industrialisation et le support de la plateforme sur des infrastructures Edge. Mission L’expert interviendra au sein d’une équipe Cloud en méthodologie Agile, et sera responsable de : La mise en œuvre d’Anthos / Kubernetes sur des infrastructures Edge Computing hybrides (cloud public + infrastructures locales). Le déploiement complet des environnements , du développement jusqu’à la production. La mise en place de l’automatisation via Ansible et Terraform . La rédaction des documentations techniques et la montée en compétences des équipes infrastructure. Le support opérationnel de la solution en production. L’ accompagnement des équipes projets sur les bonnes pratiques Kubernetes / Anthos. Livrables Environnements déployés (dev → prod) Services automatisés et monitorés Documentation technique complète Compétences & Expertise recherchées +5 ans d’expérience confirmée en Kubernetes , Anthos , et environnements Cloud / DevOps . Très bonne maîtrise de Google Anthos . Excellente connaissance de Terraform et Ansible . Bon niveau sur les outils CI/CD ( GitLab CI ). Compétences solides en virtualisation , Linux et scripting . Connaissance des méthodes Agile (Scrum) . Anglais professionnel dans un contexte international.
Mission freelance
Data Automation Engineer Confirmé
Publiée le
CI/CD
Dataiku
DevOps
6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Mission freelance
Ingénieur Data Power BI (H/F)
Publiée le
BI
6 mois
400-500 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍 Lieu : Nantes (44) + déplacements mensuels à La Roche Sur Yon (85) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage Février 2026 - mission de 6 à 9 mois ✏ Freelance, portage salarial ou CDI 🌎Contexte international : Anglais lu et écrit indispensable 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Ingénieur Data Power BI (H/F) afin d'accompagner un de nos clients. Au sein de la DSI du client, tes responsabilités principales sont : Former un binôme avec un chef de projet interne Participer au projet de déploiement de l'ERP SAP Business One au niveau Européen Implémenter le volet Data BI de l'ERP Migrer le legacy DataServices vers Power BI Participer à la mise en place de MS Fabric
Mission freelance
DATA DESIGNER H/F/NB
Publiée le
Agile Scrum
Gouvernance
Modélisation
120 jours
400-500 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Un acteur majeur de l'écosystème français recherche son futur Data Designer pour rejoindre une équipe d'experts passionnés par l'innovation et la transformation digitale. Rejoignez le Shared Service Data Office et devenez l'architecte de demain ! Vous interviendrez comme System Architect au cœur des trains SAFe, collaborant avec des architectes technique et fonctionnel pour façonner l'avenir data de l'organisation. 🎨 Vos Créations : ✨ Architecte de l'impossible - Participez à la construction d'une architecture Datacentric révolutionnaire 🧠 Sculpteur de données - Enrichissez et modélisez le patrimoine informationnel de l'entreprise 🔮 Créateur d'ontologies - Définissez les langages de demain pour structurer la connaissance ⚡ Facilitateur agile - Accompagnez les équipes dans la création de solutions innovantes
Offre d'emploi
Data Engineer
Publiée le
BigQuery
Docker
Domain Driven Design (DDD)
1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
Offre d'emploi
Client Master Data Lead
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Dans le cadre d'un projet de transformation des données piloté par un Data Office central, nous avons développé un Référentiel Client partagé pour garantir la cohérence, l'interopérabilité et la fiabilité des informations clients à travers toutes les entités. Dans un contexte de forte croissance par fusions-acquisitions, chaque ligne métier exploite actuellement ses propres systèmes d'information et bases de données clients. L'étape stratégique suivante consiste à déployer et intégrer ce Référentiel Client à l'échelle de l'organisation, permettant une gestion unifiée des données clients et soutenant les processus et analyses transversaux. Pour y parvenir, nous recherchons un professionnel en Master Data Management qui pilotera la stratégie de déploiement, la coordination et l'intégration du Référentiel Client avec l'ensemble des lignes métiers. Objectifs et livrables Le Client Master Data Lead sera responsable de : Définir et exécuter la stratégie de déploiement du Référentiel Client à travers toutes les entités. Agir en tant que coordinateur central entre l'équipe Data Office, l'IT et les lignes métiers pour assurer une intégration et une adoption réussies. Impulser l'alignement sur les modèles de données clients, les règles de gouvernance des données et les interfaces techniques. Gérer le planning du programme, les priorités et la communication avec les parties prenantes. Mettre en place et maintenir un reporting structuré pour suivre les avancées, identifier les risques et fournir une visibilité claire à la direction Data Office et au Comité Exécutif sur l'évolution de l'initiative. Responsabilités principales # Stratégie et Gouvernance : - Définir la feuille de route de déploiement et l'approche (par phases, incrémentale, par entité ou par domaine métier). - Accompagner la définition du modèle opérationnel cible pour la gestion des données clients (rôles, responsabilités, processus). - Identifier et gérer les risques, dépendances et besoins en gestion du changement. - Concevoir et maintenir un cadre de reporting au niveau programme, incluant KPIs, tableaux de bord et indicateurs d'avancement alignés sur les priorités du Data Office. #Coordination et Gestion de Projet : - Servir de point de contact unique entre l'équipe centrale du référentiel et les équipes IS/métiers locales. - Coordonner les projets d'intégration avec chaque entité : onboarding technique, mapping, migration et synchronisation des données clients. - Suivre les avancées, produire des rapports réguliers et des synthèses exécutives, et assurer la qualité de livraison et le respect des délais. - Animer les comités de pilotage et groupes de travail, en consolidant les mises à jour d'avancement et les prochaines étapes. - Garantir la traçabilité des décisions, actions et avancées à travers l'ensemble des flux de projet. # Expertise Technique et Fonctionnelle : - Contribuer à la définition des modèles de données, règles de matching & déduplication, et mécanismes d'intégration (APIs, ETL, etc.). - Accompagner les équipes techniques dans la mise en œuvre des interfaces et flux de données entre les systèmes locaux et le Référentiel Client. - Contribuer à la définition et au suivi des règles de mapping des données, Nettoyage des Données et Migration. # Gestion du Changement et Adoption : - Promouvoir la valeur et les bénéfices du Référentiel Client au sein de l'organisation. - Accompagner les équipes métiers dans l'adaptation de leurs processus et outils pour consommer et maintenir les données maîtres clients. - Contribuer à la conception de supports de formation, communication et reporting adaptés aux différents publics (exécutif, métiers, technique).
Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)
Publiée le
Agile Scrum
Apache
Apache Kafka
1 an
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Mission freelance
Senior Business Analyst & Chef de Projet Data – RSE / Bilan Carbone
Publiée le
Responsabilité Sociétale des Entreprises (RSE)
6 mois
460-650 €
Île-de-France, France
Télétravail partiel
Au sein de la DSI Workplace d'un grand groupe, nous recherchons un profil senior pour renforcer l'équipe dédiée à la RSE (Responsabilité Sociétale des Entreprises). Vous intégrerez une équipe à taille humaine (environ 12 personnes) gérant en moyenne 5 projets structurants par an. Il s'agit d'une mission longue durée (1 an renouvelable) nécessitant une forte autonomie et une capacité à prendre des responsabilités immédiates. VOS MISSIONS À la croisée des chemins entre les équipes métiers et les équipes techniques (Data Engineers), vous assurerez le rôle de Business Analyst et Chef de Projet. Analyse et Cadrage : Recueillir les besoins auprès des interlocuteurs Business RSE et comprendre les enjeux liés aux données du bilan carbone. Investigation de Données (Hands-on) : Explorer les bases de données en autonomie via des requêtes SQL complexes et utiliser Excel pour prototyper ou valider la qualité des données avant industrialisation. Spécification et Pilotage : Formaliser les règles de gestion et les traitements de données attendus. Dialoguer directement avec les Data Ingénieurs pour leur fournir des spécifications claires et tester leurs livrables. Pilotage de Projet : Suivre l’avancement, garantir les délais et la qualité des livrables.
Offre d'emploi
Data Analyst Confirmé – Power BI & SSIS (On-Premise) - Toulouse (H/F)
Publiée le
Microsoft Power BI
Microsoft SSIS
45k-50k €
Toulouse, Occitanie
Mission à réaliser Le consultant rejoindra le service ODS (Outillage Data Support) et interviendra sur l’ensemble de la chaîne BI , du recueil du besoin à la livraison et au support des dashboards Power BI. 1. Recueil & analyse des besoins Comprendre, analyser et formaliser les besoins des équipes support Identifier les sources de données (ITSM, ServiceNow) 2. Intégration & modélisation des données Intégrer et transformer les données dans l’entrepôt de données Concevoir des modèles de données et des bases agrégées Industrialiser les flux de données via SSIS 3. Développement des dashboards Concevoir et développer des rapports Power BI Produire des dashboards (cycle de vie des incidents, flux inter-équipes, KPI ITSM/ServiceNow) Livrer, documenter et administrer les rapports 4. Support & amélioration continue Assurer le support utilisateurs Former les équipes à l’utilisation des dashboards Suivre les tickets et évolutions dans Jira Contribuer à l’amélioration continue des process et de la qualité des données Environnement technique Power BI (On-premise) SQL / PL-SQL SSIS (Expert) ITSM / ServiceNow Entrepôt de données interne Jira Environnement 100% On-premise
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Mission freelance
Consultant Master Data SAP (Manufacturing & Reporting) – Migration ECC → S/4HANA
Publiée le
CDS Views
Microsoft Power BI
SAP S/4HANA
6 mois
Île-de-France, France
Télétravail partiel
Besoin très urgent – Consultant Master Data SAP (Manufacturing & Reporting) – Migration ECC → S/4HANA Informations générales : • Localisation : 2x3jours/mois à Bourges et le reste en IDF • Démarrage : ASAP • Nationalité : FR obligatoire • Durée : 6 mois renouvelable • Rythme : 3 jours sur site / 2 jours télétravail Contexte de la mission : Dans le cadre du projet de migration du SI SAP, le client recherche un consultant Master Data SAP pour accompagner la transition des données dans l’écosystème ECC → S/4HANA. La mission inclut la préparation, le nettoyage, la transformation et la migration des données, avec un usage intensif des outils LSMW, Mass Update et solutions de Data Cleansing. Le consultant interviendra en étroite collaboration avec les SMEs pour fiabiliser l’ensemble des Master Data Manufacturing et assurer la qualité des données migrées.
Offre d'emploi
DATA ENGINEER
Publiée le
24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Offre d'emploi
Architecte Cloud et Data H/F
Publiée le
75k-90k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : mw69pzfxh8
Offre d'emploi
Architecte Technique Data
Publiée le
Apache Spark
Architecture
Big Data
2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- Facturation électronique 01 : Rappel du calendrier !
- Calcul de l'indemnité de la rupture conventionnelle
2508 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois