Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 733 résultats.
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Data Scientist Python, Tensorflow Nantes/st
WorldWide People
Publiée le
Python
12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Consultant SAP Data Migration (H/F)
Scalesys
Publiée le
1 mois
55k-75k €
700-1 200 €
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Offre d'emploi
Data Engineer Cloud H/F
FED SAS
Publiée le
55k-65k €
France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Offre d'emploi
Data Scientist Computer Vision
Codezys
Publiée le
Computer vision
Deep Learning
Machine Learning
12 mois
Grand Est, France
Objet : Appel d'offres pour un(e) Data Scientist spécialisé(e) en Computer Vision - Alsace Notre entreprise, leader dans l'accompagnement à l'aménagement intérieur, souhaite renforcer ses capacités en intégrant des solutions basées sur l'intelligence artificielle et la vision par ordinateur. Afin de soutenir notre croissance, nous lançons un appel d'offres pour le recrutement d’un(e) Data Scientist spécialisé(e) en Computer Vision, ayant une expérience minimale de 2 ans. Contexte de la mission : Nous exploitons la donnée et les technologies d’intelligence artificielle pour révolutionner la manière dont nos équipes commerciales identifient les besoins clients, ainsi que la représentation et la configuration en temps réel de scènes d’ameublement. La personne recrutée jouera un rôle clé dans le développement et la déploiement de modèles de vision par ordinateur destinés à analyser des images et en extraire des insights opérationnels pertinents. Localisation : Alsace Vos missions principales : Développement de modèles de Computer Vision : Concevoir et entraîner des modèles capables d’identifier les objets, leurs fonctions et contenus à partir d’images. Support aux équipes commerciales : Accompagner les équipes dans l’exploitation des outils d’analyse visuelle, y compris la classification et l’interprétation des images. Déploiement et maintenance : Implémenter et assurer la maintenance des solutions de traitement d’images en production, en utilisant notamment Google Cloud Platform (GCP) et Vertex AI. Conception de pipelines : Développer des pipelines et des algorithmes permettant la visualisation en temps réel des scènes d’ameublement, facilitant ainsi la prise de décisions commerciales. Collaboration métier : Travailler étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques concrètes, assurer leur déploiement efficace et leur adoption opérationnelle. Veille technologique : Maintenir une expertise à jour en matière de vision par ordinateur afin d’intégrer les dernières innovations dans nos solutions.
Offre d'emploi
Senior IT Production Data Analyst / Incident Manager
OBJECTWARE
Publiée le
ServiceNow
2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy
Almatek
Publiée le
SQL
6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Offre d'emploi
Data Analyste (H-F) à Niort
K-Lagan
Publiée le
Big Data
1 an
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine
Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.
Offre d'emploi
Data Engineer & API Automation (H/F)
Link Consulting
Publiée le
50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Offre d'emploi
Développeur Java/Data confirmé
VISIAN
Publiée le
Java
Mongodb
1 an
40k-45k €
290-410 €
Paris, France
Descriptif du poste Un groupe bancaire la création d'un service de reporting transverse pour sa division Monétique. Ce service est un asset important de la stratégie de la Monétique du groupe et doit permettre de fédérer et centraliser l'ensemble des reporting de type fichier, actuellement produits par différents systèmes et de les mettre à disposition sous différentes formes, via différents canaux. C'est dans ce contexte que les équipes IT recherchent un développeur Java/Data confirmé, qui saura participer au développement et à l'implémentation de ce service de Reporting, qui devra assurer le traitement de gros volumes de données pour générer des reporting de manière fiable et résiliente. La mission consistera à intégrer l'équipe agile en place pour participer à l'implémentation des reportings clients et des services associés avec le tech lead et ses coéquipiers, en collaboration avec les équipes du Socle Data de la monétique, mais aussi celles du portail client. Environnement technologique Évolution dans un environnement technologique récent : Java, API REST, PostgreSQL, ExaCC, Kafka, Cloud (Docker, Kubernetes), GitLab, etc.
Mission freelance
Data Architecte
Deodis
Publiée le
Kubernetes
Linux
Openshift
1 an
600-630 €
Île-de-France, France
Dans le cadre de l’administration et de l’évolution d’une plateforme IA, le Data Architecte intervient sur le maintien en condition opérationnelle (MCO) et l’optimisation continue des infrastructures Kubernetes supportant les workloads data et IA. La mission couvre la conception, le déploiement et l’exploitation de clusters on-premise, cloud ou hybrides, l’automatisation de l’infrastructure via IaC, ainsi que le renforcement de la supervision et de l’observabilité. L’objectif est de garantir la disponibilité, la performance, la sécurité et la résilience des services tout en accompagnant l’intégration de nouveaux modèles et l’optimisation des pipelines de data science.
Mission freelance
Data ingénieur spécialiste DBT / Data Build Tool (H/F)
ALLEGIS GROUP
Publiée le
DBT
12 mois
Yvelines, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur spécialiste DBT / Data Build Tool (H/F) Vos missions : Concevoir et mettre en œuvre des plateformes de données modernes Industrialiser et optimiser des solutions techniques Développer et maintenir des pipelines de données efficaces, du sourcing à la visualisation (ingestion, traitement, exposition) Assurer la qualité et la sécurité des données tout au long de leur cycle de vie Collaborer avec les équipes métier pour comprendre les besoins et fournir des solutions data adaptées Évaluer et recommander des technologies émergentes pour améliorer les capacités de la plateforme data Dans l’environnement technique suivant (cette liste n’est pas exhaustive et surtout, elle indique les technos qui nous intéressent !) :
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1733 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois