L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 381 résultats.
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Offre d'emploi
Développer Back end Kotlin Confirmé (4/6 ans d'experiences)
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Java
Kotlin
1 an
10k-57k €
100-500 €
Saint-Denis, Île-de-France
Rejoins un acteur majeur du numérique qui transforme la mobilité de demain Ici, on ne fait pas que développer du code — on conçoit des solutions digitales à fort impact, utilisées à grande échelle, pour simplifier les déplacements et améliorer l’expérience de millions d’utilisateurs. Le défi : faire parler la mobilité avec intelligence. Tu travailleras sur un chatbot conversationnel nouvelle génération qui accompagne les utilisateurs au quotidien : Informations temps réel (statuts, horaires, parcours…) Détails de voyage (quai, placement, desserte…) Services proposés Gestion des modifications et annulations Accessible via web et messageries instantanées, ce produit est un pilier de l’expérience utilisateur. Une stack technique moderne et ambitieuse Chatbot Open Source : framework conversationnel en Kotlin (TOCK) NLP & IA : services de machine learning managés Cloud & Data : AWS (S3, Sagemaker), MongoDB Infra : Kubernetes Front : React Tools : GitHub, GitLab CI, Sonar, Datadog Collaboration : Confluence, Jira, Teams, Miro Ton rôle : builder, améliorer, fiabiliser Intégré·e à une équipe agile, tu interviens sur tout le cycle de vie produit : Développement de nouvelles fonctionnalités (Kotlin) Mise en place de tests (unitaires, intégration, end-to-end) Code review & amélioration continue Monitoring, performance & stabilité en production Analyse d’anomalies & troubleshooting Conception technique & documentation Participation aux rituels agiles (daily, sprint, rétro…) Contribution à la qualité, sécurité et résilience
Offre d'emploi
Ingénieur Cloud (AWS)
MSI Experts
Publiée le
Argo CD
AWS Cloud
Gitlab
3 mois
France
Dans un environnement cloud critique, nous renforçons nos équipes pour accompagner la mise en place d’une stratégie de continuité d’activité robuste. L’objectif : garantir la disponibilité des services même en cas d’incident majeur, grâce à une solution de reprise d’activité de type Warm Pilot . Vous interviendrez au cœur d’une plateforme exigeante, où la fiabilité, la sécurité et l’automatisation sont essentielles. Vos missions Au sein d’une équipe technique transverse, vous serez impliqué(e) de bout en bout dans la conception et le déploiement des solutions de reprise d’activité : Analyser et faire évoluer l’architecture de reprise d’activité existante pour des applications critiques Définir et optimiser les mécanismes de bascule (failover), de retour à la normale (failback) et de réplication des données Concevoir des solutions techniques fiables, évolutives et adaptées aux enjeux de continuité d’activité Mettre en œuvre les infrastructures via des pratiques d’automatisation (Infrastructure as Code, GitOps) Collaborer étroitement avec les équipes infrastructure, sécurité et développement pour assurer la cohérence globale des solutions Formaliser les procédures de reprise, les scénarios de test et les processus de validation Identifier les risques techniques, les dépendances critiques et les points de fragilité du système
Offre d'emploi
Consultant Data Engineer Informatica
VISIAN
Publiée le
AWS Cloud
Informatica
1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Offre d'emploi
Développeurs Full Stack Angular / NestJS (H/F)
QODEXIA
Publiée le
Angular
AWS Cloud
Azure
10 jours
Île-de-France, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé.
Offre d'emploi
Data Engineer Expert SQL – Airflow / dbt / Cloud (H/F) – Paris
Craftman data
Publiée le
Apache Airflow
AWS Cloud
Azure
3 mois
40k-55k €
400-660 €
Paris, France
Dans le cadre du renforcement de son équipe Data, notre client grand compte recherche un Data Engineer confirmé / expert SQL capable d’intervenir sur des sujets à forte valeur ajoutée. Le consultant ne sera pas uniquement orienté technique : il devra également être capable de comprendre les enjeux métiers , challenger les besoins, et travailler en proximité avec le Product Owner afin de construire des pipelines fiables, industrialisés et alignés avec les objectifs business. Le consultant attendu devra être un acteur moteur , force de proposition et contributeur actif à l’amélioration continue des pratiques Data.
Mission freelance
Architecte Logiciel Full Stack – AWS Serverless / Lead Technique
Syneam
Publiée le
Gateway
React
6 mois
Hauts-de-Seine, France
Dans le cadre d'une mission au sein d'un acteur majeur de la banque en ligne, nous recherchons un(e) Architecte Logiciel Full Stack pour piloter techniquement une taskforce de développement. Le périmètre couvre la conception, l'implémentation et la livraison de solutions cloud-native robustes, scalables et sécurisées, en lien direct avec les objectifs produit et métier. Descriptif de la mission Concevoir et implémenter des architectures serverless sur AWS (Lambda, API Gateway) Développer et piloter les composantes backend et frontend (React) Appliquer et faire appliquer les design patterns et bonnes pratiques de développement Participer activement au code, aux revues techniques et au maintien de la qualité Traduire les besoins produit en solutions techniques simples, performantes et sécurisées Animer les rituels d'équipe, fixer des objectifs intermédiaires mesurables Assurer une visibilité claire sur la roadmap, les jalons, risques et dépendances Prioriser, arbitrer et aligner les décisions techniques avec les enjeux métier Embarquer et aligner les parties prenantes pour accélérer la livraison
Offre d'emploi
OPS sénior - Cloud AWS / DevOps
VISIAN
Publiée le
AWS Cloud
Red Hat
1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
Mission freelance
Développeur Senior - Expert Intégration Salesforce
CAT-AMANIA
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Microsoft SQL Server
6 mois
400-510 €
Île-de-France, France
Nous recherchons un consultant senior spécialisé en intégration de données pour accompagner un acteur majeur de la protection sociale dans la refonte de ses flux inter-applicatifs. L'objectif principal est la conception et le déploiement d'une trentaine de flux ETL SSIS permettant d'alimenter Salesforce FSC à partir de sources hétérogènes. Responsabilités : Conception et développement de flux SSIS (dont 5 flux complexes). Extraction de données depuis des fichiers CSV stockés sur des buckets AWS S3. Transformation des données vers un format pivot cible. Injection des données dans Salesforce FSC via le connecteur KingswaySoft. Réalisation des tests unitaires et d'intégration. Rédaction de la documentation technique et des dossiers de mise en production. Profil recherché : Expertise confirmée sur la suite SQL Server Integration Services (SSIS). Expérience impérative sur le connecteur KingswaySoft pour Salesforce. Maîtrise des environnements Cloud (AWS S3). Capacité à travailler de manière autonome sur des problématiques de mapping complexes. Rigueur dans la documentation et le respect des référentiels de développeme
Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT
OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT
3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Offre d'emploi
Ingénieur production cloud
REACTIS
Publiée le
AWS Cloud
Cloud
DevOps
6 mois
30k-40k €
300-420 €
Suresnes, Île-de-France
Rôle Un Operations Cloud Expert est responsable de la stabilité, de la fiabilité et de la performance des systèmes en production, tout en s’appuyant sur des pratiques DevOps pour automatiser, industrialiser et améliorer l’efficacité opérationnelle. Environnement technique Cloud : Google Cloud Platform (GCP), Amazon Web Services (AWS) Scripting : Shell, Python Outils : Git, GitLab CI, Ansible, Terraform Conteneurs & orchestration : Docker, Kubernetes Plateformes & streaming : App Engine, Kafka Bases de données : SQL (PostgreSQL), NoSQL (Elasticsearch, Couchbase) Monitoring & observabilité : Grafana, Stackdriver, Mesos, PagerDuty, Prometheus, Datadog Réseau : VPN, routage IP, NAT, proxy Méthodologie : Agile Responsabilités principales Superviser et maintenir la disponibilité des systèmes et infrastructures de production Gérer les incidents, le troubleshooting et les analyses de causes racines Garantir la disponibilité, la performance et la fiabilité selon les objectifs SLA/SLO Automatiser les tâches opérationnelles via du scripting et de l’Infrastructure as Code (IaC) Gérer et améliorer les pipelines CI/CD (GitLab CI) Déployer et supporter des applications dans des environnements cloud (AWS / GCP) Réaliser des mises à jour d’infrastructure via des outils IaC comme Terraform Travailler avec des environnements conteneurisés (Docker, Kubernetes) Collaborer avec les équipes de développement pour améliorer la déployabilité et l’exploitabilité Appliquer les bonnes pratiques de sécurité, de sauvegarde et de reprise après sinistre Compétences requises Solide expérience en exploitation de systèmes de production Expérience confirmée en monitoring et gestion des incidents Compétences en scripting (Bash, Python) Expérience sur des plateformes cloud (GCP ou AWS) Bonne maîtrise des pratiques CI/CD et d’automatisation Expérience avec les systèmes de gestion de versions (Git / GitFlow) Bonne connaissance des architectures conteneurisées et microservices (Kubernetes) Connaissance des bases de données SQL (PostgreSQL) et NoSQL (Elasticsearch, Couchbase) Compréhension des concepts réseau (VPN, routage IP, NAT, load balancing, proxy) Expérience dans un environnement Agile / SAFe Anglais technique courant (lu, écrit, parlé)
Mission freelance
Expert Cloud Security & CSPM (Azure / AWS / IAM / DevOps)
Comet
Publiée le
AWS Cloud
Azure
Azure DevOps
140 jours
460-670 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous, notamment aux Experts Cloud Security & CSPM ☁️💛 (Azure / AWS / IAM / DevOps) 🔎 Je cherche un Cloud Security CSPM Expert senior pour rejoindre un programme stratégique de transformation IT et remédiation sécurité. Dans le cadre de ce carve-out IT complexe, l’objectif est de mettre sous contrôle la sécurité des environnements cloud publics multi-cloud, tout en pilotant les remédiations issues d’un audit cybersécurité et en renforçant la posture de sécurité globale. 💻 Ce que tu vas faire : Exploiter et optimiser les outils CSPM (Qualys TotalCloud, Wiz) Analyser les vulnérabilités et mauvaises configurations Cloud Piloter les remédiations avec les équipes Cloud, Infra et DevOps Structurer et améliorer les pratiques de sécurité Cloud (CSPM) Contribuer à l’industrialisation des pratiques de sécurité et à la gouvernance Cloud Prioriser et coordonner les actions critiques en environnement multi-cloud Reporter régulièrement sur les risques, remédiations et niveaux de conformité 🎯 Stack & environnement 💛 : Azure / AWS / OCI (bonus) / Qualys TotalCloud / Wiz / IAM / Sécurité Cloud / Terraform / DevOps / environnements legacy multi-cloud ⚠️ Profil recherché : Senior (expertise 10+ ans) Très hands-on (sécurité opérationnelle, remédiation, coordination) Expérience CSPM et remédiation post-audit cybersécurité Habitué aux environnements complexes multi-cloud et legacy Capacité à travailler en transverse et à gérer la pression des audits 📍 Mission : Lyon OU Paris – 7 mois potentiellement renouvelable 💰 Budget : Jusqu'aux alentours de 650 📅 Démarrage : ASAP Merci de me transmettre vos CVs en MP !
Offre d'emploi
senior staff engineer - Plateforme - Marseille - H/F
EASY PARTNER
Publiée le
AWS Cloud
PostgreSQL
Python
80k-100k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Ownership & responsabilité technique Prendre en charge un ou plusieurs périmètres techniques critiques (services / repos / produits) Assurer un ownership end-to-end : conception développement mise en production maintenance amélioration continue Être responsable de la qualité, robustesse et pérennité des systèmes Architecture & conception Concevoir des architectures logicielles robustes, scalables et maintenables Faire des choix structurants sur : découpage applicatif design d’API gestion des données Anticiper les besoins futurs (scalabilité, évolutivité) Refactorer et améliorer des systèmes existants (legacy inclus) Systèmes & workflows complexes Comprendre et faire évoluer des systèmes interconnectés : LMS CRM outils internes de production services tiers / APIs Fiabiliser des workflows complexes multi-services Gérer les dépendances et interactions entre différents systèmes Intégration & APIs Intégrer de nouvelles APIs externes (partenaires, financeurs, services tiers) Concevoir et maintenir des APIs internes robustes Gérer les problématiques : authentification gestion des erreurs résilience Production & fiabilité Travailler sur des systèmes déjà en production (pas de greenfield) Identifier et résoudre des problématiques : performance scalabilité fiabilité Participer à la gestion d’incidents techniques Améliorer l’observabilité et la qualité globale des systèmes Référent technique Être référent technique au sein de l’équipe Accompagner les autres développeurs sur : architecture bonnes pratiques design technique Collaborer avec le CTO sur les décisions structurantes Innovation & amélioration continue Participer à l’intégration de solutions basées sur l’IA Proposer des améliorations techniques continues Contribuer à la montée en maturité technique de la stack Stack technique Python (Django) React SQL Git
Offre d'emploi
DATA OPS DATAIKU DSS
R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD
6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
Mission freelance
Ingénieur AWS / DBA – Migration & Exploitation (H/F)
Amontech
Publiée le
AWS Cloud
Oracle
SQL
6 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement de ses équipes IT, une structure reconnue dans le secteur de l'aéronautique recherche 2 Ingénieurs Cloud AWS orientés DBA pour intervenir sur des projets à forte valeur ajoutée autour de la migration et de l’exploitation des environnements. Le poste s’inscrit dans une logique de collaboration long terme avec perspective d’intégration client . Missions : Participation à des projets de migration vers des environnements Cloud AWS Contribution aux activités de RUN / MCO / exploitation Suivi et optimisation des performances des environnements Support technique et résolution d’incidents Collaboration avec les équipes projet et infrastructure Environnement technique : AWS Bases de données (Oracle ou SQL Server) Environnements de production et d’exploitation
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1381 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois