Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Votre recherche renvoie 109 résultats.
Mission freelance
Senior Data Engineer – Data Platform Enabler
Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps
12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Offre d'emploi
Ingénieur DevOps Ansible
Etixway
Publiée le
Ansible
Dynatrace
Gitlab
12 mois
50k-55k €
500-550 €
Paris, France
Maintien en condition opérationnelle (MCO / run) les applications legacy et sur les applications Déploiement de la stack de monitoring kube-prometheus-stack (Prometheus Opertaor, Alertmanager) et Grafana Opertaor et mise en place des dashborads en mode GitOps en utilisant le CRD GrafanaDashboard sur un cluster RKE2 • Déploiement de Elasticsearch, Kibana et fluentd et avec l’OLM (Operator Lifecycle Managament) “ClusterLogging“ Déploiement de Dynatrace Opertaor pour le monitoring applicatif et d’infrastructure Automatisation Automatisation des déploiements et de la maintenance des applications legacy via Ansible. Rédaction des rôles Ansible transverses pour la gestion de AWX, Keycloak, S3 et France Transfert Intégration des playbooks dans AWX en mode GitOps et en utilisant le rôle AWX Ordonnancement des playbooks avec Rundeck dans le cadre du remplacement de VTOM Participation aux projets DevSecOps (DSO) Développement des scripts Terraform pour le provisionning le l’infra (intégration, qualification et production) en utilisant des modules existants Installation des clusters RKE2 avec Ansible Déploiement d’Argo CD et du driver CSI-Cinder avec Ansible.
Offre d'emploi
Data Engineer (Paris ou Lyon)
TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)
12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
Offre d'emploi
Ingénieur DevOps
AIS
Publiée le
DevOps
1 mois
45k-48k €
240-480 €
Ciran
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes vos missions seront les suivantes : - Conseiller les parties-prenantes dans l'usage des socles technologiques - Être force de proposition pour améliorer et optimiser les infrastructures en place, en prenant en compte les orientations stratégiques données par la Direction - Assurer le maintien en condition opérationnelle des solutions, ainsi que la veille technologique - Avoir une capacité d'analyse sur de nouveaux sujets - Mettre en place l'observabilité sur les solutions du périmètre - Assurer le support niveau 3 sur les socles technologiques orientés sécurité - Contribuer à la réussite des projets d'Infrastructure sur votre périmètre d'intervention - Participer aux rituels agile Connaissances Technique : - Infrastructure as Code : Terraform / Open Tofu - Une ou plusieurs technologies collaboratif autour de l'écosystème terraform (TACOS) ex : OTF ou projet similaire - Ci/Cd : Githut Action - Gestion de sources : Github - Ansible, AWX, shell - Déploiement de conteneurs sur du kubernetes (Docker) Une connaissance des éléments suivants est un plus : - Gestion des secrets (Open Bao, Vault) - Stockage S3 / PostgreSQL - Pratiques d'intégration des solutions dans une volonté d'avoir un socle technologique bout en bout (Moteur d'execution IAC, Secrets ...)
Mission freelance
Architecte technique Middleware H/F
SCC France SAS
Publiée le
ArchiMate
Architecture
Business Process Model and Notation (BPMN)
2 ans
550-590 €
Paris, France
Pour un de mes clients, je suis à la recherche d'un Architecte technique Middleware. Lieu : Paris Date : Avril Durée : Longue mission (visibilité de plus de 2 ans) TJM : 570-590€/J max Mission : Contexte du besoin Les missions de l'architecte technique auront pour objet de : - Réaliser la conception technique des architectures pour le périmètre des applications Métier qui lui seront confiées (domaine fonctionnel des applications Entreprises, Individus ou Transverse : les trois domaines fonctionnels de la DSI-RC). - Réaliser la conception techniques des architectures pour le périmètre du SI Interne - Contribuer à leur mise en œuvre en produisant le matériel nécessaire (DATs, dossiers d'implémentation, matrices de flux...). Le dernier point est important car il suppose que le candidat devra produire des dossiers LLD (Low level Design) et donc participer à l'implémentation des solutions. Il a un rôle important dans l'intégration des solutions et sait par conséquent accompagner les implémentations. Cette mission est centrée sur des compétences spécifiques d'infrastructure technique, la connaissance des infras Réseaux/Sécu, serveurs, middleware java, environnements conteneurisés...est nécessaire. La mission est à la frontière de problématiques d'infrastructure mais aussi de Production. La connaissance des métiers de la production et des exigences de l'exploitation est attendue fortement. Nous sommes sur un profil d'Architecture Technique Infrastructure et Production avec une dimension Intégrateur technique. Avoir exercé sur des environnements conteneurisés sous la distribution kubernetes de Redhat, à savoir Redhat OpenShit est attendue. Redhat Openshift consitute désormais le socle de nos applications. Le profil devra également être en capacité de contribuer à la rédaction d'appels d'offres pour la sélection de solutions du marché (progiciels, outils techniques...). Les compétences rédactionnelles sont essentielles dans l'exercice de la mission. Toujours dans son rôle Intégrateur. D'autre part, le(a) profil(e) devra faire état d'une forte expérience dans les sujets de modélisation d'architecture technique (sur la base de solutions type Archimate), de rédaction de dossiers d'architecture technique (expérience de plus de 5 ans) et de la capacité à présenter/argumenter ses dossiers dans des instances de type comité d'architecture. Il sera apprécié en complément des nécessaires compétences techniques, de disposer de capacités à s'approprier le fonctionnel des sujets abordés. Au-delà de cette compétence, le candidat pourra participer à toutes missions d'architecture relative à l'activité du pôle qui comprend 8 architectes techniques. Définition des prestations attendues : - Concevoir l’Architecture Technique des Projets (Métiers, Progiciels…) / Domaines Entreprise et SI Interne Identifier les composants applicatifs projets et flux associés, décrire l’infrastructure d’exécution des composants applicatifs (serveurs, flux techniques…), dimensionner en fonction des exigences techniques, porter les exigences de sécurité… - Concevoir l’Architecture Technique des Socles en accompagnement des équipes Socle (exemples : API Management, Oracle, Moteur de règles…) - Accompagner les projets métiers dans le cadre de la rédaction des fiches de sécurité et NFRs Projets. L'architecte technique a un rôle prépondérant dans le domaine de la sécurité, il doit valider les architectures techniques sous l'angle de sécurité, rédiger les matrices de flux... - Accompagner les chefs de projets techniques dans le cadrage des projets et l’organisation de toutes les phases techniques (plans de bascule techniques, accompagnement/support à la mise en exploitation de DRCP et des SFs,…) - Vérifier « régulièrement » que l’architecture déclinée en Production est conforme à l’architecture technique décrite / ajuster Dimensionnement conforme, matrices de flux techniques conformes à la description… Comment ? (outillages, droits, processus…) Notion de responsabilité de la bonne implémentation en PROD des archis techniques - Instruire des dossiers techniques (ex : mise en œuvre protocole S3….) - Support au « Run » (participation aux cellules de crise) Livrables attendus : Dossier de cadrage technique Dossiers de choix techniques (choix de solution) Dossiers d'Exigences Non Fonctionnelles Cahier des charges techniques Différents Dossiers d'Architecture nécessaires dans le contexte des programmes concernés Protocole d'intervention DTI (planning des activités DTI pour le projet) Résultats de revues techniques et procès verbaux Planning projets Environnement serveur /middleware /data : x86, virtualisation VMware, Redhat Linux 8.x, JBOSS EAP 7.4.x / 8.0, PostgreSQL v16, SAG WebMethods 10.5, API Management, Redhat Openshit 4.18... Environnement Java : Java, JEE, SQL, Spring 3.X, Spring-batch, Hibernate 4.X / JPA, Spring-boot Environnement Méthodologique : MDA (Model Driven Architecture), TOGAF, MEGA pour la modélisation Niveau Connaissance : Serveurs x86 Virtualisation VMware ITIL Niveau Pratique : Redhat Linux 7.x / 8.x PostgreSQL 16.x et version supérieures Architectures applicative basées sur J2EE Niveau Maitrise : Architecture conteneurs (Docker, Kubernetes) Architectures Internes basées sur J2EE / dont infrastructures de sécurité Architectures techniques sur infrastructure JEE Maîtrise d'une solution d'API Management du marché Maîtrise des solutions de partage/accès de fichiers et protocole S3 Connaissance des outils de modélisation - format Archimate / BPMN
Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)
Signe +
Publiée le
Dataiku
12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Mission freelance
DBA expérimenté SQL / Mongo DB/ AWS (H/F)
ADSearch
Publiée le
AWS Cloud
Mongodb
SQL
3 mois
Île-de-France, France
Contexte du poste Dans le cadre du renforcement de son équipe technique, notre client recherche un DBA expérimenté capable de gérer, sécuriser et optimiser des bases de données relationnelles (SQL) et NoSQL (MongoDB) dans un environnement cloud AWS à forte volumétrie et criticité. Missions principalesAdministration & exploitation Administrer et maintenir les bases de données SQL (MySQL, PostgreSQL, SQL Server, Oracle…) et MongoDB Assurer la disponibilité , la performance et la fiabilité des bases de données Mettre en œuvre les stratégies de sauvegarde, restauration et PRA Gérer les montées de version, patchs et migrations Performance & optimisation Analyser et optimiser les requêtes SQL et les index Surveiller les performances et anticiper les problèmes de capacité Mettre en place des mécanismes de scalabilité (replication, sharding, clustering) Sécurité & conformité Gérer les droits d’accès, rôles et politiques de sécurité Mettre en œuvre le chiffrement des données (at rest / in transit) Garantir la conformité aux bonnes pratiques (RGPD, sécurité cloud) Cloud & DevOps (AWS) Administrer les services AWS liés aux bases de données : RDS, Aurora, DynamoDB, EC2, S3 Automatiser les déploiements et la supervision (Terraform, CloudFormation, scripts) Collaborer avec les équipes DevOps et applicatives Collaboration & support Accompagner les équipes de développement (conseils schéma, requêtes, bonnes pratiques) Participer aux revues techniques et à l’amélioration continue Rédiger la documentation technique Compétences techniques requisesBases de données Excellente maîtrise d’au moins un SGBD SQL Très bonne connaissance de MongoDB Concepts avancés : réplication, haute disponibilité, partitionnement Cloud & outils Solide expérience sur AWS Supervision : CloudWatch, Prometheus, Grafana (ou équivalents) Scripting : Bash, Python Outils CI/CD et Infrastructure as Code appréciés
Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS
Cogniwave dynamics
Publiée le
Data science
Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Offre d'emploi
Expert Dataviz - F/H
AVANISTA
Publiée le
France
Depuis 2012, nous mettons notre expertise au service des secteurs de l’IT et l’Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d’une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Expert Dataviz au sein de nos équipes pour l’un de nos clients. Dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l’équipe « Data4Ops », au sein du Domaine d’Expertise « Automatisation et Observabilité ». Cette équipe a la charge de structurer les données dites « opérationnelles » du client, à savoir les données utiles à l’ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data (basée sur les principes/concepts Data Mesh) et en relation avec le PO Data4Ops et le PM (Product Manager) Observabilité La transformation des SI de nos Clients vers des architectures modulaires, type micro-services,l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de données devenues très hétérogènes, dispersées et silotées du fait de l’organisation (équipes applicatives et techniques multiples et dispersées). Prenant en compte ce cadre, votre mission sera plus spécifiquement de collecter, manipuler et valoriser de manière automatique les données complexes de notre SI en visualisations claires, interactives et exploitables pour faciliter la prise de décision stratégique et opérationnelle par le biais de développement des Dashboards et modélisation et mise en place de KPI. Contexte technique Outils de visualisation : maîtrise avancée de Power BI, Grafana Langages de programmation : Python ou Java pour le traitement de données, SQL pour les requêtes Environnement technique : bases de données SQL et NoSQL principalement dans un contexte « On Premise » : o Moyens de stockage tels que la suite Elastic, InfluxDB o Suite de type Data Lakehouse (Spark, MinIO, Stockage S3, Iceberg, Trino) o Solution SGBD “Classique”: PostgreSQL Missions Pour réaliser la mission, vous serez amené à contribuer sur : - La conception via le recueil des besoins, la réalisation des spécifications et de la documentation liée - Le développement de visualisations : création de tableaux de bord interactifs, de graphiques dynamiques et de rapports visuels adaptés aux différents besoins métiers - L’analyse et le traitement des données : Définition et développement de KPI, pour cela, si nécessaire, extraction, transformation et analyse de données provenant de sources multiples (bases de données, APIs, etc.), de façon automatique Ceci en collaboration transversale étroite avec les différentes équipes pour comprendre les besoins, définir les spécifications, assurer le suivi, et garantir la cohérence des livrables
Mission freelance
Tech Lead Java/ angular (H/F)
ALLEGIS GROUP
Publiée le
Angular
AWS Cloud
DevOps
6 mois
100-550 €
Neuilly-sur-Seine, Île-de-France
Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) avec une forte culture Cloud/AWS et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Déployer et exploiter les applications sur AWS : Farget, Lambda, S3, CloudFront, RDS/Aurora, API Gateway, VPC. • Automatiser l’infrastructure via IaC (Terraform, CDK), y compris la création, la mise à jour et la maintenance des environnements. • Mettre en place les standards de qualité et de sécurité (tests, scans, bonnes pratiques AWS, IAM, secret management). • Contribuer au monitoring et à l’observabilité (CloudWatch, Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps, AWS et outils d’industrialisation.
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
MGT Conseils
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Résumé du poste L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Offre d'emploi
Consultant(e) DATAIKU DSS
Hexateam
Publiée le
Dataiku
MySQL
Python
Île-de-France, France
Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
Mission freelance
Architecte Data
Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
109 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois