Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris

Votre recherche renvoie 32 résultats.
Freelance
CDI

Offre d'emploi
FinOps Cloud / Profil habilitable

ematiss
Publiée le
Cloud
FinOps

3 mois
Paris, France
CONTEXTE : Au sein de la Direction de la Transformation Numérique du client et sous la responsabilité du Chef du Bureau de l’Architecture et de la Cohérence des Infrastructures à la sous direction des architectures sécurisées, l’expert(e) technique en processus financiers du Cloud ou FinOps agit comme un levier de pilotage économique du Cloud grâce à sa maîtrise des outils de billing, garantissant la soutenabilité des dépenses pour la direction, la transparence des coûts et l’efficience de l’usage des ressources pour les entités clientes. ACTIVITES PRINCIPALES : Développer et maintenir des modèles de coûts du Cloud : Grâce à sa maîtrise des environnements Cloud et à sa compréhension fine des différentes offres (IaaS OpenStack, S3, GPU, OpenShift…), le FinOps identifie précisément les inducteurs de coûts (vCPU, RAM, Stockage Bloc et Objet etc.) et les traduit dans des modèles de facturation capables de s’adapter aux évolutions du catalogue de service. Il fait évoluer les normes de gestion budgétaires et les mécanismes de refacturation internes permettant de valoriser la consommation des ressources tout en s’assurant de leur alignement et de leur conformité avec les recommandations tarifaires. Réaliser des tableaux de bord et produire des reporting L’expérience requise avec les outils de collecte, d’automatisation et d’analyse de données (API, scripts, data lakes, Grist, Python, SQL etc.) doit permettre au FinOps d’agréger facilement l’ensemble des consommations en ressources des clients puis de les segmenter en fonction du projet ou de la ressource pour obtenir une allocation précise des coûts et des tableaux de bord et reporting ad hoc. Ces travaux enrichiront ceux de l’équipe chargée de mettre à disposition des clients des métriques de consommation dans la Console d’administration. Optimiser le capacity planning avec l’IA Le Finops consolide et fiabilise les outils existants de capacity planning en mettant en place des modèles prédictifs basés sur l’IA permettant d’anticiper les patterns d’usage des clients et donc les dépenses à engager. En outre, il anticipe les pics de charge et optimise les prévisions budgétaires. Diffuser les bonnes pratiques FinOps à l’échelle de la sous-direction Il travaille en étroite collaboration avec les différentes équipes en apportant une assistance concrète dans la définition et la mise en œuvre des actions de modernisation de la fonction financière. Il est force de proposition pour intégrer les contraintes financières dans les choix techniques et opérationnels des différents acteurs concernés. Il participe à une maîtrise des coûts conformes aux prévisions budgétaires et peut le cas échéant contribuer aux négociations avec les fournisseurs. CONTRAINTES 1-A minima une expérience précédente en tant que FinOps, de préférence dans un environnement Cloud. 2- Doit posséder des bases OpenStack. Durée : 3 mois renouvelables
Freelance
CDI

Offre d'emploi
Lead Developer Java - Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Lead Developer Java pour piloter techniquement des équipes de développement travaillant sur des applications cloud natives hébergées sur AWS. Vous serez responsable de la conception des architectures logicielles, de la définition des standards de développement et de la garantie de la qualité technique des livrables. Vous interviendrez sur des environnements basés sur Spring Boot, microservices et APIs REST, en intégrant les services AWS (ECS/EKS, Lambda, RDS, S3, SQS/SNS, EventBridge). Vous accompagnerez les équipes DevOps et SRE pour assurer une intégration fluide dans les pipelines CI/CD, une observabilité avancée et une exploitation fiable en production. Vous animerez des revues de code, challengez les choix techniques et structurerez les bonnes pratiques (DDD, Clean Architecture, tests automatisés, résilience, performance). En tant que référent technique, vous serez également impliqué dans la gestion des incidents majeurs, l’amélioration continue des applications et la montée en compétence des développeurs plus juniors. Votre rôle combinera leadership technique, vision stratégique et excellence opérationnelle.
Freelance
CDI

Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence.
Freelance

Mission freelance
Palantir Foundry (Obligatoire) : Lead Data Palantir Foundry F/H

WINSIDE Technology
Publiée le
BI
MySQL

3 ans
600-770 €
Paris, France
Projet : Migration de databricks vers la plateforme palantir foundry ❑ Concevoir l’architecture de la data platform Foundry : structuration en objets, types, dossiers, datasets. ❑ Définir une modélisation de données sémantique à travers l’Ontology (types d’objets, relations, propriétés). ❑ Mettre en place des structures scalables et gouvernées (Data Mesh, Domaindriven Design Foundry). ❑ Superviser la conception des pipelines Code Workbook, Code Repositories ou Contour : ❑ Pipelines batch, temps réel, ou déclenchés par événements. ❑ Choix entre Spark (Java/PySpark), SQL Transformation, Python Transforms ou Object Workflows. ❑ Définir les stratégies d’orchestration (scheduling, triggers, lineage, rerun policy). ❑ Optimiser les performances (partitioning, caching, broadcast hints…). ❑ Structurer et maintenir une Ontology claire et normalisée : ❑ Définition des Object Types, Properties, Actions, Relationships, Permissions. ❑ Aligner les objets métiers avec les équipes Produit / Métier. ❑ Superviser les politiques de sécurité et accès RBAC dans l’Ontology et dans l’espace organisationnel (Spaces). ❑ Assurer la traçabilité (lineage) et le versionnement des objets. ❑ Mettre en place une stratégie de tests de pipelines (tests unitaires via pytest dans code repos, assertions dans transformations). ❑ Automatiser la documentation des pipelines et objets via Workbooks ou descriptions intégrées. ❑ Superviser la data lineage dans le UI (Foundry Data Lineage Tool). ❑ Suivre la performance des jobs via Monitoring & Metrics Foundry. ❑ Intégrer Foundry avec des systèmes externes : ❑ Systèmes sources : S3, Azure Blob, SAP, Kafka, API, DB (Snowflake, Oracle…) ❑ Utiliser des outils comme OSDK, Edge Synapse, HyperAuto, Fusion selon les cas d’usage. ❑ Définir les contrats de données inter-domaines (ex: use_external_systems, object exports). ❑ Encadrer les développeurs Foundry : validation de PR, revue de pipelines, support technique. ❑ Travailler en lien étroit avec les équipes métiers pour transformer des besoins business en objets Foundry exploitables. ❑ Participer à la formation interne sur l’outil et aux ateliers d’adoption Foundry. ❑ Être garant de la cohérence cross-domain, de la scalabilité, et de la fiabilité. ❑ Implémenter le déploiement automatisé via , foundry-cli, foundry-devtools. ❑ Mettre en place une convention de nommage, des templates de pipelines, et un catalogue de composants réutilisables. ❑ Versionner les artefacts et objects (types, views, code, pipelines) avec Git. ❑ Piloter des cas d’usage complexes : fusion de données géospatiales, IoT, ML/AI, événements en streaming. ❑ Utiliser des features avancées : Object Explorer, Map app, Code Assist, Function Mapping ❑ Expérimenter des intégrations avec les produits Foundry internes ❑ Optimiser le temps de développement en mettant en place l’utilisation de notebook ❑ L’utilisation de No code/Low code pour gagner en terme de temps de développement avec pipeline builder ❑ Mise en place de Lightweight transforms pour réduire et diminuer le temps de traitement pour les grosses volumetrie de traitement (Polars)
Freelance

Mission freelance
Administrateur Système Stockage (N2)

Signe +
Publiée le
NetApp

12 mois
420 €
Paris, France
Dans le cadre du renforcement de l’équipe infrastructure, nous recherchons un Administrateur Système orienté stockage, intervenant en tant que référent N2. Le poste est majoritairement axé RUN, avec une forte implication dans la gestion opérationnelle des environnements de stockage. Missions principales Assurer le support N2 sur les infrastructures de stockage Gérer les incidents et les demandes (analyse, diagnostic, résolution, suivi) Escalader vers les équipes N3 si nécessaire et assurer l’interface technique Participer à la capitalisation des connaissances (documentation, procédures, bonnes pratiques) Contribuer aux projets d’évolution et d’amélioration des plateformes Garantir la disponibilité, la performance et la fiabilité des environnements de stockage Environnement technique ISILON NetApp SCALITY S3 (en option / apprécié) Profil recherché Expérience confirmée en administration de solutions de stockage Capacité à intervenir en tant que référent N2 Bonne compréhension des environnements d’infrastructure (systèmes, réseaux, sauvegarde) À l’aise dans un contexte RUN avec gestion d’incidents récurrents Capacité à documenter, formaliser et capitaliser les retours d’expérience Bon relationnel pour interagir avec les équipes N3 et les équipes projets
Freelance

Mission freelance
Développeur Full Stack orienté Frontend (React / Data Applications)

█ █ █ █ █ █ █
Publiée le
DevOps
Docker
Javascript

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DevOps Engineer Senior

Aneo
Publiée le
AWS Cloud
Kubernetes
Python

7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
CDI
Freelance

Offre d'emploi
DevOps / Backend Engineer AWS (Node.js / Python) (H/F)

CITECH
Publiée le
AWS Cloud
Node.js
Nosql

6 mois
55k-60k €
450-540 €
75000, Paris, Île-de-France
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) DevOps / Backend Engineer AWS (H/F). 🚀 🏨 Notre client est un groupe international reconnu dans le secteur de l’hôtellerie et des services digitaux. Dans le cadre de l’évolution de ses plateformes de relation client et de fidélité, il renforce ses équipes techniques pour concevoir et développer des solutions innovantes pour ses centres de contact. 🚀 Votre mission Au sein d’une équipe produit composée de développeurs backend, DevOps et experts cloud, vous interviendrez sur : Le développement de services backend en Node.js et/ou Python La conception et l’évolution d’API et micro-services L’intégration de solutions omnicanales pour les centres de contact Le déploiement et l’industrialisation sur AWS La gestion et l’optimisation de bases de données SQL et NoSQL La participation à l’amélioration continue et à la fiabilité des services La collaboration avec les équipes produit et opérations Qualifications 🛠️ Environnement technique Node.js et/ou Python AWS (Lambda, API Gateway, S3, etc.) Bases de données SQL et NoSQL 👉 Une expérience cloud AWS est indispensable. Apprécié : Amazon Connect CI/CD et automatisation Architecture micro-services
Freelance

Mission freelance
Référent Systèmes & Technologies de Stockage

Signe +
Publiée le
NetApp

6 mois
400-420 €
Paris, France
Assurer le rôle de référent technique sur les infrastructures de stockage, garantir leur disponibilité, leur performance et accompagner les projets d’évolution des plateformes. Missions principales Assurer le rôle d’expert technique sur les solutions de stockage de l’entreprise Administrer et maintenir les environnements de stockage (déploiement, configuration, mises à jour, capacity planning) Participer à la conception et à l’architecture des nouvelles infrastructures de stockage Gérer les incidents complexes et assurer le support niveau 3 Rédiger les standards techniques, procédures d’exploitation et bonnes pratiques Accompagner les équipes projets dans l’intégration des solutions de stockage Assurer la veille technologique sur les solutions de stockage et les architectures associées Compétences techniques requises Expertise sur les technologies de stockage enterprise Maîtrise des solutions : Dell EMC Isilon (PowerScale) NetApp Scality Bonne connaissance des environnements systèmes (Linux / Unix / Windows) Connaissances réseaux liées au stockage (SAN, NAS, protocoles NFS, CIFS, iSCSI, FC) Expérience sur les architectures haute disponibilité et PRA/PCA Connaissance des environnements objet type S3 (fort atout) Profil recherché Expérience confirmée en administration et architecture stockage Capacité à intervenir en expertise et à piloter des sujets techniques transverses Autonomie, capacité d’analyse et de résolution de problèmes complexes Bon relationnel pour coordination avec équipes infra, projets et sécurité
Freelance

Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02

Almatek
Publiée le
API

6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
Freelance

Mission freelance
Senior Data Engineer – Data Platform Enabler

Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps

12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Freelance
CDI

Offre d'emploi
Ingénieur DevOps Ansible

Etixway
Publiée le
Ansible
Dynatrace
Gitlab

12 mois
50k-55k €
500-550 €
Paris, France
Maintien en condition opérationnelle (MCO / run) les applications legacy et sur les applications Déploiement de la stack de monitoring kube-prometheus-stack (Prometheus Opertaor, Alertmanager) et Grafana Opertaor et mise en place des dashborads en mode GitOps en utilisant le CRD GrafanaDashboard sur un cluster RKE2 • Déploiement de Elasticsearch, Kibana et fluentd et avec l’OLM (Operator Lifecycle Managament) “ClusterLogging“ Déploiement de Dynatrace Opertaor pour le monitoring applicatif et d’infrastructure Automatisation Automatisation des déploiements et de la maintenance des applications legacy via Ansible. Rédaction des rôles Ansible transverses pour la gestion de AWX, Keycloak, S3 et France Transfert Intégration des playbooks dans AWX en mode GitOps et en utilisant le rôle AWX Ordonnancement des playbooks avec Rundeck dans le cadre du remplacement de VTOM Participation aux projets DevSecOps (DSO) Développement des scripts Terraform pour le provisionning le l’infra (intégration, qualification et production) en utilisant des modules existants Installation des clusters RKE2 avec Ansible Déploiement d’Argo CD et du driver CSI-Cinder avec Ansible.
Freelance
CDI

Offre d'emploi
Data Engineer (Paris ou Lyon)

TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)

12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
Freelance

Mission freelance
Architecte technique Middleware H/F

SCC France SAS
Publiée le
ArchiMate
Architecture
Business Process Model and Notation (BPMN)

2 ans
550-590 €
Paris, France
Pour un de mes clients, je suis à la recherche d'un Architecte technique Middleware. Lieu : Paris Date : Avril Durée : Longue mission (visibilité de plus de 2 ans) TJM : 570-590€/J max Mission : Contexte du besoin Les missions de l'architecte technique auront pour objet de : - Réaliser la conception technique des architectures pour le périmètre des applications Métier qui lui seront confiées (domaine fonctionnel des applications Entreprises, Individus ou Transverse : les trois domaines fonctionnels de la DSI-RC). - Réaliser la conception techniques des architectures pour le périmètre du SI Interne - Contribuer à leur mise en œuvre en produisant le matériel nécessaire (DATs, dossiers d'implémentation, matrices de flux...). Le dernier point est important car il suppose que le candidat devra produire des dossiers LLD (Low level Design) et donc participer à l'implémentation des solutions. Il a un rôle important dans l'intégration des solutions et sait par conséquent accompagner les implémentations. Cette mission est centrée sur des compétences spécifiques d'infrastructure technique, la connaissance des infras Réseaux/Sécu, serveurs, middleware java, environnements conteneurisés...est nécessaire. La mission est à la frontière de problématiques d'infrastructure mais aussi de Production. La connaissance des métiers de la production et des exigences de l'exploitation est attendue fortement. Nous sommes sur un profil d'Architecture Technique Infrastructure et Production avec une dimension Intégrateur technique. Avoir exercé sur des environnements conteneurisés sous la distribution kubernetes de Redhat, à savoir Redhat OpenShit est attendue. Redhat Openshift consitute désormais le socle de nos applications. Le profil devra également être en capacité de contribuer à la rédaction d'appels d'offres pour la sélection de solutions du marché (progiciels, outils techniques...). Les compétences rédactionnelles sont essentielles dans l'exercice de la mission. Toujours dans son rôle Intégrateur. D'autre part, le(a) profil(e) devra faire état d'une forte expérience dans les sujets de modélisation d'architecture technique (sur la base de solutions type Archimate), de rédaction de dossiers d'architecture technique (expérience de plus de 5 ans) et de la capacité à présenter/argumenter ses dossiers dans des instances de type comité d'architecture. Il sera apprécié en complément des nécessaires compétences techniques, de disposer de capacités à s'approprier le fonctionnel des sujets abordés. Au-delà de cette compétence, le candidat pourra participer à toutes missions d'architecture relative à l'activité du pôle qui comprend 8 architectes techniques. Définition des prestations attendues : - Concevoir l’Architecture Technique des Projets (Métiers, Progiciels…) / Domaines Entreprise et SI Interne Identifier les composants applicatifs projets et flux associés, décrire l’infrastructure d’exécution des composants applicatifs (serveurs, flux techniques…), dimensionner en fonction des exigences techniques, porter les exigences de sécurité… - Concevoir l’Architecture Technique des Socles en accompagnement des équipes Socle (exemples : API Management, Oracle, Moteur de règles…) - Accompagner les projets métiers dans le cadre de la rédaction des fiches de sécurité et NFRs Projets. L'architecte technique a un rôle prépondérant dans le domaine de la sécurité, il doit valider les architectures techniques sous l'angle de sécurité, rédiger les matrices de flux... - Accompagner les chefs de projets techniques dans le cadrage des projets et l’organisation de toutes les phases techniques (plans de bascule techniques, accompagnement/support à la mise en exploitation de DRCP et des SFs,…) - Vérifier « régulièrement » que l’architecture déclinée en Production est conforme à l’architecture technique décrite / ajuster Dimensionnement conforme, matrices de flux techniques conformes à la description… Comment ? (outillages, droits, processus…) Notion de responsabilité de la bonne implémentation en PROD des archis techniques - Instruire des dossiers techniques (ex : mise en œuvre protocole S3….) - Support au « Run » (participation aux cellules de crise) Livrables attendus : Dossier de cadrage technique Dossiers de choix techniques (choix de solution) Dossiers d'Exigences Non Fonctionnelles Cahier des charges techniques Différents Dossiers d'Architecture nécessaires dans le contexte des programmes concernés Protocole d'intervention DTI (planning des activités DTI pour le projet) Résultats de revues techniques et procès verbaux Planning projets Environnement serveur /middleware /data : x86, virtualisation VMware, Redhat Linux 8.x, JBOSS EAP 7.4.x / 8.0, PostgreSQL v16, SAG WebMethods 10.5, API Management, Redhat Openshit 4.18... Environnement Java : Java, JEE, SQL, Spring 3.X, Spring-batch, Hibernate 4.X / JPA, Spring-boot Environnement Méthodologique : MDA (Model Driven Architecture), TOGAF, MEGA pour la modélisation Niveau Connaissance : Serveurs x86 Virtualisation VMware ITIL Niveau Pratique : Redhat Linux 7.x / 8.x PostgreSQL 16.x et version supérieures Architectures applicative basées sur J2EE Niveau Maitrise : Architecture conteneurs (Docker, Kubernetes) Architectures Internes basées sur J2EE / dont infrastructures de sécurité Architectures techniques sur infrastructure JEE Maîtrise d'une solution d'API Management du marché Maîtrise des solutions de partage/accès de fichiers et protocole S3 Connaissance des outils de modélisation - format Archimate / BPMN
CDI

Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS

Cogniwave dynamics
Publiée le
Data science

Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
32 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous