Trouvez votre prochaine offre d’emploi ou de mission freelance Web service à Paris
Votre recherche renvoie 148 résultats.
Offre d'emploi
Cloud Security Architect AWS
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Nous recherchons un Cloud Security Architect AWS pour définir, piloter et renforcer la posture de sécurité des environnements cloud dans des contextes industriels et critiques. Vous serez responsable de la conception des architectures de sécurité AWS, en intégrant des modèles Zero Trust, une segmentation fine des réseaux et une gouvernance robuste des identités et des accès (IAM, SCP, Control Tower). Vous travaillerez sur la sécurisation des Landing Zones AWS, la mise en place de contrôles préventifs et détectifs (AWS Config, GuardDuty, Security Hub, Firewall Manager) et l’automatisation des politiques de sécurité via Infrastructure as Code. Vous accompagnerez les équipes DevOps et SRE dans l’intégration de la sécurité “by design” et “by default” dans les pipelines CI/CD. Vous participerez à l’analyse des risques, à la gestion des vulnérabilités et à la définition des stratégies de protection des données (chiffrement, KMS, secrets management). Vous contribuerez également à l’amélioration continue de la posture de sécurité en analysant les incidents, en proposant des remédiations et en diffusant les bonnes pratiques auprès des équipes techniques.
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Mission freelance
Directeur de Projet DATA F/H
SMARTPOINT
Publiée le
AWS Cloud
Big Data
Hortonworks Data Platform (HDP)
12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants, en assurant la coordination des équipes internes et des centres de services (CDS). Il garantit la tenue des engagements en termes de qualité, de budget et de délais, tout en assurant l’alignement avec les objectifs métiers et IT. Tâches & activités Piloter l’activité projet : planification, suivi des charges, gestion des budgets et des ressources Animer et coordonner les équipes projets (internes et CDS) Organiser et conduire les instances de gouvernance (COPIL, COPROJ) Cadrer les besoins métiers et techniques en lien avec les parties prenantes Assurer le suivi global des projets et le reporting auprès de la direction Identifier et gérer les risques, dépendances et points de blocage Garantir la bonne exécution des engagements projets dans le respect des délais et des coûts Livrables & résultats attendus Suivi hebdomadaire de l’avancement des projets (planning, risques, actions) Suivi financier mensuel des projets (budget, consommation, forecast) Préparation et animation des comités de pilotage et comités projet Production de reportings de synthèse à destination des directions métiers et IT Respect des engagements qualité, délais et budget Compétences techniques Maîtrise des outils de gestion de projet (Jira) Connaissance de l’environnement Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des écosystèmes Data et outils décisionnels (BI, Data Platform, IA) Bonne compréhension des architectures Data et des enjeux de transformation digitale Compétences comportementales (recommandées) Leadership et capacité à coordonner des équipes multi-acteurs Excellente communication et sens du reporting Rigueur, organisation et gestion des priorités Capacité d’analyse et de synthèse Esprit de pilotage orienté résultats
Mission freelance
INGÉNIEUR DEVOPS IA / GENAI
HAYS France
Publiée le
AI
Artifactory
AWS Cloud
6 mois
700-800 €
Paris, France
Contexte & Environnement Intervention au sein du pôle Data & IA , et plus précisément de l’ équipe GenAI Le pôle conçoit et opère des plateformes “as a Service” destinées à faciliter le déploiement d’architectures : modernes distribuées hautement disponibles et résilientes Objectif : concevoir, industrialiser et opérer des offres d’IA générative à l’échelle Environnements Cloud public, Cloud privé et On-Premise Écosystème technique complexe, distribué, sécurisé et hautement disponible Travail en mode produit , au sein d’une squad agile pluridisciplinaire Périmètre d’intervention Couverture complète du cycle de vie du service : conception de l’offre industrialisation mise en production maintien en condition opérationnelle (MCO) Intervention sur des produits et services IA à destination des entités internes du groupe Missions principales Mise en œuvre technique & opérationnelle des offres IA Apporter une expertise technique forte dans la conception d’architectures IA Participer à la définition des architectures GenAI (Cloud et On-Premise) Industrialiser et automatiser le déploiement de plateformes agentiques Mettre en place des services managés IA , en intégrant : contraintes de sécurité exigences de conformité règles de gouvernance Piloter les mises en production et assurer la stabilité des plateformes IA Documenter les offres, services et architectures livrées DevOps, MLOps & LLMOps Déployer et opérer des workloads data & IA Mettre en œuvre et maintenir des pipelines : CI/CD MLOps / LLMOps Automatiser les déploiements via l’Infrastructure as Code Participer à l’optimisation des performances et des coûts des plateformes IA Contribution produit & agilité Participer aux daily meetings animés par le Product Owner Contribuer aux réunions de co-construction de la roadmap produit Prendre en charge des items de la backlog formalisée Assurer le lead technique sur un produit ou une brique de la plateforme Participer à l’ensemble des rituels de la squad, de la plateforme et du pôle Participer aux astreintes techniques du pôle Communication & valorisation des offres Démontrer la valeur des offres d’IA générative auprès des entités internes Réaliser des présentations techniques, démos et supports Participer à la promotion et à l’adoption des services IA développés
Offre d'emploi
QA Manager (H/F)
ADSearch
Publiée le
AWS Cloud
Azure
ISTQB
Paris, France
Objectif du poste Le Responsable des Tests IT est garant du pilotage de bout en bout des tests fonctionnels sur les produits et projets, en veillant à intégrer la qualité tout au long du cycle de livraison. Vous planifiez, dirigez et exécutez les activités de test, encadrez les ressources QA/Test, et collaborez étroitement avec les Product Owners, Delivery Leads, Business Analysts, développeurs, architectes, équipes support et partenaires externes afin de livrer des versions de haute qualité. Ce rôle comporte également une dimension opérationnelle : démontrer des pratiques de test efficaces, améliorer la productivité, favoriser la réutilisation des artefacts de test et piloter l’amélioration continue des processus QA et de test. Responsabilités principales Pilotage des tests et delivery Piloter et gérer les tests fonctionnels pour les produits/projets/périmètres assignés. Définir le périmètre, l’approche, les plans de test et l’alignement des critères d’acceptation, en s’assurant que les exigences sont testables. Superviser la création, la revue et la maintenance des artefacts de test (plans, scénarios, scripts, preuves). Gérer l’exécution des tests de bout en bout (manuel et automatisé, conforme aux standards). Fournir des reportings sur l’avancement, la couverture et la qualité, incluant la préparation aux mises en production et les indicateurs associés. Gouvernance qualité et amélioration continue Garantir la qualité des livrables QA/test et des artefacts de développement liés aux releases, correctifs, intégrations et projets. Identifier les risques, problèmes, hypothèses et dépendances ; proposer des plans de mitigation et escalader si nécessaire. Contribuer à l’évolution des processus, standards et frameworks QA ; améliorer l’efficacité et la réutilisabilité des tests. Veiller au respect des processus de gestion des anomalies ; piloter le tri, la priorisation et la résolution. Données de test, environnements et UAT Coordonner la planification, la création et la gestion des données de test avec les parties prenantes. S’assurer que les besoins en données et configurations sont identifiés en amont (raffinement des user stories) et intégrés aux pipelines CI/CD si applicable. Piloter les tests d’acceptation utilisateur (UAT), y compris la coordination et l’engagement des parties prenantes. Management des équipes et des parties prenantes Encadrer, coacher et accompagner les analystes QA et testeurs ; identifier les besoins en formation et développer les compétences. Gérer la planification des ressources (internes, distantes et externes). Collaborer avec les équipes Produit, Delivery, Architecture, Développement et Support pour intégrer la qualité tout au long du cycle de vie. Parties prenantes clés Responsables Projet & Delivery Product Owners Business Analysts Équipes QA / Test Équipe QA de développement externalisée Équipes Support Applicatif Release Manager / QA Leads / Responsable Qualité et Tests
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
SRE DevOps / AI Automation (H/F)
HOXTON PARTNERS
Publiée le
Agent IA
AWS Cloud
DevOps
9 mois
Paris, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe du secteur du luxe, nous recherchons un consultant senior SRE DevOps disposant d’une forte expertise sur AWS et d’une expérience concrète dans l’automatisation de la remédiation d’incidents via des agents IA. La mission s’inscrit dans un environnement exigeant, orienté fiabilité, performance et industrialisation des opérations. Le consultant interviendra sur des sujets de Site Reliability Engineering, d’automatisation avancée, d’observabilité et d’optimisation de la production, avec une forte dimension innovation autour des LLM et des agents autonomes. Les responsabilités incluent notamment : contribuer à la fiabilité, à la stabilité et à la performance des plateformes cloud AWS ; concevoir et mettre en œuvre des mécanismes de remédiation automatique d’incidents ; intégrer des agents IA dans les workflows d’exploitation, de troubleshooting et de runbooks ; participer à la mise en place de chaînes d’automatisation autour du monitoring, de l’alerting et de la gestion des incidents ; travailler sur des architectures et outils liés à Kubernetes, Docker, Terraform, Ansible et Helm ; collaborer avec les équipes infrastructure, applicatives, sécurité et opérations pour améliorer la résilience globale des services ; contribuer à l’observabilité et à l’exploitation des données issues d’outils tels que Datadog, Dynatrace, New Relic ou Elastic ; accompagner l’industrialisation des pratiques DevSecOps, de la gestion des accès, des secrets et des sujets IAM.
Offre d'emploi
Lead Développeur Java/AWS
VISIAN
Publiée le
AWS Cloud
AWS Cloudwatch
GraphQL
3 ans
Paris, France
Tâches principales Analyse un besoin et modélise une application informatique Développe une application informatique Met en place l'intégration continue Maintenir et faire évoluer l'application Gère un projet de développement informatique Tâches supplémentaires Forme les utilisateurs Participe à la production Soutient la recette et traite les retours de recette Fournit un support client Compétences appréciées Familiarity with PostgreSQL Knowledge of CI/CD pipelines, monitoring, and logging in cloud-native environments Kubernetes
Offre d'emploi
Senior DevOps AWS
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation digitale, nous recherchons un DevOps AWS pour accompagner nos clients dans l’adoption des meilleures pratiques DevOps et Cloud Native. Vous interviendrez sur des missions de diagnostic, d’audit et de mise en œuvre de solutions d’industrialisation des infrastructures AWS. Vous analyserez les environnements existants, identifierez les axes d’amélioration et proposerez des trajectoires d’évolution adaptées aux contraintes techniques et métiers. Vous participerez à la mise en place de pipelines CI/CD modernes, à l’automatisation des déploiements et à la sécurisation des architectures cloud. En parallèle, vous accompagnerez les équipes internes dans la montée en compétence sur AWS et les pratiques DevOps. Votre rôle sera à la fois technique et pédagogique, avec une forte dimension conseil.
Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Offre d'emploi
AWS Platform Engineer
Ela Technology
Publiée le
AWS Cloud
Méthode Agile
6 mois
40k-45k €
300-380 €
Paris, France
Au sein d’une squad Data & Analytics Platform, vous contribuerez à la construction, l’évolution et la fiabilisation des environnements Cloud. Vous interviendrez notamment sur : (2 ans d'expérience minimum) Le développement, la mise à jour et la maintenance du code infrastructure Terraform dans Azure et/ou AWS, en respectant les standards sécurité. L’enrichissement de la documentation à destination des utilisateurs. La conception et la maintenance de chaînes de déploiement automatisé (CI/CD). Français & Anglais
Offre d'emploi
DevSecOps AWS - Transformation
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps AWS pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur AWS et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés.
Mission freelance
Senior IT Security officer / Cloud
NEXORIS
Publiée le
AWS Cloud
Cybersécurité
DORA
1 an
600-750 €
Paris, France
Notre client, secteur des marchés financiers, recherche un IT Security Officer (H/F) dans le d'une longue mission. Renforcement de la posture de cybersécurité opérationnelle (analyse de risque, protection des accès, tests de sécurité) et accompagnement à la migration vers le cloud en conformité avec les exigences réglementaires. - Réaliser des analyses de risques cyber sur les projets IT et métiers (CIAT) - Participer à la mise en œuvre des mesures de sécurité opérationnelle (pentest, IAM, PAM, secret management, KMS...) - Suivre et coordonner les projets de migration vers le cloud (AWS et OVH), en lien étroit avec l’architecte sécurité -Intégrer les exigences réglementaires (LPM, DORA, NIST) dans les processus et projets - Produire la documentation sécurité attendue (politiques, procédures, rapports de risques) - Collaborer avec la deuxième ligne de défense pour assurer une gouvernance conforme aux standards en vigueur - Challenger les pratiques existantes et sensibiliser les parties prenantes aux enjeux de cybersécurité
Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)
ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark
Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Mission freelance
Senior Data Engineer AWS
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
148 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois