L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 410 résultats.
Offre d'emploi
Ingénieur Devops AWS/GCP (H/F)
DCS EASYWARE
Publiée le
Paris, France
Vous interviendrez au sein d’une équipe en charge du supportapplicatif sur un périmètre lié aux métiers RH et Communication. Vos missions Assurer le support des applications métiers (gestion des incidents, MCO) Piloter des projets applicatifs et techniques : Mise en place de nouvelles applications Migrations / refresh techniques Participer à l’intégration de briques DevOps (XLDeploy, XLRelease…) Collaborer étroitement avec les équipes de développement et d’infrastructure Contribuer à l’amélioration continue du périmètre applicatif Environnement technique Serveurs d’applications : PHP, Tomcat, IIS Scripting & ordonnancement : Control-M Environnements : Windows & Linux Cloud : AWS, GCP DevOps : outils de déploiement et d’automatisation Contexte Environnement international avec des échanges réguliers en anglais (équipes basées à Porto) Participation à des astreintes Interventions possibles en heures non ouvrées (HPO)
Offre d'emploi
Data Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Offre premium
Mission freelance
Coordinateur Cybersécurité Opérationnelle
LOIC CAROLI SAS
Publiée le
AWS Cloud
Azure
sailpoint
6 mois
500-710 €
Nantes, Pays de la Loire
Missions principales : Assurer le reporting mensuel de l’activité Sécurité au travers d’un dashboard mensuel (SOC, VOC, Sectools, IAM) Contribuer au bon fonctionnement des activités Sécurité (SOC, VOC, Sectools, IAM) au sein de la DSI en assurant la coordination entre les parties prenantes Être le point de contact principal pour les questions Sécurité (RSSI, Audit Interne & Externe…) et la contribution aux réponses d’audit sur le périmètre cyber Proposer des améliorations pour optimiser les ressources existantes et leur organisation Travailler en binome avec le Service Manager afin d’assurer un delivery de qualité de la part du partenaire en charge du périmètre. Travailler en binome avec l’Architecte Sécurité afin d’assurer le traitement des workflows nécessitant une validation Sécurité et contribuer à la sécurité dans les projets Gestion des incidents de sécurité Contribuer et accompagner l’équipe SOC dans le traitement des incidents Être le point de contact transverse pour les sollicitations nécessitant une investigation par les équipes Sécurité (Signalement Interne, DPO, Equipes IT, Business…) Assurer la remontée et le traitement des incidents liés à la surveillance externe Gestion des vulnérabilités Contribuer et accompagner l’équipe VOC dans le pilotage et le suivi des demandes de remédiations liées aux vulnérabilités identifiées sur le périmètre Applicatif, Système, Middleware et dans le code déployé au sein des infrastructures Outillage Sécurité Assurer la coordination des activités du fournisseur avec les différents services de l’entreprise Contribuer au suivi auprès des partenaires en cas de demande d’évolution sur les technologies de sécurité Veille Cyber Assurer une veille externe sur les nouvelles technologies de cybersécurité
Mission freelance
Cloud Platform Engineer
CONCRETIO SERVICES
Publiée le
AWS Cloud
Git
IAC
3 mois
Paris, France
MISSIONS PRINCIPALES Revue et consolidation de l'architecture DR existante — identifier les incohérences, lacunes et risques non couverts sur les workloads critiques Challenger et valider les patterns techniques de failover, failback, réplication et synchronisation des données Traduire les exigences de résilience et de recovery en solutions techniques pragmatiques, robustes et scalables Implémenter les composants DR en Infrastructure as Code (Terragrunt) et GitOps (ArgoCD / GitLab), dans le respect des standards plateforme existants Définir, documenter et automatiser les procédures de failover, failback et validation de la reprise Identifier les dépendances inter-composants, single points of failure et gaps opérationnels Collaborer avec les équipes plateforme, infrastructure, sécurité et applicatives pour garantir la cohérence end-to-end Produire des livrables techniques exploitables : schémas d'architecture, runbooks DR, procédures de test
Offre d'emploi
Développeur Fullstack Senior – Kotlin / React – La Plaine Saint-Denis
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Dart (langage)
Kotlin
1 an
55k-60k €
550-600 €
Saint-Denis, Île-de-France
Dans le cadre du renforcement d’une équipe tech intervenant sur des sujets stratégiques autour de la data , du tracking digital et de la performance marketing , nous recherchons un Développeur Fullstack Senior pour rejoindre une équipe agile déjà composée de 3 développeurs. L’équipe intervient sur la mise en place et l’évolution du tracking des parcours digitaux , l’alimentation d’outils analytiques et marketing, ainsi que sur des sujets liés au consentement RGPD sur le site et l’application. Le besoin s’inscrit dans un contexte de changement d’outil d’attribution marketing , avec un fort enjeu de fiabilité de la donnée , de qualité des intégrations et de collaboration transverse avec les équipes Produit et Tech. Vos missions Faire évoluer le datalayer existant Assurer la transmission de la donnée via Tealium vers la solution d’attribution Concevoir et développer les évolutions back-end , front-end et contribuer à la CI/CD Mettre en place des tests d’intégration afin de garantir la qualité et la fiabilité des données Collaborer avec d’autres équipes techniques, notamment Produit Apporter votre expertise sur les sujets de tracking et de robustesse technique Échanger avec les équipes techniques du partenaire de la solution d’attribution Proposer des solutions pérennes pour fiabiliser les flux de données Participer aux cérémonies agiles et remonter les alertes si nécessaire Environnement technique Back-end : Kotlin Spring Boot AWS Front-end web : TypeScript React Mobile : Dart Flutter
Mission freelance
CONSULTANT CLOUD AWS / PLATEFORME
SKILL EXPERT
Publiée le
AWS Cloud
Gitlab
2 mois
550-600 €
Hauts-de-Seine, France
CONSULTANT CLOUD AWS / PLATEFORME COMPÉTENCES REQUISES CONSULTANT CLOUD AWS / PLATEFORME Confirmé AWS CLOUD, ARGOCD, GITLAB Confirmé TERRAGUNT, ARCHITECTURE Confirmé ANGLAIS LU, ÉCRIT, PARLÉ Confirmé Descriptif de la mission Notre Client recherche pour cette mission un Consultant Cloud AWS / Plateforme Les tâches au quotidien seront : • Définir, concevoir et mettre en œuvre les éléments techniques nécessaires à une stratégie de reprise après sinistre pilote sur AWS • Analyser l'architecture cible existante de reprise après sinistre à chaud pour les charges de travail critiques dans le cloud • Examiner et remettre en question les modèles techniques de basculement, de retour en arrière, de réplication, de synchronisation et d'orchestration de récupération • Traduire les exigences en matière de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives • Mettre en œuvre les composants d'infrastructure et de reprise après sinistre en utilisant l'infrastructure en tant que code et les principes GitOps • Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir une cohérence de bout en bout • Définir et documenter les procédures de basculement, de retour en arrière, de validation de la récupération et de test de reprise après sinistre • Identifier les risques techniques, les dépendances, les points de défaillance uniques et les lacunes opérationnelles Les compétences requises pour cette mission sont : • Justifier d'au moins 5/6 ans d'expérience professionnel dans ce domaine • Avoir une solide expérience dans l'exploitation de plateforme de production basée sur AWS • Avoir de bonnes compétences en matière d'infrastructure as code, en automatisation et de standardisation du déploiement • Justifier d'une solide connaissance de la haute disponibilité et des opérations de productions • Avoir de bonnes connaissances avec ArgoCD, Gitlab, Terragunt • Anglais lu, écrit, parlé Environnement technique de la prestation Aws Cloud, ArgoCD, Gitlab Terragunt, Architecture
Offre d'emploi
Senior Data Engineer - H/F
AMD Blue
Publiée le
Data Engineering
Databricks
PySpark
3 ans
53k-58k €
530-560 €
Lille, Hauts-de-France
Contexte de la mission : Notre client place la donnée au cœur de sa stratégie pour guider chaque décision et l'expérience utilisateur. Au sein d'une équipe transversale chargée de mettre à disposition la stack data pour l'ensemble du groupe, vous aurez pour mission de garantir la robustesse et la scalabilité de la plateforme. L'enjeu est de sensibiliser les utilisateurs aux bonnes pratiques sur une "modern data stack" afin d'accompagner le développement des cas d'usages métiers. Descriptif de la mission : Les missions sont : Garantir la robustesse de la plateforme : Monitorer et prendre des actions proactives de management de la plateforme de compute. Support et accompagnement : Assurer le support technique des équipes sur Spark, Databricks et EMR. Optimisation : Travailler sur les optimisations des traitements Athena/Pyspark. Conseil et formation : Définir et promouvoir les bonnes pratiques de software engineering et de data engineering ; participer et conseiller lors de la conception des pipelines de données. Innovation et gouvernance : Travailler sur les concepts d'accessibilité et de gouvernance de la donnée, et tester de nouveaux outils ou fonctionnalités à intégrer dans la stack.
Offre d'emploi
AWS Platform Engineer - Geneva (Switzerland)
LEVUP
Publiée le
AWS Cloud
Kubernetes
12 mois
Genève, Suisse
Vous intégrez une équipe spécialisée dans la fourniture de solutions d’intégration innovantes pour l’ensemble des lignes métiers et des sites. Notre expertise couvre les environnements on-premise et cloud, le conseil ainsi que la gestion de projets. • Gestion des mises en production : piloter le cycle de release, corriger les anomalies et déployer de nouvelles fonctionnalités en collaboration avec le Product Manager. • Gestion des infrastructures on-premise (machines virtuelles Windows et Linux). • Automatisation & optimisation : maintenir et refactoriser les automatisations à l’aide d’outils tels que Puppet, Ansible et Terraform • Gestion des incidents : analyser les incidents et anomalies, identifier les causes racines et mettre en œuvre des solutions pérennes • Infrastructure as Code (IaC) : automatiser le provisionnement et la gestion des ressources cloud via Terraform, GitHub et GitHub Actions • Performance & sécurité : optimiser les environnements en termes de coûts, performances et sécurité, et mettre en place des pipelines CI/CD • Supervision & maintien en conditions opérationnelles : maintenir les outils de supervision (ex. Rundeck, Grafana) pour les environnements on-premise et cloud • Méthodologies DevOps : appliquer les bonnes pratiques DevOps, participer aux rotations d’astreinte et garantir l’alignement avec les exigences métier et sécurité • Migration et gestion Cloud : contribuer à la stratégie de migration vers le cloud AWS. • Documentation & intégration : rédiger la documentation technique et gérer plusieurs applications dans des environnements hybrides • Travail en équipe : collaborer en binôme avec les équipes afin de délivrer les activités efficacement et dans les délais
Mission freelance
Platform Engineer GCP (H/F)
HOXTON PARTNERS
Publiée le
AWS Cloud
DevOps
Dynatrace
2 ans
500-600 €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Platform Engineer GCP pour l’un de nos clients dans le cadre d’un programme de transformation cloud et d’industrialisation des plateformes. La mission vise à structurer une plateforme standardisée dans un contexte de migration vers le cloud et de collaboration avec des équipes de build et de run. Missions principales : Concevoir et industrialiser une plateforme cloud GCP basée sur des standards réutilisables (Infrastructure as Code, building blocks) Définir et mettre en œuvre des architectures hybrides (on-premise vers cloud) incluant les stratégies de migration (rehost / replatform) Implémenter et maintenir des environnements GCP (Compute Engine, Cloud Storage, Filestore, disques persistants) Mettre en place les fondations réseau (VPC, Shared VPC, VPN, interconnexions) et les mécanismes de sécurité associés Gérer les problématiques d’identité et d’accès (Active Directory, IAM GCP, fédération) Assurer l’exploitabilité de la plateforme (monitoring, logging, documentation, handover vers les équipes RUN)
Mission freelance
Pilote Delivery AWS
Groupe Aptenia
Publiée le
AWS Cloud
DevOps
6 mois
Bordeaux, Nouvelle-Aquitaine
Définir et piloter l'architecture technique de la plateforme en lien avec les parties prenantes et les objectifs stratégiques Garantir la qualité, la cohérence et la performance des solutions déployées via des revues de code et l'application des bonnes pratiques Mettre en place et faire évoluer les chaînes CI/CD, les pratiques DevOps/DevSecOps, l'IaC et le GitOps pour industrialiser le delivery Suivre et améliorer les métriques de performance delivery (DORA Metrics) Piloter les démarches d'amélioration continue (Accelerate, DevEx) Comprendre et challenger les architectures applicatives et infrastructure du SI (cloud, conteneurisation, event-driven, contraintes sécurité) Utiliser l'IA pour accélérer la production de livrables Impulser une culture IA au sein des équipes produit
Mission freelance
Architecte Sécurité Cloud & Données (H/F)
HOXTON PARTNERS
Publiée le
Data Lake
Databricks
IAM
6 mois
580-700 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un Architecte Sécurité Cloud & Données pour l’un de nos clients dans le cadre d’un programme de transformation numérique à dimension internationale. La mission s’inscrit dans la sécurisation des environnements cloud et des plateformes data au sein d’un écosystème en forte évolution. Missions principales : Concevoir des architectures sécurisées pour les environnements cloud et data (Azure et environnements hybrides) Réaliser des évaluations de sécurité sur les services et architectures data et proposer des recommandations Définir les exigences de sécurité pour les projets cloud (identité, intégration, plateformes data/IA) Mettre en place les politiques, standards et bonnes pratiques de sécurité des données Piloter des initiatives de sécurité (choix de solutions, cadrage, mise en œuvre) Accompagner les équipes dans le déploiement sécurisé des workloads et la gestion des risques
Offre d'emploi
DEVOPS
Peppermint Company
Publiée le
AWS Cloud
Bash
ELK
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Soutien opérationnel et technique Assurez la stabilité et la fiabilité des applications fonctionnant sur AWS (emplois EMR, charges de travail EKS, Redshift, Glue). Maintenir et dépanner les processus Jenkins, les pipelines CI/CD, les outils de surveillance, d'alertes et de visualisation (services AWS, ELK). Surveillez l'activité de la plateforme, l'utilisation du système et la consommation des coûts. Surveillez l'évolution de la charge de code et l'activité d'intégration Génie logiciel et outillages Refactoriser les scripts Bash en outils Python maintenables. Améliorer la discipline de l'ingénierie : tests, gestion des versions, documentation, structure du code. Soutenir les équipes dans l'adoption de pratiques d'ingénierie logicielle plus solides. Livrables de migration Migrez les pipelines Jenkins vers un nouvel orchestrateur. Prendre en charge la migration des données vers Azure et AWS Amadeus Datamesh. Adapter les services de plateforme existants et les composants applicatifs au nouvel environnement. Contribuer à des normes unifiées CI/CD entre les équipes ATI. Une certaine compréhension des concepts du Big Data et de la gestion du cycle de vie des données tels que les partitions, l'évolution des schémas, les contrôles de qualité des données et l'optimisation de base des coûts/performances est appréciée.
Mission freelance
Python Software Engineer Senior
Aneo
Publiée le
AWS Cloud
Python
Ray
7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Offre d'emploi
Ingénieur Cloud
Ness Technologies
Publiée le
AWS Cloud
Azure
OVHcloud
Paris, France
Contexte & mission Dans un environnement en forte croissance autour du Cloud public , vous intervenez au sein d’équipes techniques en charge de l’exploitation et du maintien en conditions opérationnelles d’infrastructures multi-cloud . Vous contribuez à garantir la performance, la disponibilité et la sécurité des plateformes, tout en assurant un support technique de niveau avancé. Missions principales Assurer le support technique de niveau 2(+) sur des environnements Cloud public (multi-cloud) Prendre en charge les incidents et demandes via un outil ITSM, dans le respect des processus établis Exploiter et administrer des environnements Linux hébergés dans le Cloud Réaliser les activités de MCO : supervision des infrastructures gestion des sauvegardes application des patchs contrôles quotidiens Diagnostiquer et résoudre les incidents liés aux environnements IaaS / PaaS Maintenir et enrichir la documentation technique (procédures, bases de connaissance) Appliquer les bonnes pratiques en matière de sécurité et d’exploitation Participer aux comités techniques et aux échanges avec les parties prenantes Collaborer avec les équipes projets lors des phases de déploiement et d’évolution Contribuer à des actions d’ amélioration continue et de veille technologique
Mission freelance
Product Manager Data Mesh
SURICATE IT
Publiée le
Data Mesh
Product management
3 ans
400-750 €
La Défense, Île-de-France
Product Manager Data Mesh 📍 Localisation : Puteaux 📅 Type de mission : Mission longue 🏠 Télétravail : 1 jour / semaine (non négociable) 💰 TJM : 750€ Max 🏦 Secteur d’activité : Finance 🚨ATTENTION : Expérience pratique du Data Mesh obligatoire Contexte de la mission Dans un contexte de transformation data à grande échelle, notre client recherche un Senior Data Product Manager pour piloter la conception, la construction et le déploiement de sa plateforme Data Mesh (Group Data Platform – GDP). Il s’agit d’un rôle stratégique mais fortement opérationnel, avec une responsabilité directe sur la livraison, l’industrialisation et l’adoption de la plateforme à l’échelle de l’entreprise. Vos missions 🎯 Pilotage produit & amélioration continue Recueillir les besoins utilisateurs et définir la vision produit Construire et piloter la roadmap Suivre les KPIs d’usage et de valeur Améliorer en continu l’expérience utilisateur et développeur 🏗️ Delivery de la plateforme Data Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité…) Mettre en place les standards techniques et les patterns d’architecture Prendre des décisions techniques et valider les solutions ☁️ Architecture Cloud & Infrastructure Coordonner l’architecture cloud et hybride (AWS / Azure) Piloter l’intégration des systèmes on-premise Garantir la sécurité et la conformité 🚀 Exécution & delivery Piloter le cycle de vie produit (backlog, priorisation, releases) Gérer les déploiements en production Suivre performance, fiabilité et risques 📊 Déploiement & adoption Data Mesh Déployer la plateforme dans les différents domaines métiers Accompagner les équipes dans la création de data products Structurer et piloter l’adoption du modèle Data Mesh 📚 Gouvernance & documentation Formaliser les standards, processus et bonnes pratiques Assurer la conformité avec la gouvernance data du Groupe 📢 Communication & pilotage Assurer le reporting auprès des parties prenantes et du top management Produire dashboards, KPIs et supports de pilotage Animer les comités de suivi 🌟 Évangélisation & adoption Promouvoir la plateforme en interne Construire une communauté autour de la data Développer des cas d’usage et démonstrateurs Indicateurs de succès Plateforme déployée et opérationnelle en production Adoption effective par les métiers Qualité et volume des data products livrés Performance et fiabilité de la plateforme Satisfaction utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
senior/expert AWS Agentic
WorldWide People
Publiée le
AWS Cloudwatch
3 mois
400-500 €
France
senior/expert AWS Agentic Caractéristiques : Client : pharmaceutique 5 à 10 ans d’expérience anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : France Technologies : AWS Bedrock Agentcore Runtimes ST / LT memories Observability Agentcore identity Agentcore gateway Agentcore policy Cloudwatch Langchain + Lang-graph Github actions FE built with React FE likely hosted on OpenShift AWS API gateways Terraform for CICD pipelines along with Artifactory MCP and A2A agent protocols Nice to have: Knowledge of Neo4J Knowledge of GenBI platforms Weights and balances
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2410 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois