Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3

Votre recherche renvoie 81 résultats.
CDI

Offre d'emploi
Expert Devops H/F

Publiée le
Exploitation

55k-65k €
93160, Noisy-le-Grand, Île-de-France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Expert Devops H/F C’est votre m ission Vous êtes passionné·e par la conteneurisation , les plateformes Kubernetes et l’ Infrastructure as Code ? Ce poste est fait pour vous. En tant qu’ Expert devops , vous êtes responsable du déploiement , de l’ automatisation et de la fiabilisation des plateformes conteneurisées au cœur des systèmes critiques : Côté build : Déployer et configurer des clusters Kubernetes / OpenShift (dont environnements airgap ) Concevoir et optimiser des pipelines CI/CD (GitLab CI, GitOps) Mettre en place les bonnes pratiques de sécurité des images et des pipelines (Trivy, Grype, Syft, Checkov) Automatiser les infrastructures via Terraform et Ansible Participer à la formalisation et l’évolution des standards d’exploitation Intégrer les workloads applicatifs sur les plateformes conteneurisées Côté run : Assurer le troubleshooting avancé sur Kubernetes / OpenShift Maintenir les workloads applicatifs et garantir la stabilité des clusters Surveiller, analyser et optimiser les plateformes (logs, performances, sécurité) Administrer les outils de l’écosystème : Gitlab, ArgoCD, Artifactory, Vault Contribuer à la documentation technique et aux retours d’expérience Collaborer avec les équipes projets pour les accompagner sur les bonnes pratiques DevOps C’est votre parcours Vous avez au moins 8 ans d’expérience dans des environnements DevOps exigeants. Vous aimez construire, automatiser et industrialiser sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique s’allie au collectif.. C’est votre expertise : Maîtrise de Kubernetes / Openshift (déploiement, exploitation, troubleshooting) Chaînes CI/CD & GitOps : GitLab CI, ArgoCD, Kaniko Sécurité : Trivy, Grype, Syft, Checkov IaC & automation : Ansible, Terraform Virtualisation & réseau : VMware vSphere , NSX , BigIP F5 Stockage objet : S3, MinIO Systèmes Linux / Red Hat C’est votre manière de faire équipe : Esprit d’analyse et sens du détail technique Communication claire et goût pour la transmission Proactivité et capacité à travailler en autonomie Curiosité, adaptation et volonté de faire avancer le collectif Rigueur, sens du service et culture DevOps C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Noisy Le Grand Contrat : CDI Télétravail : Hybride Salaire : De 55 K€ à 65 K€ brut annuel Famille métier : DevOps / Conteneurisation / Systèmes Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Développeur Go / Backend Kubernetes

Publiée le
API
Go (langage)
Kubernetes

12 mois
550-600 €
Paris, France
Un grand acteur du secteur bancaire développe et opère en interne une plateforme data et IA destinée à accompagner les équipes de data scientists et d’analystes dans tout le cycle de vie de leurs projets : du développement à l’industrialisation en production. Cette plateforme s’appuie sur un cloud privé on-premise et sur une stack technologique moderne et open source , fortement orientée Kubernetes . L’objectif est d’offrir un environnement performant, automatisé et scalable , permettant la mise à disposition d’environnements de développement, le déploiement de modèles et leur supervision en production. Dans ce cadre, l’équipe recherche un Développeur Go expérimenté , passionné par les architectures backend distribuées et la scalabilité, pour renforcer le cœur technique de la solution. 🎯 Missions principales En tant que Développeur Go / Backend Kubernetes , vous interviendrez au cœur d’un environnement technique exigeant et contribuerez à la conception, au développement et à l’optimisation de composants backend critiques. Conception & développement Concevoir et développer des microservices backend performants et sécurisés en Go. Participer à la conception d’architectures distribuées et Cloud native. Implémenter de nouvelles fonctionnalités et contribuer à l’évolution technique de la plateforme. Garantir la qualité, la maintenabilité et la performance du code. Intégration & déploiement Intégrer vos développements dans un environnement Kubernetes on-premise. Participer à la mise en place et à l’amélioration des pipelines CI/CD (ArgoCD, Argo Workflows). Collaborer avec les équipes SRE et Infrastructure pour assurer la résilience et la fiabilité des services. Performance & observabilité Optimiser les performances backend (latence, allocation de ressources, parallélisation). Contribuer à la mise en place d’outils de monitoring et d’observabilité (Prometheus, Kibana). Participer aux actions d’amélioration continue (tests de charge, tuning, automatisation). Collaboration Travailler en proximité avec les autres développeurs et les équipes Data / MLOps. Être force de proposition sur les choix techniques et les bonnes pratiques de développement. Profil recherché Compétences techniques Excellente maîtrise du langage Go (expérience significative en backend distribué). Très bonne connaissance de Kubernetes (orchestration, scheduling, services, déploiements). Maîtrise des architectures microservices et des APIs REST/gRPC. Connaissances des outils d’automatisation : Terraform , ArgoCD , Argo Workflows . Expérience avec le stockage S3 / MinIO et les volumes persistants ( Portworx ). Connaissances en bases de données ( PostgreSQL , MongoDB ). Bonne compréhension des environnements cloud privés et CI/CD . Pratique de Python appréciée pour l’automatisation ou l’intégration de services. Soft skills Esprit analytique et rigoureux, sens du détail technique. Orientation qualité, fiabilité et performance. Capacité à collaborer avec des équipes pluridisciplinaires (Dev, Infra, Data). Curiosité, autonomie et goût pour les environnements techniques de haut niveau. Environnement technique Langages : Go, Python, Terraform Infra & Cloud : Kubernetes on-prem, S3 / MinIO, Portworx CI/CD : Argo, ArgoCD, Argo Workflows Monitoring : Prometheus, Kibana Bases de données : PostgreSQL, MongoDB Outils : Git, Artifactory, Model Registry
Freelance

Mission freelance
Software engineer C# .net / Bordeaux

Publiée le
.NET

1 an
400-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
🎯 Contexte Nous recherchons un développeur backend freelance pour renforcer une équipe tech produit basée à Bordeaux . L’objectif : concevoir et faire évoluer des microservices cloud AWS au sein d’une architecture event-driven moderne, avec une forte attention portée à la scalabilité , à la fiabilité et à l’ observabilité . ⚙️ Stack technique Langage : TypeScript (Node.js) Cloud : AWS (ECS Fargate, Lambda, S3, CloudWatch) Bases de données : MongoDB, Amazon Neptune Event-driven : SQS / SNS AI / Python : intégration de modules IA (LLM, services internes, etc.) Observabilité : Dynatrace, Elastic, Grafana, Datadog CI/CD & Infra : GitLab CI, Terraform, Docker 🧩 Missions Développer et maintenir des microservices backend scalables sur AWS Implémenter et optimiser des workflows asynchrones (SQS / SNS) Travailler en collaboration avec les équipes Data & AI sur des intégrations Python Mettre en place et suivre la supervision / observabilité (Dynatrace, Datadog, etc.) Participer à la conception technique , au code review et à la qualité globale du delivery
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Freelance
CDI

Offre d'emploi
Architecte Infrastructure & Production

Publiée le
Apache Kafka
Arch Linux
WebSphere

3 ans
Île-de-France, France
Télétravail partiel
Vos missions Pilotage & Architecture Accompagner les projets sur les choix techniques et l’architecture Garantir la cohérence des solutions et leur alignement avec les standards Groupe Participer aux comités d’architecture du groupe & stratégies IT Maintien en Condition Opérationnelle Évaluer l’obsolescence du SI et piloter les plans de remédiation Sécuriser et valider les changements d’infrastructure Supporter la production et réduire les incidents récurrents Cloud & Performance Accompagner les équipes dans la migration Cloud Contribuer au dimensionnement et à la capacité (Capacity & FinOps) Gouvernance & Communication Diffuser les standards techniques, roadmaps et bonnes pratiques Travailler en transversal avec production, architecture, sécurité et Change Mgmt Compétences requises Systèmes : Linux RHEL, AIX, Windows (admin avancée) Middleware / App : WebSphere / Liberty Core, Apache, Spring Boot Cloud & Infra : Concepts IaaS/PaaS, Infra as Code Architecture 3-tiers / Web Supervision & Transfer : Dynatrace, CFT Storage & DB : SAN/NAS, S3/COS PostgreSQL, Exadata, SQL Server, MongoDB Sécurité & Event Streaming : Kafka / Event Streaming SSL/TLS, certificats, PKI (keystore/truststore)
Freelance

Mission freelance
Techlead DevOps AWS

Publiée le
AWS Cloud

36 mois
400-580 €
Île-de-France, France
Télétravail partiel
La mission dans les grandes lignes consiste à : Automatiser et orchestrer la livraison Cloud pour accélérer les déploiements. Simplifier les processus et assurer une traçabilité totale des opérations. Réduire les délais de livraison (Lead Time) grâce à l’automatisation et l’orchestration du déploiement Cloud Donner une visibilité complète et un suivi continu des résultats. 2 - La finalité attendue autour de l’automatisation : Déploiement de patterns d’architectures Cloud (objectif projet) Modification de ressources Cloud existantes (objectif projet et Run) Automatisation de la quality Assurance ArgoCD AWS GCP Terraform/ Enterprise GitLab / GitLab-CI Python Kubernetes (EKS/GKE) Ansible AAP Expertise sur les Pipeline CI CD (gitlab-ci, ansible, AWX, Jenkins etc.), langage python Maitrise des outils de déploiement automatisés Expérience sur des outils comme S3 (ECS, StorageGrid, Minio, ELK)
CDI
Freelance

Offre d'emploi
Product Owner Technique Senior – API Backend Services

Publiée le
API REST
AWS Cloud
Graph API

24 mois
55k-67k €
400-600 €
Paris, France
Télétravail partiel
Objectif du poste Piloter le projet et le backlog du produit API Backend Services dans un contexte international de transformation digitale. Garantir la qualité, la cohérence et la fiabilité des microservices et APIs multi-consommateurs tout au long du cycle de vie produit. Responsabilités principales Backlog & Delivery Gérer, prioriser et affiner le backlog produit. Définir les critères d’acceptation et planifier les sprints. Assurer la compréhension fonctionnelle et technique des tickets. Étudier les API sources et analyser les réponses API. Participer ou animer les ateliers techniques. Release Management Préparer et animer les release reviews , rédiger les release notes . Organiser les instances de validation ( Go/NoGo , release readiness ). Assurer la recette fonctionnelle avant UAT et le suivi des livraisons inter-équipes. Gérer le support technique niveau 3 (incidents critiques, root cause analysis ). Quality & Monitoring Suivre la qualité et la cohérence du produit, y compris en production. Vérifier la cohérence des livraisons des services connectés. Contribuer à la documentation sur Confluence. Contexte technique Produit : APIs REST & GraphQL, architecture microservices Langages & Frameworks : Node.js, NestJS, TypeScript, Apollo Server Cloud : AWS (ECS, Lambda, S3, OpenSearch, Redis/Valkey, Kinesis, CloudWatch) Outils : Jira, Confluence, Postman, Swagger, Splunk
Freelance
CDI

Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)

Publiée le
Agile Scrum
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Freelance

Mission freelance
Ingénieur Cloud - Intégration AWS

Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
420-480 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Contexte de la mission: Notre client renforce ses équipes techniques autour de l’application iQ , dans un contexte de livraison de fin d’année et de montée en puissance sur le cloud AWS . L’objectif est d’accompagner la mise en production des développements, d’automatiser les déploiements et de garantir la qualité technique des livraisons. La mission s’inscrit dans un environnement en pleine réorganisation , avec de nouvelles équipes qui viendront se greffer courant novembre. Une internalisation à moyen terme est envisagée pour les profils performants et autonomes. Missions principales: Prendre en charge la livraison et l’intégration des développements réalisés par les équipes applicatives iQ Assurer les tests techniques , le déploiement sur les environnements (préprod, monop, prod) Apporter un support technique aux équipes de développement, QA et production Contribuer à l’ automatisation et à l’ évolution des pipelines de déploiement Intervenir sur la configuration et l’exploitation des environnements AWS Debugger les incidents techniques liés aux livraisons et à la production Documenter les process et participer à l’amélioration continue Travailler en étroite collaboration avec le Tech Lead , tout en gagnant progressivement en autonomie Environnement technique: Cloud : AWS (IAM, EC2, S3, CloudFormation, etc.) Automatisation / CI-CD : scripting (Bash, Python ou équivalent), pipelines de déploiement Outils DevOps : GitLab / Jenkins / Terraform (selon stack FDJ) Support & monitoring : outils d’intégration continue, logs applicatifs, supervision
Freelance

Mission freelance
AWS engineer / Architect

Publiée le
AWS Cloud
AWS Glue

12 mois
550-870 €
Paris, France
Télétravail partiel
Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
Freelance

Mission freelance
Expert BDD AWS

Publiée le
AWS Cloud
AWS Cloudwatch
DevOps

6 mois
500-600 €
Réau, Île-de-France
Télétravail partiel
Pour un de nos clients, nous sommes à la recherche d'un Expert BDD AWS habilitable (H/F). Anglais professionnel. Lieu : Villaroche Date : ASAP Durée : Longue mission Mission : Deux volets complémentaires animeront la mission. Une première est de participer aux activités d’exploitation et d’accompagner l’équipe dans la mise en place de ses outils d’exploitations sur le Cloud, la seconde est l’accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases : A. Activités d’exploitation / administration et outillage associé Le collaborateur sera mis en contact avec les équipes du programme Move to Cloud en cours afin de pouvoir comprendre le modèle prévu, et devra être force de proposition sur les sujets entourant l’exploitation des Bases de Données sur AWS. Il proposera des solutions d’exploitation, d’automatisation des tâches d’exploitation, et participera à l’acculturation autour des sujets des Bases de Données sur AWS en partageant ses connaissances sur les outils mis en place durant la prestation. Le collaborateur assurera les activités de supervision, d’exploitation et d’administration, des bases de données sur AWS en IaaS ou en PaaS (RDS, Aurora, DynamoDB, Redshift…). Le collaborateur automatisera les tâches d’exploitation via des outils comme Terraform ou AWS Systems Manager ou via des pipelines CI/CD. Le collaborateur devra maintenir la documentation technique et les référentiels à jour, il participera également et participer à la veille technologique sur les outils ou processus d’exploitation des bases de données Cloud. Le collaborateur interviendra dans la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) B. Accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases de données Le collaborateur participera à la conception d’architectures cloud résilientes et performantes pour les bases de données. Pour cela, il collaborera avec les équipes projet pour la mise en place de nouvelles bases ou l’évolution d’architectures existantes. Le collaborateur effectuera des migrations de bases de données vers le cloud (on-prem → AWS), avec un focus sur la continuité de service. Il étudiera et proposera des mécanismes et des trajectoires de migrations adaptées en fonction des moteurs de bases de données source et de la stratégie de migration en retenue (lift & shift / IaaS, rehost & rebuild / PaaS). • Expert base de données AWS (4 ans d’expérience minimum sur le Cloud AWS) : maîtrise des services AWS liés aux bases de données (RDS, Aurora, DynamoDB, Redshift), optimisation des performances, haute disponibilité, sécurité et conformité. • Excellente connaissance des principaux SGBD du cloud : MySQL, PostgreSQL, SQL Server, Oracle, NoSQL (DynamoDB) et des outils d’administration associés • Compétences relatives à la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) • Expérience en migration de bases vers AWS, gestion multi-environnements (dev/test/prod), automatisation via Infrastructure as Code (IaC) avec Terraform. • Maîtrise de l’écosystème AWS (EC2, S3, IAM, Lambda, …) et bonne culture cloud public. • Compétences en architecture cloud : capacité à concevoir des architectures scalables, résilientes et sécurisées dans AWS, intégration avec les services applicatifs et analytiques. • Compétences DevOps & monitoring : mise en place de pipelines CI/CD pour les bases de données, supervision via CloudWatch, gestion des incidents et des alertes. • Compétences transverses : anglais courant, capacité à vulgariser les enjeux techniques auprès des métiers, rédaction de documentation claire et structurée. • Capacité d’adaptation et bon relationnel pour le travail en équipe et l’accompagnement des utilisateurs. • Certifications AWS (ex : AWS Certified Database – Specialty, Solutions Architect) appréciées. Livrables : • Audit des bases existantes (on-premise et cloud), cartographie des flux et dépendances. • Plan de migration des bases de données vers AWS (stratégie lift & shift, refactoring ou replatforming), avec analyse d’impacts, analyse des risques et plan de remédiation. • Architecture de bases de données cible documentée (diagrammes, choix techniques, justification), incluant les services AWS utilisés et les configurations recommandées. • Scripts d’automatisation pour le déploiement et l’exploitation des bases (Terraform/CloudFormation, Ansible ou autre), avec documentation associée. • Mise en place de tableaux de bord de performance et d’alerting (CloudWatch, Grafana), avec seuils et indicateurs métiers. • Plan de sauvegarde/restauration des bases de données, stratégie de haute disponibilité et reprise après sinistre (multi-AZ, snapshots, read replicas). • Normes et standards : Guides de bonnes pratiques, normes qualité, chartes d’optimisation des performances et de sécurisation des données • Analyse des performances et recommandations d’optimisation des bases de données
Freelance

Mission freelance
Chef de projet DATA Domaine Banque / Assurance (ML, développement Python, IA générative) - MER

Publiée le
IA Générative
Pilotage
Python

3 mois
400-480 €
Mer, Centre-Val de Loire
Télétravail partiel
Chef de projet DATA pour une mission à MER (près d'Orléans).Data Science (ML, développement Python, IA générative) Domaine Banque / Assurance. Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il interviendra sur les projets suivants : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Freelance

Mission freelance
Un Chef de Projet Data & BI / PO à MER (près d'Orléans)

Publiée le
BI
IA

3 mois
350-430 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet Data & BI / PO à MER (près d'Orléans).. Description du poste : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI
Freelance

Mission freelance
Chef de projet DATA Domaine Banque / Assurance - MER

Publiée le
IA Générative
Pilotage
Python

3 mois
400-480 €
Mer, Centre-Val de Loire
Télétravail partiel
Chef de projet DATA pour une mission à MER (près d'Orléans). Domaine Banque / Assurance. Profil : - Spécialiste de la gestion de projets techniques orientés Data, avec un minimum de 3 années d’expérience - Expérience des méthodologies Agile (Kanban, Scrum) en tant que Product Owner - Grande rigueur dans le suivi des actions projet - Expérience de la relation Infogérant / infogéré - Connaissance des sujets Data Science (ML, développement Python, IA générative) - Connaissance du fonctionnement des bases de données (Relationnelles, Cluster, Stockage S3) - Connaissance des infrastructures Cloud, des outils associés aux projets mentionnés ci-dessus, et de Power BI Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il interviendra sur les projets suivants : Projet d'extension des données du SI Décisionnel Ce projet agile vise à faciliter l’accès aux données pour les utilisateurs métier et les clients. Le prestataire jouera le rôle de Product Owner pour le produit « Data » : gestion du Backlog, collaboration étroite avec le Scrum Master, l’équipe de développement du service Modélisation des Données, les équipes IT, et les métiers. Projet de nouvelle stratégie d’alimentation du Datawarehouse Finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique. Autres projets Mise en place de solutions IA, finalisation de la mise en place d’un outil de Change Data Capture sur une infrastructure spécifique, mise en place d’un SI Décisionnel RH, et d'autres projets à initier en 2026. Mission : Piloter les projets sur les aspects suivants : - Organisationnels : planning, comitologie, suivi budgétaire, suivi de recette - Techniques : cartographie réseau, flux, analyse de risque, etc. - Relationnels : collaboration avec les équipes IT (Architectes, Réseau, RSI, etc.), les métiers, le CISO, etc. - Maitrise des risques : implique une grande rigueur dans le suivi des actions, des plannings et des budgets
Freelance
CDI
CDD

Offre d'emploi
Consultant SysOps

Publiée le
AWS Cloud
SecOps
Terraform

6 mois
40k-45k €
400-550 €
Corbeil-Essonnes, Île-de-France
Bonjour Au sein d'un client grand compte, nous recherchons un profil Expert SysOps Les prestations attendues incluent : • Supervision et maintien en conditions opérationnelles des infrastructures sur AWS Utilisation des solutions de monitoring (CloudWatch, Dynatrace, Centréon), définition des seuils d’alerte, gestion des logs et automatisation des réponses aux incidents. Gestion des incidents, analyse des causes racines, et application des plans d’action correctifs. Gestion de l’obsolescence des services AWS Gestion des sauvegardes, restauration et plans de reprise d’activité (PRA). Gestion des accès et sécurité via IAM, suivi des logs via CloudTrail, audit de conformité • Automatisation des opérations récurrentes Automatisation des tâches opérationnelles avec les outils natifs AWS (Systems Manager, Lambda) et scripts. Création de scripts et de templates (Terraform, Ansible) pour industrialiser les tâches d’exploitation : sauvegardes, déploiements, nettoyage, mises à jour. Constructions de pipelines pour les actions AWS (restart, up/down scaling) • Documentation des procédures opérationnelles et reporting régulier Rédaction des procédures d’exploitation, des guides d’administration et des plans de reprise d’activité. • Optimisation des performances et des coûts Analyse des usages, recommandations sur le dimensionnement, mise en œuvre de bonnes pratiques pour réduire les coûts tout en garantissant la qualité de service. Support aux migrations effectuées par les équipes de Migration SAE en préparation du Run (M2C & G2C) Pré-Requis : • Expert SysOps AWS (4 ans d’expérience minimum sur le Cloud AWS) : certification AWS Certified CloudOps Engineer ou AWS Certified DevOps Engineer. Maîtrise des opérations sur les environnements AWS (EC2, CloudWatch, S3, RDS, etc.), gestion des incidents, optimisation des performances, sécurité et conformité. Expérience en administration de systèmes Linux/Windows dans le cloud, gestion des environnements multi-comptes et automatisation des tâches récurrentes. • Compétences en monitoring & alerting : mise en place de solutions de supervision (CloudWatch, Dynatrace, Centréon), gestion des logs (CloudTrail, ELK), définition de seuils et alertes, gestion proactive des incidents. • Compétences en automatisation & IaC : utilisation de Terraform, ou Ansible pour le déploiement et la gestion des infrastructures. Capacité à industrialiser les processus d’exploitation. • Compétences transverses : anglais courant, capacité à collaborer avec les équipes Dev, SecOps et métiers. Rédaction de documentation technique et procédures d’exploitation. Poste à pourvoir sur Corbeil pour une mission longue durée. Anglais requis
81 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous