Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 179 résultats.
Freelance

Mission freelance
Consultant AWS Agentic

CS Group Solutions
Publiée le
AWS Cloud

12 mois
430-450 €
Île-de-France, France
Nous recherchons un Consultant AWS Agentic pour un de nos clients grand compte Caractéristiques : 5 à 10 ans d’expérience anglais obligatoire Technologies : AWS Bedrock Agentcore Runtimes ST / LT memories Observability Agentcore identity Agentcore gateway Agentcore policy Cloudwatch Langchain + Lang-graph Github actions FE built with React FE likely hosted on OpenShift AWS API gateways Terraform for CICD pipelines along with Artifactory MCP and A2A agent protocols Nice to have: Knowledge of Neo4J Knowledge of GenBI platforms Weights and balances
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
Expert Cloud Data/IA AWS/GCP (H/F) - Freelance

GROUPE ARTEMYS
Publiée le

1 mois
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Votre mission (si vous l’acceptez) : Projet 1 – Run & évolution plateforme IA générative (AWS) Reprendre en main une plateforme existante Assurer son maintien en conditions opérationnelles (MCO) Contribuer à son amélioration continue Projet 2 – Migration & adoption GCP Définir une architecture cible Cloud GCP Réaliser des POC Industrialiser et accompagner les équipes Missions principales 1. Prise en main & transfert de connaissances Organisation et participation aux ateliers Cartographie documentaire et identification des gaps Validation de l’autonomie technique 2. Run / MCO (AWS) Traitement des incidents, demandes et évolutions Suivi des opérations et documentation Application des pratiques FinOps (optimisation des coûts) 3. Amélioration continue Contribution aux choix techniques Veille technologique proactive (AWS) 4. Conseil & architecture (GCP) Benchmark des solutions Cloud Définition d’architecture cible Construction de la stratégie de migration hybride (On-Prem → GCP) 5. Expérimentation & industrialisation Réalisation de POC Déploiement industrialisé (Terraform, CI/CD, monitoring) 6. Acculturation & formation Création de démonstrateurs Animation d’ateliers de montée en compétences Le terrain de jeu ? AWS (RUN + IA générative) Compute : Lambda, ECS, Fargate IA/Data : SageMaker, OpenSearch, Comprehend, Rekognition Sécurité : IAM, KMS, Secrets Manager Data : S3, Neptune Observabilité : CloudWatch, CloudTrail GCP (BUILD & transformation) Data : BigQuery, Dataflow, Dataproc IA : Vertex AI, AutoML Compute : GKE, Cloud Run, Functions DevOps : Terraform, CI/CD Sécurité : IAM, KMS, Security Command Center Compétences transverses Architecture Cloud hybride (On-Prem / Cloud) Design scalable & sécurisé Industrialisation MLOps / DataOps Infrastructure as Code (Terraform) FinOps Analyse et optimisation des coûts Cloud Pilotage de la consommation (notamment IA) Le profil que nous recherchons : Vous avez 5 à 10 ans d’expérience minimum dans un environnement challengeant Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 500€ et 650€ (Selon votre expertise) 2 jours sur site à Colombes / semaine Démarrage Juin 2026 Mission de 6 mois renouvelable Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance
CDI
CDD

Offre d'emploi
Lead Developer Angular/Node.js

Avanda
Publiée le
Angular
AWS Cloud
DevSecOps

6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients, leader de son activite, un Lead Developer Angular/Node.js H/F pour piloter techniquement une équipe produit et contribuer activement au développement d'une application en environnement cloud AWS. Ce poste est a pourvoir a Lyon, presence sur site de 3 jours par semaine. En tant que Lead Developer vos principales missions sont les suivantes : Définir et porter la stratégie technique du produit (architecture, choix technologiques, bonnes pratiques) Assurer la cohérence et la qualité des développements via des revues de code régulières Accompagner la montée en compétences des développeurs (pair programming, coding dojo, tech meetings) Être le référent technique pour les décisions structurantes et l'arbitrage avec le Product Owner Contribuer activement au développement des fonctionnalités (BUILD) et à la maintenance applicative (RUN) Rédiger et maintenir la documentation technique (architecture, stratégie de tests, bonnes pratiques) Participer aux cérémonies agiles et assurer le suivi des activités via les outils de ticketing Proposer des améliorations continues et assurer une veille technologique active
Freelance

Mission freelance
[SCH] Administrateur Snowflake – AWS / Terraform / DataOps - 1415

ISUPPLIER
Publiée le

10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre d’un projet stratégique de migration Oracle Exadata vers Snowflake, notre client recherche un Administrateur Snowflake afin de participer à la construction et à la sécurisation de la plateforme cible. L’environnement technique repose sur Snowflake hébergé sur AWS, avec des composants comme PrivateLink, Direct Connect, dbt, Airflow et Terraform. Le consultant interviendra en co-construction avec le pôle architecture pour définir les fondations de la plateforme, concevoir l’architecture cible et garantir la performance, la sécurité et la maîtrise des coûts dans une logique NextGen. Missions : -Participer au design et au build des fondations de la plateforme Snowflake -Définir le sizing et l’isolation des workloads -Mettre en place la sécurité cible : RBAC, gestion des accès, authentification -Créer et maintenir les socles Infrastructure as Code avec Terraform -Administrer la plateforme Snowflake au quotidien : rôles, utilisateurs, policies, comptes techniques -Gérer les Network Policies et les intégrations externes -Contribuer aux revues d’architecture et à la définition de l’architecture cible -Optimiser les performances, la fiabilité et les coûts de la plateforme -Assurer le monitoring, le tuning et le troubleshooting avancé -Participer aux pratiques DataOps / CI/CD autour de Snowflake, dbt et Airflow -Mettre en place des automatisations via SQL, Python, Tasks & Streams -Suivre les indicateurs de consommation et contribuer à la démarche FinOps Profil attendu : -Expertise avancée sur Snowflake (architecture, Virtual Warehouses, RBAC, performance) -Bonne maîtrise des environnements AWS (réseau, PrivateLink, Direct Connect) -Très bonne maîtrise de Terraform pour l’IaC Snowflake / AWS -Expérience en DataOps / CI-CD / pipelines de déploiement -Bonne connaissance de dbt et Airflow -Maîtrise des problématiques de sécurité avancée (Key-Pair, Network Policies, intégrations externes) -Capacité à intervenir sur l’optimisation SQL et le troubleshooting de requêtes -Compétences en Python / SQL pour l’automatisation -Sensibilité aux enjeux FinOps, monitoring et optimisation de coûts -Capacité à travailler en collaboration avec les équipes architecture et data platform
Freelance

Mission freelance
Data Engineer-Scientist AWS

INSYCO
Publiée le
AWS Cloud
Gitlab
Large Language Model (LLM)

3 ans
500-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer-Scientist AWS. Nous étudions prioritairement les candidatures adressées par mail à freelance à insyco . fr avec : · Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous · Un CV à jour au format Word · Une date de disponibilité · Un tarif journalier · Merci d’indiquer la référence MDE/DATA/5161 dans l'objet de votre mail Vos responsabilités · Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique · Modéliser et développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux · Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille · Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation · Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum · S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI interne · Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant · Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab · Participer à la définition et à l’amélioration des processus de l’équipe Lab · Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes, Gitlab) · Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, API Gateway, Terraform) · Expériences en data processing / engineering (Panda, Pyspark, multi-threading, AWS batch) · Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude Code, LLM, NLP, AWS Bedrock) pour identifier les véritables opportunités d’amélioration · Expérience de travail en méthodes agiles (Scrum, SaFe, Kanban)
CDI

Offre d'emploi
Tech Lead Fullstack Java / DevSecOps (H/F)

Inventiv IT
Publiée le
AWS Cloud
DevOps
DevSecOps

Levallois-Perret, Île-de-France
Dans le cadre de projets IT structurants, nous recherchons un Tech Lead Fullstack capable de piloter une ou plusieurs squads et de garantir la qualité des livrables dans des environnements exigeants. Vous interviendrez sur des projets long terme avec des enjeux forts autour de la scalabilité, sécurité et performance . Missions : Co-construire la roadmap technique avec les équipes produit et architecture Encadrer une équipe de 4 à 6 développeurs et assurer leur montée en compétence Définir et challenger les architectures techniques Participer activement au développement (hands-on) Mettre en place et maintenir les pipelines CI/CD et pratiques DevSecOps Garantir la qualité du code (tests, revues, bonnes pratiques) Assurer la communication avec les équipes infra, sécurité et produit Suivre la performance des applications (monitoring, SLA) Environnement technique : Backend : Java 17+/21, Spring Boot Frontend : React, Next.js, Angular DevOps : Git, GitLab CI/CD, Terraform, Docker Cloud : AWS (Azure / GCP en plus) Data : PostgreSQL, MongoDB Qualité : Tests unitaires, intégration, E2E
Freelance
CDI

Offre d'emploi
OPS sénior - Cloud AWS / DevOps

VISIAN
Publiée le
AWS Cloud
Red Hat

1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
Freelance
CDI

Offre d'emploi
Ingénieur Plateforme Cloud / Disaster Recovery - AWS Certified Solutions Architect – Professional

CELAD
Publiée le
AWS Cloud
Terraform

1 an
70k-85k €
600-700 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de la résilience d’une plateforme cloud stratégique, nous recherchons plusieurs Ingénieurs Plateforme Cloud pour concevoir et déployer une solution de Disaster Recovery de type Warm Pilot sur AWS. Vous interviendrez sur un environnement à forte criticité, avec des exigences élevées en matière de disponibilité, sécurité, automatisation et excellence opérationnelle . L’objectif : construire une capacité de reprise robuste, testable et industrialisée, au cœur de la plateforme. Vos missions Vous serez au centre de la stratégie de continuité d’activité et interviendrez sur des sujets à fort impact : Analyser et challenger l’architecture DR existante (failover, failback, réplication, orchestration) Concevoir et mettre en œuvre une solution Warm Pilot adaptée aux workloads critiques Industrialiser les déploiements via Infrastructure as Code (Terraform / Terragrunt) et GitOps (ArgoCD) Automatiser les mécanismes de reprise (bascule, synchronisation, validation) Définir les procédures opérationnelles (runbooks, tests DR, scénarios de reprise) Identifier les risques techniques : dépendances, points de défaillance, limites opérationnelles Collaborer avec les équipes plateforme, sécurité et applicatives pour garantir la cohérence globale
Freelance
CDI

Offre d'emploi
Consultant Data Engineer Informatica

VISIAN
Publiée le
AWS Cloud
Informatica

1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Freelance
CDI

Offre d'emploi
Senior Data Engineer Big Data

VISIAN
Publiée le
AWS Cloud
Python

1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
CDI
Freelance

Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT

OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT

3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps Senior AWS

VISIAN
Publiée le
AWS Cloud
DevOps
Terraform

1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Freelance

Mission freelance
Consultant DevOps / Cloud – Infra as Code & GenAI (Terraform)

Comet
Publiée le
AWS Cloud
Azure

1 an
400-800 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe international du secteur de l’énergie, nous recherchons un Consultant DevOps expérimenté spécialisé en Infrastructure as Code (Terraform) et en environnements cloud Azure & AWS , avec une forte appétence pour les sujets GenAI et automatisation avancée . Contexte de la mission Vous interviendrez au sein d’une équipe en charge de la définition, industrialisation et maintien des standards d’Infrastructure as Code dans un environnement cloud multi-provider (Azure & AWS). L’objectif est d’ accélérer la production et la maintenance des infrastructures en s’appuyant sur des approches innovantes, notamment via des agents intelligents de génération de code . Missions principales Maintenir et faire évoluer les standards IaC (Terraform) à l’échelle groupe Assurer le support niveau 3 sur les problématiques d’infrastructure Gérer les incidents et problématiques liés aux déploiements, migrations et opérations cloud Concevoir et développer des building blocks réutilisables Garantir les bonnes pratiques DevOps et IaC Développer des agents spécialisés (type GenAI / code assistants) pour automatiser les usages Contribuer à la mise en place d’outils de suivi de performance et KPI (usage GitHub, adoption des composants) Participer à l’optimisation des workflows DevOps et à l’industrialisation globale Environnement technique Cloud : Azure & AWS IaC : Terraform (expertise attendue) CI/CD & versionning : GitHub AI / Dev tooling : GitHub Copilot, Claude, agents IA Approche : DevOps, automatisation, platform engineering
Freelance

Mission freelance
Expert Cloud Security & CSPM (Azure / AWS / IAM / DevOps)

Comet
Publiée le
AWS Cloud
Azure
Azure DevOps

140 jours
460-670 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous, notamment aux Experts Cloud Security & CSPM ☁️💛 (Azure / AWS / IAM / DevOps) 🔎 Je cherche un Cloud Security CSPM Expert senior pour rejoindre un programme stratégique de transformation IT et remédiation sécurité. Dans le cadre de ce carve-out IT complexe, l’objectif est de mettre sous contrôle la sécurité des environnements cloud publics multi-cloud, tout en pilotant les remédiations issues d’un audit cybersécurité et en renforçant la posture de sécurité globale. 💻 Ce que tu vas faire : Exploiter et optimiser les outils CSPM (Qualys TotalCloud, Wiz) Analyser les vulnérabilités et mauvaises configurations Cloud Piloter les remédiations avec les équipes Cloud, Infra et DevOps Structurer et améliorer les pratiques de sécurité Cloud (CSPM) Contribuer à l’industrialisation des pratiques de sécurité et à la gouvernance Cloud Prioriser et coordonner les actions critiques en environnement multi-cloud Reporter régulièrement sur les risques, remédiations et niveaux de conformité 🎯 Stack & environnement 💛 : Azure / AWS / OCI (bonus) / Qualys TotalCloud / Wiz / IAM / Sécurité Cloud / Terraform / DevOps / environnements legacy multi-cloud ⚠️ Profil recherché : Senior (expertise 10+ ans) Très hands-on (sécurité opérationnelle, remédiation, coordination) Expérience CSPM et remédiation post-audit cybersécurité Habitué aux environnements complexes multi-cloud et legacy Capacité à travailler en transverse et à gérer la pression des audits 📍 Mission : Lyon OU Paris – 7 mois potentiellement renouvelable 💰 Budget : Jusqu'aux alentours de 650 📅 Démarrage : ASAP Merci de me transmettre vos CVs en MP !
Freelance
CDI

Offre d'emploi
DevSecOps AWS - Transformation

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps AWS pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur AWS et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

179 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous