Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 180 résultats.
Freelance

Mission freelance
Développeur Python devops AWS ANGLAIS 490 e

BI SOLUTIONS
Publiée le
DevOps
Python

3 ans
400-490 €
Île-de-France, France
Développeur Python devops AWS ANGLAIS 490 e Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA 490 e
Freelance

Mission freelance
101056/Lead Backend JavaScript,Node.js,PostgreSQL, Terraform,React,Data Analysis,AWS Amazon

WorldWide People
Publiée le
Javascript
Node.js

9 mois
400-410 €
Bezons, Île-de-France
Lead Backend JavaScript,Node.js,PostgreSQL,Play Framework,HashiCorp Terraform,React,Data Analysis,AWS Amazon. capable de structurer, accélérer et sécuriser le développement de notre plateforme Saas, tout en accompagnant l’équipe dans la montée en maturité technique. Ce rôle combine expertise JS/React, maîtrise backend Node/Postgres, forte expérience AWS, et leadership technique opérationnel. QUALIFICATIONS : JavaScript,Node.js,PostgreSQL,Play Framework,HashiCorp Terraform,React,Data Analysis,AWS Amazon,
Freelance

Mission freelance
101056/Lead Backend JavaScript,Node.js,PostgreSQL, Terraform,React,Data Analysis,AWS Amazon

WorldWide People
Publiée le
Javascript
Node.js

9 mois
400-410 €
Bezons, Île-de-France
Lead Backend JavaScript,Node.js,PostgreSQL,Play Framework,HashiCorp Terraform,React,Data Analysis,AWS Amazon capable de structurer, accélérer et sécuriser le développement de notre plateforme Saas, tout en accompagnant l’équipe dans la montée en maturité technique. Ce rôle combine expertise JS/React, maîtrise backend Node/Postgres, forte expérience AWS, et leadership technique opérationnel. QUALIFICATIONS : JavaScript,Node.js,PostgreSQL,Play Framework,HashiCorp Terraform,React,Data Analysis,AWS Amazon,
Freelance

Mission freelance
Chef de projet Infra Cloud - Nationalité Européenne requise

Intuition IT Solutions Ltd.
Publiée le
AWS Cloud
Azure
Azure DevOps

9 mois
550-630 €
France
Les objectifs de la mission sont les suivants : · Leader de l'intégration de nouvelles applications dans HashiCorp Vault en utilisant des méthodologies Infrastructure as Code et Configuration as Code, avec une expérience avérée dans la gestion de déploiements à grande échelle dans des environnements hétérogènes. · Développement d'une documentation précise, complète et opérationnellement prête pour HashiCorp Vault. · Organiser des sessions de formation structurées aux équipes concernées afin d'assurer une utilisation correcte et efficace de Vault. · Concevoir et mettre en œuvre de nouvelles fonctionnalités, améliorations et améliorations architecturales au sein de HashiCorp Vault, tout en coordonnant à grande échelle avec de multiples parties prenantes et équipes techniques. · Planification, orchestration et validation des tests de reprise après sinistre (DR), définition des scénarios, critères de réussite et préparation inter-équipes. · Garantir l'excellence opérationnelle continue de la plateforme Vault, incluant la maintenance proactive, l'optimisation des performances, la gestion du cycle de vie et la réduction des risques.
Freelance

Mission freelance
un Senior Agile Java Developer – Cloud Migration (AWS / OVH)

Keypeople Consulting
Publiée le
API REST
AWS Cloud
Bash

6 mois
400-550 €
Paris, France
Dans le cadre d’un programme stratégique de migration vers le cloud , nous recherchons un Développeur Java Senior pour accompagner la modernisation d’applications critiques vers des environnements AWS et OVH Cloud . Vous interviendrez au sein d’une feature team Agile sur des projets de transformation visant à migrer des applications existantes vers des architectures cloud-native et microservices . Vos missions · Participer à la migration d’applications Java/Spring vers le cloud (AWS / OVH) · Refactoriser et adapter les applications vers des architectures microservices · Concevoir et développer des services backend Java avec l’écosystème Spring · Contribuer à la mise en place et à l’amélioration des pipelines CI/CD · Automatiser les déploiements via Infrastructure as Code (Terraform / Ansible) · Garantir la performance, la résilience et la sécurité des applications · Collaborer étroitement avec les équipes DevOps, Cloud, Architecture et Sécurité · Participer aux cérémonies Agile (Scrum, refinement, rétrospectives) 🛠 Compétences recherchées · Java / Spring Boot / Spring Data / Spring Security · API REST et architectures microservices · Linux & scripting (Bash / ksh) · CI/CD (GitLab) · Infrastructure as Code : Terraform / Ansible · AWS (obligatoire) – compute, networking, IAM, monitoring · Connaissance DevSecOps et bonnes pratiques de sécurité ⭐ Un plus · Expérience avec OVH Cloud · Expérience dans les projets de migration vers le cloud · Connaissance des environnements financiers ou fortement réglementés 📍 Profil recherché · Senior plus de 10 ans d’expérience) · Forte expérience Java backend + Cloud · À l’aise dans les environnements Agile et DevOps
CDI
Freelance

Offre d'emploi
Data Engineer/Architecte

OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT

3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
CDI

Offre d'emploi
SRE - Site Reliability Engineer Linux / AWS [Full Remote possible]

Recrut Info
Publiée le
Administration linux
AWS Cloud
Linux

42k-53k €
Lyon, Auvergne-Rhône-Alpes
Rattaché·e au Responsable infrastructure, au sein de l’équipe SRE, vous jouerez un rôle clé dans la gestion et l’évolution de notre infrastructure, composée de serveurs bare metal et de ressources cloud. Votre mission sera d’assurer la fiabilité, la performance et la sécurité de nos environnements de production, tout en veillant à leur amélioration continue. Concrètement, vous prendrez en charge l’exploitation quotidienne des serveurs, en garantissant leur disponibilité et leur bon fonctionnement. Vous assurerez une surveillance constante de l’infrastructure afin de détecter tout incident, d’en analyser les causes et d’y apporter des solutions durables. Vous serez également responsable des mises à jour systèmes et applicatives, en veillant à respecter les meilleures pratiques ainsi que les exigences de conformité liées à notre certification. Une part essentielle de votre rôle consistera à automatiser les opérations récurrentes afin de fluidifier les processus internes et d’augmenter l’efficacité globale de l’équipe. Vous collaborerez étroitement avec les équipes de développement et de QA, en leur fournissant les environnements nécessaires ( serveurs, clusters Kubernetes, bases de données) pour garantir un cycle de vie logiciel fiable et performant. Enfin, vous participerez activement à la conception et à la mise en place de nouvelles solutions techniques visant à optimiser l’évolutivité et la sécurité de notre plateforme. Environnement technique : Linux (requis), AWS (souhaité), Docker (requis), Kubernetes (souhaité), Ansible (souhaité), Terraform (souhaité), Python, Bash (requis), MySQL (souhaité), PostgreSQL (souhaité)
Freelance

Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour

BI SOLUTIONS
Publiée le
API Platform
AWS Cloud

2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Freelance

Mission freelance
AWS Platform Engineer

Codezys
Publiée le
AWS CloudFormation
Github
Kubernetes

3 mois
400-450 €
Paris, France
Dans le cadre de cet appel d'offres, nous vous proposons une description précise des rôles et responsabilités attendus pour le poste au sein de notre squad Data and Analytics Platform . Cette équipe est dédiée à la gestion et au développement de notre infrastructure data, en assurant la conformité, la sécurité et l'efficacité des solutions déployées. Rôles et responsabilités : Développement, mise à jour et maintenance du code infrastructure : Vous serez en charge de concevoir, mettre à jour et maintenir le code Terraform nécessaire pour nos environnements Azure et/ou AWS, en veillant au respect strict des règles de sécurité internes de TotalEnergies ainsi que des meilleures pratiques du secteur. Enrichissement de la documentation : Vous assurerez la mise à jour régulière de la documentation technique à destination des utilisateurs, afin de garantir une compréhension claire des outils et des processus mis en place. Conception et maintenance de chaînes de déploiement automatisé (CI/CD) : Vous participerez à la conception, à la mise en œuvre et à la maintenance des pipelines CI/CD automatisés, favorisant une livraison rapide et fiable des solutions data. Profil recherché : De formation Bac+5 en informatique ou diplôme équivalent. Vous êtes sensibilisé(e) aux principes de gouvernance, de sécurité et de réglementation relatives aux données et à leur exploitation. Ce poste requiert une expertise technique approfondie, une capacité à travailler en équipe sur des projets complexes, ainsi qu'une attitude proactive pour garantir la conformité et la performance des solutions déployées.
Freelance

Mission freelance
Devsecops - Belgique

EMGS GROUP
Publiée le
DevSecOps
Docker
IAM

1 an
500-650 €
Liège, Belgique
Nous recherchons un expert DevSecOps / Platform Engineering avec plus de 10 ans d’expérience , spécialisé dans la conception et l’optimisation de plateformes cloud sécurisées. Vous intervenez sur l’amélioration des environnements de développement, l’automatisation des déploiements (CI/CD), la sécurisation des systèmes et l’optimisation des coûts cloud, tout en accompagnant les équipes dans l’adoption des bonnes pratiques DevOps. Compétences clés DevSecOps & Sécurité : sécurisation des pipelines, gestion des accès, analyse des vulnérabilités, conformité CI/CD & Conteneurs : pipelines automatisés, Docker, Kubernetes Cloud (AWS) : architecture, multi-comptes, optimisation des coûts (FinOps) Infrastructure as Code : Terraform, Ansible ou CloudFormation Réseaux & sécurité cloud : IAM, KMS, WAF, VPN, DNS, authentification (SAML, OIDC, RBAC…) Observabilité & monitoring : CloudWatch, logging, dashboards Plateforme interne (IDP) : amélioration de l’expérience développeur
Freelance

Mission freelance
Applied Scientist (IA)

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
Freelance

Mission freelance
Expert Observabilité Datadog

Comet
Publiée le
AWS Cloud
Datadog
Grafana

12 mois
400-550 €
Île-de-France, France
Compétences techniques : Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
CDI
Freelance

Offre d'emploi
Ingénieur devOps (H/F)

Aleysia
Publiée le
Ansible
AWS Cloud
Azure

12 mois
Grenoble, Auvergne-Rhône-Alpes
Les bonnes pratiques DevOps n’ont plus de secret pour toi et tu souhaites mettre à profit ton expertise dans des projets innovants ? C’est sans doute toi qu’on attend pour compléter notre équipe en intégrant ce poste d’ Ingénieur DevOps ! 🚀 Ton challenge si tu l’acceptes : Accompagner les équipes de développement et d'infrastructure dans l'implémentation des pratiques DevOps Concevoir et maintenir les pipelines CI/CD Automatiser le déploiement et certaines procédures afin d'optimiser la gestion des infrastructures Assurer le bon fonctionnement, la disponibilité ainsi que la sécurité des systèmes et des applications Contribuer aux décisions d'architecture et faire preuve d'une expertise auprès de nos clients Gérer les incidents et problèmes liés aux environnements de production
Freelance

Mission freelance
Data Architecte AWS / Iceberg

ARGANA CONSULTING CORP LLP
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
CDI

Offre d'emploi
CDI - SRE AWS (H/F)

BLOOMAYS
Publiée le
AWS Cloud
CI/CD
Site Reliability Engineering (SRE)

60k-85k €
Paris, France
Environnement Cloud & Production Critique Contexte : Au sein d’une organisation internationale disposant d’un écosystème digital à forte exposition, vous rejoignez l’équipe Infrastructure. Votre rôle est central dans la garantie de la fiabilité, de la performance et de la disponibilité des services numériques en production. Vous travaillez en étroite collaboration avec les équipes de développement afin de concevoir, déployer et maintenir des systèmes répondant à des standards élevés de qualité, sécurité et résilience. Missions principales : 1. Pilotage de l’infrastructure au sein des feature teams Intégré à une ou plusieurs équipes produit, vous êtes responsable du backlog infrastructure associé. À ce titre, vous : Gérez les sujets d’infrastructure dans les backlogs produits Collaborez avec les Product Owners et Tech Leads pour définir la stratégie technique locale Participez aux rituels agiles des équipes Consolidez et pilotez la capacité de traitement des sujets infra Priorisez les demandes de Build en fonction des enjeux business et techniques 2. Build & Infrastructure as Code Concevoir et déployer l’infrastructure nécessaire aux applications (serveurs, bases de données, réseau, etc.) Garantir la qualité, la stabilité et la sécurité des environnements déployés Mettre en œuvre et maintenir l’Infrastructure as Code Valider les Merge Requests liées à l’infrastructure Adapter la répartition des sujets en fonction de la maturité technique des équipes Encourager le partage de connaissances (pair programming, mentoring) 3. Observabilité & Performance Concevoir et maintenir les systèmes de monitoring et d’alerting Contribuer aux tests de performance Améliorer la fiabilité, la disponibilité et la scalabilité des services Planifier et optimiser la capacité des infrastructures 4. Incident Management & Production Gérer les incidents en environnement de production critique Participer aux analyses post-mortem et à l’amélioration continue Mettre en place des plans de reprise d’activité (Disaster Recovery) Garantir la conformité aux standards de sécurité 5. Automatisation & Optimisation Automatiser les tâches répétitives Optimiser les coûts cloud et l’utilisation des ressources Maintenir une documentation claire et à jour Accompagner et former les développeurs sur les bonnes pratiques SRE Environnement technique Cloud & Containers AWS, Kubernetes, Docker Infrastructure as Code & Automation Terraform, Helm, Kustomize, Ansible CI/CD & GitOps GitLab CI, Jenkins, ArgoCD Observabilité Prometheus, Grafana, Loki, Tempo Data & Messaging PostgreSQL, MySQL, MongoDB Kafka / systèmes de messaging Sécurité Vault, gestion d’identité (OIDC / SSO)
Freelance
CDI
CDD

Offre d'emploi
Expert DevOps

bdevit
Publiée le
Ansible
AWS Cloud
CI/CD

36 mois
Île-de-France, France
Contexte : Dans le cadre des activités d’industrialisation et d’automatisation des plateformes IT d'une banque de renom, l’Expert DevOps interviendra au sein des équipes de production et d’ingénierie afin de garantir la fiabilité, la scalabilité et la sécurité des chaînes de déploiement applicatif dans des environnements critiques bancaires. Missions Pincipales : Concevoir, mettre en œuvre et maintenir les pipelines CI/CD pour l’industrialisation des déploiements applicatifs ; Automatiser les processus de build, test et release dans une logique GitOps ; Déployer et administrer des environnements conteneurisés sous Kubernetes ; Gérer l’infrastructure as code via Terraform et/ou Ansible ; Intégrer et administrer des solutions APIM (idéalement Kong ) ; Superviser les plateformes via des outils de monitoring (Dynatrace, Prometheus, etc.) ; Garantir la haute disponibilité et la résilience des applications en production ; Participer aux activités de MCO et à la gestion des incidents de niveau 2/3 ; Assurer la sécurité des déploiements (gestion des secrets, conformité, etc.) ; Collaborer étroitement avec les équipes développement, sécurité et production.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

180 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous