Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 715 résultats.
Freelance

Mission freelance
Ingénieur·e DevOps Senior – AWS

Publiée le
AWS Cloud
Cloud
DevOps

1 an
450-550 €
Le Havre, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’infrastructures cloud performantes, automatisées et sécurisées ? Vous souhaitez évoluer dans un environnement moderne où l’amélioration continue et l’excellence opérationnelle sont au cœur des enjeux ? Cette opportunité est faite pour vous ! Nous recherchons un·e Ingénieur·e DevOps senior pour accompagner la structuration et l’industrialisation des plateformes cloud AWS de notre client du secteur industriel. Vos missions Définir, concevoir et optimiser les architectures d’infrastructure sur AWS Mettre en place et faire évoluer les pipelines CI/CD Automatiser le déploiement et la configuration des environnements (IaC) Superviser et améliorer la sécurité, la performance et la disponibilité des plateformes Accompagner les équipes projets sur les bonnes pratiques DevOps Participer au diagnostic et à la résolution d’incidents complexes
Freelance

Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure

Publiée le
Azure
Azure DevOps
DBT

3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Freelance

Mission freelance
Data Engineer Python Azure

Publiée le
Azure
Databricks
PySpark

12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
Freelance

Mission freelance
Cloud Architect AWS senior

Publiée le
AWS Cloud
Kubernetes
Terraform

1 an
400-580 €
Évry, Île-de-France
Télétravail partiel
Dans le cadre de l'accompagnement des feature teams dans leur move to cloud, nous cherchons un profil capable d'apporter du support en expertise sur AWS. Le profil attendu devra à la fois avoir la capacité de délivrer des architectures AWS depuis le design jusqu'au déploiement mais aussi d'accompagner des équipes à prendre en main notre plateforme cloud. Il est attendu un très bon relationnel pour évangéliser notre plateforme interne, favoriser l'adoption des produits standards et recueillir des retours à son utilisation pour améliorer notre offre de service. Compétences techniques attendues : •Architecture AWS •Développement Terraform •Devops •Connaissances générales infrastructures et opérations Les livrables : • Code terraform • Dossier architecture technique Compétences techniques : • Terraform - Expert - Impératif • Cloud AWS - Expert - Impératif • Devops - Confirmé - Impératif • Kubernetes - Confirmé - Impératif Connaissances linguistiques : • Anglais Courant (Impératif) Soft skills : •Proactivité •Coaching •Chefferie de projet •Posture positive et d'écoute •Anglais impératif Le poste est situé à Evry mais pourrait nécessiter des déplacements à Issy les moulineaux. Le rythme de présence sur site est de 2 jours (mardi et jeudi).
CDI

Offre d'emploi
Développeur .NET / Azure Junior

Publiée le
.NET CORE
Azure

Île-de-France, France
Télétravail partiel
Rattaché(e) à l’équipe de développement, vous participerez à la conception, au développement et à la maintenance d’applications et de services cloud basés sur la plateforme Microsoft Azure et les technologies .NET . Vos principales missions seront : Concevoir, développer et tester des applications en .NET Participer à l’intégration continue et au déploiement sur Microsoft Azure (App Services, Functions, Storage, etc.) Collaborer avec les équipes produit, QA et DevOps pour assurer la qualité et la fiabilité des livrables Participer à la rédaction de la documentation technique et fonctionnelle Assurer la maintenance évolutive et corrective des applications existantes
Freelance

Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline

Publiée le
Azure DevOps
Git
Helm

1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Freelance
CDI

Offre d'emploi
Administrateur Windows / Azure / Support / Powershell/ AD

Publiée le
Azure
Azure Active Directory

12 mois
40k-58k €
400-540 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
En tant que IT Support Specialist, vous êtes le gardien de nos solutions Au cœur d’un environnement technique complet Azure / Cloud , le Spécialiste Support Informatique joue un rôle clé dans la qualité de nos services et la performance de notre plateforme. Le profil idéal ? Une personne curieuse, proactive et en veille constante , attirée par un environnement Agile , et passionnée par plusieurs domaines de l’IT comme la Data et la Cybersécurité . Vos missions 🧩 Customer support Assurer le support de niveau 1 et 2 : communication, qualification, résolution et reporting. Déployer notre solution auprès des clients et assurer leur accompagnement puis leur assistance (appels, e-mails). Gérer les installations et la maintenance client : contrôle qualité des données, normalisation et correction quotidienne des anomalies. Identifier les ressources nécessaires à la résolution des problèmes, guider les utilisateurs ou prendre la main à distance si besoin. Mettre à jour la documentation de support et partager les informations pertinentes avec les équipes concernées. ⚙️ Technical support Participer à la gestion du parc matériel et des inventaires. Administrer le domaine Active Directory et les ressources partagées. Contribuer à la maintenance et à la supervision de la plateforme Azure . Diagnostiquer et résoudre à distance les incidents matériels et logiciels. Changer ou réparer les composants défectueux. Exécuter les scénarios de test et valider les correctifs. Déployer, administrer et maintenir l’infrastructure IT. Accompagner les collaborateurs sur la cybersécurité et les outils internes (formations, assistance, sensibilisation). Vérifier quotidiennement les sauvegardes et la bonne santé des serveurs et équipements réseau. Surveiller les systèmes, réseaux et logs de sécurité, et réagir en cas d’alerte. Soutenir la cellule cybersécurité via la remontée et la vérification des alertes quotidiennes.
CDI

Offre d'emploi
Data Engineer Talend - DAX

Publiée le
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Freelance

Mission freelance
Data Platform Enablement Engineer

Publiée le
AWS Cloud
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Platform Enablement Engineer" pour un client dans le secteur Bancaire Description 🏢 Le Contexte : La Tech au service de la Recherche Votre mission est au cœur de notre réacteur technologique. Vous ne construisez pas seulement des outils ; vous donnez le pouvoir à notre communauté de plus de 50 Data Engineers et Data Scientists. En tant que trait d’union entre les équipes "Platform" et les équipes "Métier", vous garantissez que notre plateforme Data est non seulement adoptée, mais qu'elle évolue selon les besoins réels du terrain. 🎯 Vos Missions : Support, Évangélisation et Transmission Votre rôle est pivot : vous êtes à la fois un expert technique "hands-on" et un ambassadeur de la culture Data. 1. Support Technique & Tooling (Expertise Opérationnelle) : Accompagner quotidiennement les Data Engineers/Scientists sur leurs défis techniques complexes. Identifier et gérer la dette technique par des plans d’actions concrets. Développer l'outillage nécessaire pour faciliter la vie des utilisateurs (automatisation, agents IA, frameworks de tests). Collaborer avec les équipes d'infrastructure pour résoudre les incidents de pipelines et améliorer l'expérience développeur (DevEx). 2. Évangélisation & Animation de Communauté : Promouvoir l’adoption de la plateforme par l'exemple et l'usage quotidien. Partager les tendances du marché et les nouveaux outils pertinents auprès des équipes internes. Animer une Communauté de Pratique : organiser des webinaires, des ateliers et des retours d'expérience. 3. Montée en Compétences (Upskilling) : Évaluer le niveau des équipes et concevoir des parcours de formation (exercices, cas réels). Créer du contenu technique de haute qualité : tutoriels, documentation, projets modèles et articles de blog interne. 4. Feedback Loop & Stratégie Produit : Recueillir les retours des utilisateurs pour influencer la roadmap de la Platform Engineering . Être l'avocat des Data Scientists et Engineers au sein de l'organisation pour s'assurer que leurs besoins sont compris et adressés.
Freelance

Mission freelance
Data Engineer Azure / Snowflake

Publiée le
Azure
Databricks
Snowflake

12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
Freelance

Mission freelance
Consultant technique Dynamics 365 CRM

Publiée le
API
API REST
Azure

1 an
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Consultant Technique Dynamics 365 CRM pour renforcer une équipe en charge du développement, de la customisation et de l’intégration de solutions CRM au sein d’un environnement Microsoft moderne. Le candidat interviendra sur la conception, le développement, l’optimisation et le support technique autour de Dynamics 365. Missions : Développer et personnaliser Dynamics 365 (plugins, workflows, scripts, entités…). Concevoir et intégrer des solutions techniques basées sur l’écosystème Microsoft. Participer aux ateliers techniques, analyser les besoins et proposer des solutions adaptées. Intégrer le CRM avec des systèmes tiers (API, web services…). Assurer le support technique, la résolution d’incidents et l’optimisation des performances. Rédiger la documentation technique et contribuer aux bonnes pratiques.
Freelance

Mission freelance
Expert BDD AWS

Publiée le
AWS Cloud
AWS Cloudwatch
DevOps

6 mois
500-600 €
Réau, Île-de-France
Télétravail partiel
Pour un de nos clients, nous sommes à la recherche d'un Expert BDD AWS habilitable (H/F). Anglais professionnel. Lieu : Villaroche Date : ASAP Durée : Longue mission Mission : Deux volets complémentaires animeront la mission. Une première est de participer aux activités d’exploitation et d’accompagner l’équipe dans la mise en place de ses outils d’exploitations sur le Cloud, la seconde est l’accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases : A. Activités d’exploitation / administration et outillage associé Le collaborateur sera mis en contact avec les équipes du programme Move to Cloud en cours afin de pouvoir comprendre le modèle prévu, et devra être force de proposition sur les sujets entourant l’exploitation des Bases de Données sur AWS. Il proposera des solutions d’exploitation, d’automatisation des tâches d’exploitation, et participera à l’acculturation autour des sujets des Bases de Données sur AWS en partageant ses connaissances sur les outils mis en place durant la prestation. Le collaborateur assurera les activités de supervision, d’exploitation et d’administration, des bases de données sur AWS en IaaS ou en PaaS (RDS, Aurora, DynamoDB, Redshift…). Le collaborateur automatisera les tâches d’exploitation via des outils comme Terraform ou AWS Systems Manager ou via des pipelines CI/CD. Le collaborateur devra maintenir la documentation technique et les référentiels à jour, il participera également et participer à la veille technologique sur les outils ou processus d’exploitation des bases de données Cloud. Le collaborateur interviendra dans la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) B. Accompagnement des équipes de migration et des équipes applicatives à la mise en place et à l’optimisation des bases de données Le collaborateur participera à la conception d’architectures cloud résilientes et performantes pour les bases de données. Pour cela, il collaborera avec les équipes projet pour la mise en place de nouvelles bases ou l’évolution d’architectures existantes. Le collaborateur effectuera des migrations de bases de données vers le cloud (on-prem → AWS), avec un focus sur la continuité de service. Il étudiera et proposera des mécanismes et des trajectoires de migrations adaptées en fonction des moteurs de bases de données source et de la stratégie de migration en retenue (lift & shift / IaaS, rehost & rebuild / PaaS). • Expert base de données AWS (4 ans d’expérience minimum sur le Cloud AWS) : maîtrise des services AWS liés aux bases de données (RDS, Aurora, DynamoDB, Redshift), optimisation des performances, haute disponibilité, sécurité et conformité. • Excellente connaissance des principaux SGBD du cloud : MySQL, PostgreSQL, SQL Server, Oracle, NoSQL (DynamoDB) et des outils d’administration associés • Compétences relatives à la sécurisation des données : l'intégrité et la conformité des données sur AWS (gestion des accès, audits, chiffrement, alignement RGPD) • Expérience en migration de bases vers AWS, gestion multi-environnements (dev/test/prod), automatisation via Infrastructure as Code (IaC) avec Terraform. • Maîtrise de l’écosystème AWS (EC2, S3, IAM, Lambda, …) et bonne culture cloud public. • Compétences en architecture cloud : capacité à concevoir des architectures scalables, résilientes et sécurisées dans AWS, intégration avec les services applicatifs et analytiques. • Compétences DevOps & monitoring : mise en place de pipelines CI/CD pour les bases de données, supervision via CloudWatch, gestion des incidents et des alertes. • Compétences transverses : anglais courant, capacité à vulgariser les enjeux techniques auprès des métiers, rédaction de documentation claire et structurée. • Capacité d’adaptation et bon relationnel pour le travail en équipe et l’accompagnement des utilisateurs. • Certifications AWS (ex : AWS Certified Database – Specialty, Solutions Architect) appréciées. Livrables : • Audit des bases existantes (on-premise et cloud), cartographie des flux et dépendances. • Plan de migration des bases de données vers AWS (stratégie lift & shift, refactoring ou replatforming), avec analyse d’impacts, analyse des risques et plan de remédiation. • Architecture de bases de données cible documentée (diagrammes, choix techniques, justification), incluant les services AWS utilisés et les configurations recommandées. • Scripts d’automatisation pour le déploiement et l’exploitation des bases (Terraform/CloudFormation, Ansible ou autre), avec documentation associée. • Mise en place de tableaux de bord de performance et d’alerting (CloudWatch, Grafana), avec seuils et indicateurs métiers. • Plan de sauvegarde/restauration des bases de données, stratégie de haute disponibilité et reprise après sinistre (multi-AZ, snapshots, read replicas). • Normes et standards : Guides de bonnes pratiques, normes qualité, chartes d’optimisation des performances et de sécurisation des données • Analyse des performances et recommandations d’optimisation des bases de données
Freelance

Mission freelance
Ingénieur Réseaux & Sécurité – Run / MCO (N2/N3)

Publiée le
AWS Cloud
Azure
Centreon

6 mois
Bois-Colombes, Île-de-France
Télétravail partiel
• Assurer le maintien en condition opérationnelle d’un réseau international Lan, Wlan, Wan, SD-Wan, Datacenters (Mise à jour, traitements des incidents et des demandes) de plus d’une centaine de sites et des différents composants logiciel et matériel associés. • Assurer le maintien en condition opérationnelle de solutions de sécurité : proxy filtrant, accès distant, firewall & IPS, répartiteur de charge, contrôle d’accès réseau... • Assurer le maintien en condition opérationnelle d’un environnement de téléphonie comprenant des SBCs, des SIP TRUNKs multi opérateurs, du Ms/Teams phone et du Genesys cloud • Participer aux extensions et évolutions de ces périmètres (changements unitaires, projets de refonte). • Traiter les demandes de support de niveau 2/3 et les appels aux fournisseurs internationaux • Travail en équipe TECHNOS : o Centreon o Technologies de téléphonie MS TEAMS phone et les SBC Audiocode o Technologies Cloud (AWS, Azure, OCI) o Proxy skyhigh o IPAM efficientIP/DNS/DHCP o Gestion de certificats privés et publics ASTREINTE ET HNO : toutes les 5 semaines
Freelance

Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform

Publiée le
AWS Cloud
DevOps
Linux

12 mois
600-650 €
Paris, France
Télétravail partiel
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Freelance

Mission freelance
Tech Lead Fullstack

Publiée le
Azure

12 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Missions principales Piloter techniquement la réalisation des applications front et back (Java/Spring Boot + Angular) Concevoir et faire évoluer l’architecture applicative en cohérence avec les standards du client Encadrer et accompagner les développeurs (revue de code, bonnes pratiques, mentoring) Garantir la qualité du code, la performance et la maintenabilité des solutions Mettre en place et optimiser les pipelines CI/CD sous Gitlab CI Contribuer à la mise en production et à l’industrialisation des déploiements sur Azure et Kubernetes Participer aux phases de conception, estimation de charge et choix techniques avec les équipes projet Assurer une veille technologique et proposer des améliorations continues (outillage, pratiques, sécurité) Stack technique Back-end : Java Spring Boot Front-end : Angular DevOps / CI-CD : Gitlab CI Cloud / Infra : Azure Kubernetes Profil recherché Expérience significative en développement Fullstack Java / Angular Expérience confirmée en tant que Tech Lead ou Référent technique sur des projets similaires Maîtrise de Gitlab CI et des pratiques d’intégration et de déploiement continus Très bonne connaissance des environnements Azure et Kubernetes Capacité à challenger les choix techniques, à sécuriser les décisions et à vulgariser auprès des équipes Bon niveau de communication, capacité à travailler en équipe dans un contexte multi-interlocuteurs Livrables principaux Applications fullstack livrées et maintenues selon les standards de qualité du client Architecture technique et documentation associée Pipelines CI/CD opérationnels et industrialisés Accompagnement des équipes de développement sur les bonnes pratiques
CDI

Offre d'emploi
Data Engineer AWS

Publiée le
Amazon S3
AWS Cloud
AWS Glue

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
1715 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous