Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 280 résultats.
CDI

Offre d'emploi
Data Engineer

Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France
Télétravail partiel
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
CDI

Offre d'emploi
Ingénieur réseau Cloud H/F

Publiée le

45k-50k €
Chambéry, Auvergne-Rhône-Alpes
Nous recherchons aujourd'hui à renforcer nos équipes. Vous serez en lien direct avec nos managers et les équipes internes. L'ingénieur cloud réseau conçoit, déploie et administre les infrastructures réseau dans des environnements cloud (public, privé ou hybride).Il garantit la connectivité, la sécurité, la disponibilité et la performance des services hébergés. Au sein de l'équipe réseaux, vos missions principales sont : - Conception d'architecture réseau cloud - Mise en oeuvre et gestion des solutions de sécurité des environnements cloud (Azure, AWS) - Automatisation et industrialisation des actions récurrentes via infrastructure as Code - Collaboration avec les équipes DevOps, sécurité et infrastructure Vous assurez l'excellence opérationnelle dans un cadre ITIL et une dynamique d'amélioration continue : - Assistance et support à l'équipe de production pour les incidents et demandes complexes - Apporter une expertise technique réseau de niveau 3 - Rédaction de documentation technique pour le passage en production des solutions définies - Transfert de compétences aux équipes supports Et si on parlait de vous ? Vous avez au moins 5 ans d'expérience dans un poste opérationnel similaire et justifiez d'une forte expérience réseau dans les environnements cloud Azure et AWS Vous avez une connaissance des outillage DevOps (Git, Gitlab) et des méthodologies associées Vous avez une bonne compréhension des architectures applicatives Vous travaillez dans un environnement anglophone, un solide anglais fonctionnel est nécessaire. Dans le cadre de la mission des interventions planifiées et astreintes en heures non ouvrées sont possibles Environnements techniques : Azure, AWS, Terraform, Ansible, Python, Powershell, IaC, Vhub, Vnet, AppGateway, NSG, VPC, Transit Gateway, Application load balancer, Security Group, ... Aptitudes : - Esprit d'équipe et aisance relationnelle - Rigueur et autonomie - Esprit d'analyse et de synthèse - Dynamisme et réactivité Rémunération attractive selon profil et expérience. Mode Hybride ( télétravail) Pourquoi nous rejoindre : - Opportunités d'évolution : parcours de carrière personnalisé, mobilité interne. - Entreprise à taille humaine, esprit d'équipe et bienveillance : entraide, culture du feedback, management de proximité. - Missions variées et innovantes : projets en lien avec les dernières tendances tech. - Télétravail : home office (flexibilité) - Rémunération attractive : paniers repas 6,30EUR, prime ancienneté, prime de vacances, CE, participation, prime d'ancienneté, prime de cooptation, - Un accélérateur de carrière et formation continue : chez nous, chaque collaborateur bénéficie d'un accompagnement personnalisé pour évoluer. - Une entreprise engagée : nous mettons l'accent sur le bien-être au travail, la diversité, l'inclusion et la responsabilité sociétale (Top 3 performance RSE / Dév.Durable - ECOVADIS, Certification ISO27001), réduction de notre empreinte carbone, partenariats avec des associations). Notre processus de recrutement : en 4 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone : Séverine, Ikram, Marlène ou Denis. 2. Puis, nous aurons le plaisir d'échanger en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! RESEAUX
Freelance

Mission freelance
Support Engineer (Analyste / Technicien d’exploitation confirmé)

Publiée le
Azure
Bash
DevOps

6 mois
100-400 €
Nord, France
Télétravail partiel
🎯 Missions principales Gérer les incidents d’exploitation N1/N2 et assurer la maintenance (systèmes, réseaux, sauvegardes). Réaliser la mise en production et le déploiement d’applications. Gérer les utilisateurs (Active Directory, Gmail). Créer et administrer des serveurs (nouveaux magasins). Suivre les applications et flux applicatifs, détecter et résoudre les incidents ou escalader selon procédures. Contribuer à l’amélioration continue et à l’automatisation des processus. Assurer l’astreinte hebdomadaire (soir et week-end). ✅ Résultats attendus Garantir la disponibilité et la sécurité de l’exploitation. Maintenir les infrastructures informatiques et applicatives en conditions opérationnelles. Produire et mettre à jour la documentation technique. Participer activement à l’amélioration continue (process, supervision, automatisation).
Freelance

Mission freelance
SRE DevOps AWS

Publiée le
API
AWS Cloud
CI/CD

3 ans
500-550 €
Paris, France
Télétravail partiel
Le rôle le plus important du SRE AWS est de maintenir les standards et la qualité de service de l’infrastructure AWS. Grâce à ses excellentes compétences et à son expertise, le SRE peut fournir un leadership et un soutien technique en matière d’architecture, de sécurité, de bases de données, de DevOps, de Bigdata, etc . Vous aurez pour principales missions : Être responsable de la plateforme AWS et participer aux évolutions futures Assurer la stabilité, la fiabilité et la performance des applications Soutenir les développeurs et aider à concevoir conjointement les services applicatifs Développer et maintenir notre pipeline de déploiement et CI/CD Contribuer aux discussions techniques sur l’intégration de nouvelles ressources ou standards Améliorer constamment les processus et communiquer les normes et les bonnes pratiques de notre plateforme AWS Participer à l’évolution des outils transverses Être capable de prendre du recul sur les besoins de l’équipe et de faire le lien avec la gouvernance pour mettre en place des solutions globales plutôt que des solutions spécifiques.
Freelance

Mission freelance
POT8603-Un développeur Python/GO sur Grenoble

Publiée le
Go (langage)

6 mois
280-340 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour m'un de ses client, un Développeur Python/GO sur Grenoble. Missions: Développement de la nouvelle plateforme Cloud pour nos systèmes d'alarme en environnement Kubernetes Développement des microservices en Go, et Python Travailler dans un environnement Kubernetes/Could natif Assurer la robustesse, erf et sécu des services Compétences techniques Go, Python, Kubernetes, Docker CI/CD et bonnes pratiques Devops 3 ans d'expé en dév backend Expérience Cloud Native A déjà un expert et 2 dév Go. Le développeur commencera sur du Python et sera accompagné sur sa montée en compétence sur le GO
Freelance

Mission freelance
DevOps / DevSecOps senior - Fintech

Publiée le
Agile Scrum
AWS Cloud
Cloud

3 mois
400-620 €
Paris, France
Télétravail partiel
Nous recherchons un Freelance DevOps / DevSecOps expérimenté pour rejoindre une équipe technique au sein d’un éditeur SaaS innovant spécialisé dans la finance. Dans ce cadre structuré et exigeant, vous serez en charge de renforcer l’automatisation, la sécurité et la scalabilité des environnements techniques, tout en contribuant activement aux bonnes pratiques DevOps et à l’amélioration continue. Vous évoluerez dans une organisation agile (SCRUM), avec des mises en production régulières toutes les trois semaines et un socle data conséquent, garantissant un environnement stimulant et en constante évolution.
Freelance
CDI

Offre d'emploi
Ingénieur OPS / Ingénierie OPS sénior

Publiée le
Cloud
Méthode Agile

1 an
40k-45k €
400-530 €
Île-de-France, France
Télétravail partiel
Ingénieur OPS / Ingénierie OPS sénior Prestation d'Ingénierie OPS afin de participer à des projets métier en mode équipage. La mission requiert une très forte capacité à maitriser les aspects techniques et en garantissant le respect des exigences de la Production et la bonne exploitabilité des produits mis en œuvre. L'automatisation via les toolchain et les outils XL Release sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative / technique à gérer dans une équipe produit Cloud. HNO et astreinte demandée. Anglais courant. Missions Réalisation les installations sur les différents environnements (Réaliser passage en production (mep, cab ...) Facilité de déploiement des solutions Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : le monitoring des services et Les environnements techniques (Prod et hors Prod) Conduction ou vérification des revues de sécurité de l'équipe Évolution des infras et les outils Remonte les propositions d'amélioration des services de production applicative dans une démarche d'amélioration continue Représentant de la Production dans l'équipe projet (Squad) (TOOLCHAIN - Ansible A/R) Promotion des solutions basées sur les produits et services existants, intégrant par nature les exigences de production et de sécurité (résilience, monitoring, …) afin de réduire le délai de mise en œuvre Définir, piloter et garantir les SLOs (Gestion des problèmes (récurrence incidents) Assemblage des produits et services de production et d'infrastructure au profit des applications, en conseillant sur l'adoption des technologies en ligne avec les besoins applicatifs Support des équipes de développement pour sécuriser et accélérer la livraison des projets Implémentation des user stories techniques Suivi de l'Exploitabilité du Delivery - (PACT, PCR, Exigence de prod, normes et standards) Identification des points de blocage d'exploitation (flux, sécurité, réseau…) puis alerter et proposer des plans d'action Contribution à la définition des niveaux de service et des indicateurs de Production Veille à l'existence et au test d'un plan de bascule en backup (ICP) Définition de l'architecture Technique (SATS/CASA) - Participation aux réunions de définition de l'architecture Contrôl de la traçabilité des accès aux machines (OS, Espace de stockage, routeurs…) et remédier si nécessaire Vérification de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Anticipation des problématiques de conformité aux règles et standards d'architecture, de sécurité, de délais de livraisons et de mise à l'échelle des solutions proposées Veille à l'ajout des exigences d'infrastructures et d'exploitation dans le Product Backlog, ainsi que toute User story technique jugée nécessaire (industrialisation, gestion de l'obsolescence, …) Définition et mettre en place/faire évoluer le Monitoring Mettre en place la surveillance et la supervision de la Solution mise en production Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : Le monitoring des services et Les environnements techniques (Production et hors Production) Mettre en place les consignes (Pilotage applicatif) et AEL Référentiel Documentation & GED Veille de la disponibilité d'une documentation De part son expertise et son rôle il donne son avis : Le manuel utilisateur (fonctionnel) Gestion des incidents – Assistance en cas de blocage ou d'incident sur les versions mises en production La continuité applicative (ICP/Backup Restore/DR) - Restauration des bases de données La guilde technique Compétences techniques attendues (maîtrise) Linux / Windows / Docker / kubernetes / Ansible Pratiques d'automatisation "as code" s'appuyant sur une culture DevOps et Agile Technologies / Langages : Cloud (Docker, Kubernetes), Oracle / MongDB / CFT, Control M, Liberty Core - Websphere / MongoDB, SGBD Oracle Monitoring : Dynatrace OS Linux et Windows, Aix Langages : yaml, python, shell Toolchain et automatisation: Gitlab, Ansible Tower, Ansible Galaxy, Artifactory, Jenkins, Gitlab-CI, XL Release La certification éditeur peut être un critère différenciant.
Freelance

Mission freelance
AWS - GCP - Ingénieur Cloud / DevOps / Terraform

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Terraform

3 ans
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, Pour l’un de mes clients, je recherche un profil pour : Contexte de la mission : Garantir le bon fonctionnement et l’efficacité opérationnelle de nos solutions, et améliorer/automatiser nos processus selon les bonnes pratiques de la Business Unit. Missions : Assurer le fonctionnement de nos solutions de configuration, stockage et backup Améliorer et faire évoluer nos modules Terraform (HCL) et nos providers custom (GoLang) Aider et répondre aux questions des utilisateurs Accompagner les utilisateurs dans la mise en place de stacks Terraform Proposer et mettre en œuvre des solutions pour améliorer les outils existants Objectifs et livrables : Assurer le fonctionnement pendant les semaines de run en respectant les indicateurs de performance (SLO, OLA…) Participer au delivery de l’équipe en respectant les deadlines Participer aux rituels agiles et workshops Compétences demandées : Terraform : expert AWS : avancé GCP : confirmé Cloud computing : confirmé Cloud OPS : confirmé Python : élémentaire Cloud IAM Management : élémentaire Serverless : élémentaire Si vous êtes intéressé et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement.
Freelance

Mission freelance
POT8704 - Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense

Publiée le
AWS Cloud

6 mois
300-460 €
La Défense, Île-de-France
Télétravail partiel
Almatek recherche pour un de ses clients, Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense Contexte : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Profil recherché : DBA / DevOps / AWS Confirmé > à 5 ans d’expérience dans la fonction Expérience confirmée en DBA/administration de bases de données OnPrem. Maîtrise des environnements AWS Data Services (RDS, Aurora, Glue, Redshift). Expérience en optimisation et migration de systèmes de données. Appétence forte pour les environnements DevOps / IaC. Une expérience sur d’autres Cloud (Azure, GCP) est un plus Missions principales : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences techniques recherchées : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift). ? Maîtrise AWS = pré-requis. Azure, GCP = un plus apprécié. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD ? pré-requis. Kubernetes = un plus apprécié. Monitoring : Prometheus, Grafana, ELK = un plus apprécié. Sécurité & conformité : IAM, chiffrement, RGPD, sauvegardes/restaurations. Gestion de schémas BDD : Liquibase (pré-requis). Soft skills clés : Vision transverse : relier la technique aux besoins métier. Communication claire : expliquer simplement les choix techniques. Esprit d’analyse et optimisation : détecter les points de blocage et proposer des solutions efficaces. Autonomie et proactivité : anticiper, être force de proposition. Collaboration : travailler en équipe pluridisciplinaire (Data, BI, IT, Cloud). Curiosité : veille permanente sur les innovations Cloud et Data. Orientation résultat : recherche de valeur ajoutée, pas uniquement de solution technique.
CDI

Offre d'emploi
Analyste Développeur Micro confirmé (H/F) 💼

Publiée le
Apache Maven
C#
Java

27k-50k €
Strasbourg, Grand Est
Télétravail partiel
🙌🔽 Vos missions principales 🔽🙌 💻 Développement & Support 🔸 Fournir des outils performants et intuitifs pour les développeurs afin d’optimiser leur productivité. 🔸 Développer des applications et scripts pour automatiser les processus internes, réduire les tâches répétitives et améliorer l’efficacité opérationnelle. 🔸 Accompagner et apporter un support technique aux équipes de développement métier, en répondant à leurs besoins et en proposant des solutions adaptées. 🔸 Participer à l’analyse des besoins des équipes afin de concevoir des solutions sur-mesure et évolutives. 🔸 Rédiger des documentations techniques et guides utilisateurs pour faciliter l’adoption des outils développés. 🔸 Assurer la maintenance corrective et évolutive des applications existantes. ⚙️ Intégration & Qualité 🔸 Contrôler et valider les librairies externes mises à disposition afin de garantir leur compatibilité et leur sécurité. 🔸 Intégrer la filière Java dans notre cloud privé, en veillant à l’optimisation des performances et à la scalabilité des applications. 🔸 Participer à l’intégration de l’intelligence artificielle dans les outils destinés aux développeurs, en testant et en validant les modèles et fonctionnalités. 🔸 Effectuer des tests de qualité, incluant des tests unitaires, fonctionnels et d’intégration pour assurer la fiabilité des outils. 🔸 Collaborer avec les équipes DevOps pour automatiser les déploiements et les mises à jour des applications. 🔸 Veiller au respect des bonnes pratiques de développement, de sécurité et de documentation technique. 🔸 Contribuer à la veille technologique pour proposer des améliorations continues et l’adoption de nouvelles technologies innovantes.
CDI
Freelance

Offre d'emploi
Développeur Go / MLOps

Publiée le
Docker
Gitlab
Go (langage)

6 mois
40k-45k €
300-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Développeur Go / MLOps pour l'un de nos clients grands comptes dans le secteur bancaire. Contexte de la mission : L’équipe est responsable de la stabilité, de la disponibilité et de l’évolution des briques techniques de la plateforme Sparrow. Elle conçoit également les fondations techniques (back-end, infrastructure, sécurité, CI/CD) essentielles à son fonctionnement. En tant que prestataire Dev Go / MLOps, tes missions seront les suivantes : Maintenance et évolution : Maintenir et faire évoluer des microservices en Go déployés dans Kubernetes (opérateurs, API internes, etc.). Développer des frameworks Python (back-end ou bibliothèques internes pour Data Science). Gérer les pipelines CI/CD GitLab (build, tests, déploiements). Créer et maintenir du code d'infrastructure (Terraform, Helm, Kustomize, etc.). Développer des outils internes DevOps / MLOps (ArgoCD, GitLab runners, Vault, etc.). Assurer la gestion des outils d’observabilité (Prometheus, Grafana, logs, alerting). Industrialisation de projets IA : Accompagner la mise en production de projets IA provenant d’autres équipes. Intégrer les modèles IA dans la plateforme Sparrow Flow et les déployer sur Sparrow Serving. Participer à des POCs pour tester de nouveaux outils ou pratiques Dev/MLOps. Stack technique : Une stack moderne et riche, avec un fort accent sur DevOps / MLOps : Langages : Go (pour les opérateurs Kubernetes, services back-end), Python (frameworks ML), Bash. Infrastructure & Orchestration : Kubernetes, Docker, Helm, Kustomize. CI/CD : GitLab CI, GitOps, BuildKit. Infra as Code : Terraform. Observabilité : Prometheus, Grafana, ELK, Jaeger. Sécurité / IAM : Vault, Keycloak, Sparrow IAM. Outils IA/DS : ArgoWorkflows, ArgoEvents, pyPF.
Freelance
CDI

Offre d'emploi
Devops (AWS et GCP) (expert dynatrace) full remote

Publiée le
Ansible
AWS Cloud
DevOps

1 an
47k-56k €
400-550 €
France
Télétravail 100%
Contexte de la mission Dans le cadre d’un programme stratégique visant à renforcer les capacités d’ observabilité et de monitoring multi-cloud , notre client recherche 3 ingénieurs DevOps seniors disposant d’une expertise confirmée sur Dynatrace et d’une solide expérience sur les environnements AWS et GCP . L’objectif est de concevoir, optimiser et automatiser les plateformes de supervision applicative et d’observabilité dans un environnement Cloud moderne et à grande échelle, intégrant des approches IA / Machine Learning (AIOps) pour la détection et la remédiation proactive des incidents. Rôles et responsabilités principales Concevoir et implémenter des solutions complètes de monitoring et d’observabilité sur AWS et GCP. Administrer et personnaliser les environnements Dynatrace (Logs, APM, Metrics, Grail) . Optimiser la collecte, la visualisation et l’analyse des données de performance applicative (Prometheus, Grafana, OpenTelemetry…). Mettre en place et automatiser les chaînes CI/CD (Jenkins, GitLab CI, ArgoCD). Développer et maintenir des infrastructures via Infrastructure as Code (Terraform, Ansible, Helm) . Participer à l’intégration de briques AIOps basées sur l’analyse des données et le Machine Learning. Assurer la gouvernance, la documentation et la standardisation des bonnes pratiques DevOps. Collaborer étroitement avec les équipes Cloud, Sécurité et Architecture pour garantir la performance et la conformité des systèmes. Compétences techniques requises Dynatrace (Logs, APM, Grail, Dashboards, Alerting) – expertise indispensable AWS et GCP – intégration, supervision et exploitation des services natifs Monitoring / Observabilité : Prometheus, Grafana, OpenTelemetry, SolarWinds IaC / Automatisation : Terraform, Ansible, Helm, GitOps CI/CD : GitLab CI, Jenkins, ArgoCD Langages / Scripting : Python, Bash, YAML DevSecOps : intégration sécurité dans les pipelines (Checkov, Trivy, etc.) AIOps / ML : notions ou expérience d’intégration IA pour la supervision (un plus) Anglais professionnel courant (équipe internationale) Informations pratiques Niveau recherché : Senior (minimum 5–6 ans d’expérience sur Dynatrace / Observabilité) Localisation : Full Remote (rares déplacements possibles à Marseille) Ouverture : Profils basés en France, nearshore ou offshore acceptés Démarrage : ASAP Durée : Mission longue et reconductible Langue de travail : Anglais courant Télétravail : 100 % remote possible
Freelance

Mission freelance
POT8623-Un Data Engineer sur Lille

Publiée le
Python

6 mois
240-360 €
Lille, Hauts-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lille. Missions: Poursuivre / Finaliser le développement d'une infrastructure de gestion de données (collecte, stockage, traitement) sur AWS, incluant la sécurité de l'infrastructure et des données. Services AWS utilisés : S3, Lambda, Glue. Développement Infra as Code avec CDK et Transcript. Stockage des codes sur GitHub Enterprise. Déploiement avec GitHub Action. Maitriser la manipulation de données n'est pas la compétence la plus critique => donc bien maitriser le coté AWS, mais pas forcément sur Data. Data Engineer ou Cloud Engineer, compétences AWS, DevOps, Python
Freelance

Mission freelance
Ingénieur Linux / Kubernetes / CI-CD Senior – Transformation Cloud & Automatisation - ASSURANCE

Publiée le
Administration linux
Ansible
Argo CD

2 ans
400-520 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un vaste projet de transformation Cloud , nous recherchons un Ingénieur Linux confirmé , expert en conteneurs et automatisation CI/CD , pour renforcer une équipe transverse au sein de la Direction de la Production Informatique . Vous interviendrez sur des projets stratégiques à forte visibilité, au cœur de la modernisation des socles techniques et des environnements applicatifs. Vos principales responsabilités : Administrer et maintenir les environnements Linux et Kubernetes (AKS, TKGS) Créer et maintenir des pipelines CI/CD (Jenkins, GitLab, ArgoCD, Vault) Concevoir et gérer des images Docker pour les différents projets Automatiser les déploiements et configurations via Ansible et scripting Diagnostiquer et résoudre les incidents complexes de niveau 3 Participer à la mise en œuvre de solutions cloud et à la stabilisation des environnements Collaborer avec les équipes Etudes, Production et Sécurité dans une démarche DevOps Documenter les solutions techniques et assurer un partage de connaissance au sein de l’équipe Compétences techniques attendues : Linux (expert) Kubernetes, Docker, Helm, Harbor Jenkins, GitLab CI, ArgoCD, Vault Ansible, scripting Shell/Python Azure / AWS (AKS ou équivalent) GitOps, CI/CD, automatisation
Freelance

Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)

Publiée le
Azure Data Factory
Azure DevOps
BI

12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Freelance

Mission freelance
Devops VITROLLES  Kafka connect - Avancé, AWS - Expert, AWS S3 - Avancé, Gitlab CI/CD - Expert

Publiée le
Apache Kafka
AWS Cloud
DevOps

6 mois
400-420 €
Vitrolles, Provence-Alpes-Côte d'Azur
Télétravail partiel
Devops VITROLLES Kafka connect - Avancé, AWS - Expert, AWS S3 - Avancé, Gitlab CI/CD - Expert, Certificat SSL - Avancé, Helm Charts - Avancé, Programmation Python - Avancé Objectifs et livrables L’expertise technique Devops cloud public/privé sur le Datalake (plateforme Big Data) consistera à : • Designer des modèles de CI et CD stratégiques pour permettre des déploiements sur tous les environnements (dev, int, preprod et prod) • Développer les pipelines gitlab de CI et CD pour assurer le build, déploiement et configuration des composants du datalake sur le cloud public AWS et du datalake sur cloud privé • Documenter les modes opératoires associées à ces pipelines • Accompagner et assurer un support niveau 2 aux ROA lors des déploiements sur les différents environnements • Contribuer à l’amélioration continue des outils de déploiement • Communication auprès des utilisateurs finaux Compétences demandées Devops Kafka connect - Avancé AWS - Expert AWS S3 - Avancé Gitlab CI/CD - Expert Certificat SSL - Avancé Helm Charts - Avancé Programmation Python - Avancé
280 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous