Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 650 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur Big Data DevOps

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache NiFi

3 ans
Île-de-France, France

Attentes principales du client RUN & Support avancé Assurer le MCO (Maintien en Condition Opérationnelle) des plateformes Big Data. Résoudre les incidents N2/N3 et analyser les root causes pour fiabiliser la production. Accompagnement et relation client Être capable d’ expliquer et de guider les utilisateurs dans l’usage des plateformes. Jouer un rôle de référent technique sur NiFi / Kafka / ingestion de données. Build & industrialisation Concevoir et automatiser les offres d’ingestion de données. Participer aux déploiements NiFi , à l’ industrialisation des flux , et à la mise en place de CI/CD. Administration & Sécurisation Gérer et sécuriser les clusters Big Data et les environnements applicatifs (on-prem et cloud). Gérer le cycle de vie des technologies : upgrades, patchs, migrations. Contribution aux projets Travailler dans un cadre Agile (Scrum/Kanban) . Développer (Java/Spring, React, CSS/JS) et intégrer les solutions nécessaires. Apporter une veille technologique et être force de proposition pour améliorer les plateformes. Compétences clés recherchées Big Data : Apache NiFi (le plus attendu), Kafka, HDFS, Hive, Hue, IBM COS, Oracle DB. CI/CD & automatisation : Ansible, GitLab CI, ArgoCD, Vault. Systèmes & infra : Linux RHEL, Kubernetes, OpenShift, environnements stateful. Dev : Java (Spring Boot / Security), React, CSS3, JS, frameworks UI (Ant Design, Bootstrap, Material). Méthodes : Scrum, Kanban.

Freelance
CDI

Offre d'emploi
Consultant Azure DevOps

KLETA
Publiée le
Azure
DevOps

3 ans
Paris, France

En tant que Consultant Azure DevOps, vous jouerez un rôle clé dans la mise en œuvre, la gestion et l'optimisation des pipelines de livraison continue, ainsi que dans la gestion de l'infrastructure cloud basée sur Azure. Vous serez un acteur central dans la transformation digitale des processus de développement et participerez à la modernisation des pratiques DevOps au sein de l’organisation. Concevoir, déployer et gérer des pipelines CI/CD sur Azure DevOps. Automatiser les processus de déploiement et les workflows. Superviser l’intégration continue, les tests automatisés et la livraison continue. Gérer et optimiser l’infrastructure cloud Azure pour garantir la disponibilité, la sécurité et la scalabilité des applications. Collaborer étroitement avec les équipes de développement, d'infrastructure et de sécurité. Assurer la gouvernance et le respect des bonnes pratiques DevOps. Surveiller les performances et résoudre les problèmes liés aux pipelines, aux environnements de développement et à l'infrastructure cloud. Accompagner les équipes dans l’adoption des outils et des méthodologies DevOps.

Freelance
CDI

Offre d'emploi
DevOps AWS

KLETA
Publiée le
AWS Cloud
DevOps

3 ans
Paris, France

Missions principales Concevoir, déployer et maintenir les infrastructures AWS (EC2, S3, RDS, Lambda, VPC, etc.). Mettre en place et gérer les pipelines CI/CD (GitHub Actions, Jenkins, GitLab CI, etc.). Automatiser le déploiement et la gestion des ressources via Infrastructure as Code (Terraform, CloudFormation, Ansible). Assurer la monitoring, le logging et l’alerte pour garantir la disponibilité et la performance des systèmes. Implémenter les meilleures pratiques de sécurité AWS (IAM, KMS, Security Groups, compliance). Collaborer avec les équipes de développement pour optimiser les processus de déploiement et l’architecture cloud. Participer à la résolution d’incidents , à la gestion des changements et à l’amélioration continue.

CDI
Freelance

Offre d'emploi
Ingénieur DevOps (H/F) (38)

Aleysia
Publiée le
CI/CD
DevOps
Gitlab

1 an
Grenoble, Auvergne-Rhône-Alpes

🔎 Les bonnes pratiques DevOps n’ont plus de secret pour toi et tu souhaites mettre à profit ton expertise dans des projets innovants ? C’est sans doute toi qu’on attend pour compléter notre équipe en intégrant ce poste d’Ingénieur DevOps ! ⬇️ 🚀 Ton challenge si tu l’acceptes : Accompagner les équipes de développement et d'infrastructure dans l'implémentation des pratiques DevOps Concevoir et maintenir les pipelines CI/CD Automatiser le déploiement et certaines procédures afin d'optimiser la gestion des infrastructures Assurer le bon fonctionnement, la disponibilité ainsi que la sécurité des systèmes et des applications Contribuer aux décisions d'architecture et faire preuve d'une expertise auprès de nos clients Gérer les incidents et problèmes liés aux environnements de production Participer aux projets de migration sur le Cloud

Freelance

Mission freelance
Analytics Engineer - Microsoft Azure (H/F)

Atlas Connect
Publiée le
Azure
Databricks
DAX

12 mois
500-620 €
Île-de-France, France

Contexte : Notre client, acteur majeur du secteur de l’énergie (spécialisation dans les énergies renouvelables), recherche un Analytics Engineer capable de piloter l’ensemble de la chaîne d’intégration et de valorisation de la donnée, de la collecte à la visualisation. Le poste s’inscrit dans un environnement moderne orienté technologies Microsoft (Azure, Fabric, Power BI) avec une forte proximité métier. Mission principale : - Conception et mise en œuvre de la chaîne d’intégration de données de bout en bout, depuis la collecte des sources jusqu’à la restitution. - Développement et maintenance des pipelines de données sur un environnement Microsoft Fabric / Azure (ou équivalents tels que Databricks, Synapse, Data Factory...). - Modélisation des données : conception de modèles logiques et physiques adaptés aux besoins métiers. - Analyse et valorisation des données : réalisation de dashboards et de rapports interactifs sous Power BI. - Collaboration étroite avec les équipes métiers pour comprendre, formaliser et traduire les besoins fonctionnels en solutions techniques pertinentes. - Garantir la qualité, la fiabilité et la performance des jeux de données. - Participation à l’évolution de la plateforme data et aux bonnes pratiques de gouvernance et d’industrialisation.

Freelance

Mission freelance
Devops

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Gitlab
Kubernetes

12 mois
350-450 €
Lille, Hauts-de-France

Il accompagnera les équipes dans l'implémentation des tests de charge (Gatling, K6) et du chaos engineering (Gremlin) sur leurs assets, en veillant à leur autonomie sur le long terme. Pour compléter son rôle d'accompagnement, il participera aux audits de supervision et de résilience, apportant son expertise technique et fonctionnelle et fera le relais avec les équipes du domaine IT4. Il sera également chargé de promouvoir le catalogue IT4 qui comprend : observabilité (Datadog), test, vie de la production et hypervision (produits internes). Nous recherchons une personne capable d'observer l'écosystème dans lequel s'inscrit son travail afin de comprendre les interdépendances entre les équipes afin de faciliter les interactions et de fluidifier l'implémentation des demandes clients. Une excellente capacité et une sensibilité dans l’accompagnement des clients et des équipes sont essentielles. Description Il installe, met en production, administre et exploite les moyens informatiques d’un ou plusieurs sites informatiques dans notre Landing Zone AWS. Il participe au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Il met en place de la culture devops au sein de l'équipe, autonomise et dynamise son équipe et comprend le besoin des développeurs. Il accompagne les développeurs et l'intégration de la solution dans un système complexe. Livrables • Suivi opérationnel : mise en place et suivi de métriques sur nos environnements de prod et hors prod (intégration, recette), suivi du statut des environnements, support technique sur les environnements. • Contribution aux releases et déploiements/livraisons de nos assets en prod et hors prod. • Industrialisation de nos processus et pratiques (gestion des versions, releases, releases notes, notes d’installation, procédure de déploiement etc). • Prise en charge des évolutions techniques sur les produits : montée de versions, sujets de sécurité, évolutions des pods ou de pipelines. • Participation au suivi sécurité sur nos assets. • Participation à la conception et à la réalisation de nos produits : infrastructure et besoins non fonctionnels (monitoring, performance, exploitation…). Audits de supervision et de résilience Accompagnement des équipes

Freelance
CDI

Offre d'emploi
Consultant Technique Cloud Azure

Avanda
Publiée le
Azure

6 mois
71k-107k €
700-1k €
Divonne-les-Bains, Auvergne-Rhône-Alpes

Azure Technical Lead / Référent Cloud – Cloud Competency Center Avanda est une société de Services IT active en Suisse. Nous recherchons un Expert Technique Azure pour accompagner notre client en Suisse Romande (Genève, Lausanne) dans la mise en place des fondations cloud (Landing Zone, sécurité, réseau, automatisation) et la structuration de du Cloud Competency Center. Contexte En tant que Consultant Technique Azure vous aiderez à: – définir les fondations techniques, – encadrer les choix d’architecture et de sécurité, – créer un Cloud Competency Center (CCC) pour industrialiser et professionnaliser les pratiques cloud. Le rôle est central : point de référence technique, garant des bonnes pratiques, interlocuteur principal des équipes sécurité, infra et développement. Objectifs de mission Définir et déployer les fondations Azure : réseau, identité, sécurité, monitoring, automatisation. Mettre en place la Landing Zone et les environnements (DEV/UAT/PROD). Accompagner les premières migrations applicatives et data (VM, DB, stockage, API, etc.). Créer le Cloud Competency Center : standards, outillage, IaC, runbook, documentation. Jouer le rôle de référent technique Azure pour les architectes, devs, et ops internes. Assurer la montée en compétence des équipes internes sur Azure et DevOps. Responsabilités clés – Concevoir l’architecture Azure cible (networking, identity, governance). – Déployer les environnements via IaC (Terraform ou Bicep). – Mettre en œuvre Azure AD/Entra ID, Conditional Access, PIM, RBAC. – Définir et appliquer les politiques Azure (Policy, Blueprints, naming conventions). – Créer la Landing Zone : subscriptions, management groups, Log Analytics, Key Vault, Firewall, Private Endpoints. – Industrialiser les déploiements (CI/CD Azure DevOps ou GitHub Actions). – Intégrer la sécurité et le monitoring : Defender for Cloud, Sentinel, Cost Management, tagging FinOps. – Encadrer la mise en production et la migration des workloads. – Créer le socle technique du Cloud Competency Center : référentiels IaC, modules Terraform, modèles réseau et sécurité, documentation d’exploitation. – Former les équipes internes : workshops, code reviews, accompagnement projet. – Assurer la veille technique et la standardisation continue des pratiques cloud. Requirements – 7–12 ans d’expérience infrastructure ou cloud, dont 4+ sur Azure. – Expérience prouvée en mise en place de fondations Azure et migration workloads. – Maîtrise des architectures hybrides (on-prem ↔ Azure). – Pratique avancée de Terraform/Bicep ou similaire, CI/CD, sécurité et FinOps. – Capacité à coacher et former les équipes techniques. – Autonomie, rigueur et capacité à décider sur le plan technique. – Français courant, anglais technique. Certifications souhaitées : AZ-305 (Architect Expert), AZ-104 (Admin), AZ-500 (Security), FinOps Practitioner.

CDD
Freelance

Offre d'emploi
Expert Data / DBA Azure H/F

SMARTPOINT
Publiée le
Azure
Azure Data Factory
Javascript

12 mois
40k-45k €
490-530 €
Île-de-France, France

Conception et développement de solutions à haute technicité • Support niveau 3 : BI, DataScience, OpenData, DataHistorian (conseil et validation des solutions des équipes produits, Résolution d'incidents complexes) • Gestion des incidents infra, plateforme, réseau, et applicatifs complexes. Périmètres : AZURE et Snowflake • Support exploitation transverse et Interface avec Service IT Transverse de la DSI (Equipes Infra, Cloud, Sécurité, Architecture, Outillage…) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Gestion de l'obsolescence des 50 VM (OS, Middleware, applications tierces) • Gestion de l'obsolescence des composants Azure • Gestion du parc de Workstation (Affectation, création, suppression) • Analyse & correction des impacts générés par d'autres services (FARO, Annuaire, CBO, sécu,...) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alerte de sécurité • Développement solution applicative • Développement solution infrastructure/sécurité (Infra As Code) (Subnet et Security Groupe prédéfinis, Gestion des rôles, des clés de chiffrement, des contrôles automatisés, Audit de sécurité) • Veille aux respects des principes généraux de sécurité et des règles de cybersécurité • Conception et implémentation des modèles de sécurité Azure • Revue des comptes Azure AD • Gestion des réseaux virtuels (Plan d'adressage IP, NSG, table de routage) • Pilotage ouverture de Flux CWAN • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL , C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA(.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Managed Instance, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents DEVOPS : • Administration Azure Devops (Gestion des accès, Sécurité, création de repo, affectation de licence) -> Méthode GITflow / GITHubflow • Formation (Rationalisation des usages DevOps de toutes les équipes produits) • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops Architecture technique et Solution : • Veille solution des principaux providers : Microsoft (Azure et Windows), AWS, Snowflake ->Architecture lambda (Big data), état de l'art • Conception & réalisation architecture applicative dans le respect du cadre • Etude stratégie plateforme, POC (Solution innovante, Big Data, multicloud), conception (HLD/LLD), • Build /RUN : Implémentation des services d'infrastructures et middleware

Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Atlas Connect
Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France

Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

Freelance

Mission freelance
Développeur / Lead développeur .NET

Codezys
Publiée le
.NET
.NET CORE
Angular

3 mois
Hauts-de-Seine, France

Métiers : Études & Développement Fonction : Lead Développeur Spécialités technologiques : E-Commerce Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences techniques : Technologies et Outils : .NET, SAS, Azure, Vue.js, JavaScript, Access Langues : Anglais Description de la prestation : Recherche d’un Développeur / Lead Développeur .NET pour renforcer une équipe existante sur une plateforme e-learning. Environnement & périmètre : Plateforme de learning (Access) sous Docebo, solution SaaS Interventions sur interfaces applicatives : e-learning, paiement, SSO, briques e-commerce Gestion de nombreux flux et web services Ce projet vise à transmettre les bonnes pratiques autour des produits professionnels du client via une plateforme LMS. Le rôle implique de participer à la définition des besoins, à la conception des solutions techniques, et à la gestion des flux web services associés.

Freelance

Mission freelance
[LFR] Ingénierie d'Exploitation Open/devops | Experimenté - Guyancourt - 985

ISUPPLIER
Publiée le

10 mois
1-450 €
Guyancourt, Île-de-France

Contexte de la mission : Contexte global Une expertise des applications, des outils et des systèmes d'information, la charge afin de réaliser la majorité des activités de production informatique dans toutes les étapes du Cycle de vie Produit et dans tous les environnements (Prod et hors Prod). En charge de la fabrication et de l'exploitation au quotidien, avec une responsabilité de bout en bout (Build & Run), en collaboration avec les équipes de développement de l’entité Expérience dans le métier d'ingénieur d'exploitation informatique. Contexte métier / technique L’OPS possède une bonne connaissance des chaînes de traitement en production. Il est le responsable du fonctionnement et de la continuité du service en relation avec l’entité. L’OPS possède une bonne connaissance de la technique d'exploitation. Il est responsable de la journée de production dans le respect des engagements de service de l'exploitation. Description de la mission Assurer la relation opérationnelle avec l'équipe de développement entité • Informer la Squad des actualités sur les sujets de fonctionnement • Participer aux rituels de la Squad selon les besoins/sujets du moment • Participer aux rituels • Assurer la complétude des référentiels (y/c documentaires) • Gestion de bout en bout l'intégrité des DTA (Dossier Technique Application), déclinaison en opérations techniques (traitements et schéma d’enchainement) • Validation fonctionnelle et technique des procédures • Mise en place de la supervision et des consignes de production • Création du DEX (Dossier d’Exploitation) • Assurer le suivi des incidents techniques • Prendre en charge les METIS (Service Now) de la Squad (mise en relation des changements, incidents, niveaux de service) • Responsable de la qualité des informations saisies dans METIS (heure de résolution, cause/origine et responsabilité). • Coordonner l’ensemble des compétences et expertises nécessaires pour éradiquer les incidents et traiter les problèmes • Gérer les problèmes de son périmètre et être responsable des plans d’actions et des tâches assignés • Être force de proposition sur les engagements RSE (exemple : purge de données, réajustement des moyens techniques, décommissionnement), en lien avec le FinOps • S'appuyer sur les toutes les ressources mises à disposition (FinOps, Architectes, Outils et Développements, Socles, …) • Développer la posture service Accompagner les développeurs dans la fabrication des solutions • Mettre en place des éléments de surveillance et des consignes associées en collaboration avec le développeur • Exprimer des besoins d’automatisation de tâches techniques auprès de l’équipe Outils et Développement • Mettre en place les indicateurs d'observabilité et vérifier l'intégration des exigences de production et d’exploitation dans les développements Réaliser les actions de mise en production des solutions • Assurer les MEP et vérifier l'absence d'impact (y/c en HNO) • Évaluation des impacts des changements et la préparation des changements • Autorisation des changements en coordination avec l’entité cliente et les équipes • Communication vers l’entité des applications concernées par le changement dans les délais contractuels (déclaration, état d’avancement, résolution, clôture avec la production du post-mortem/flash et suivi du plan d’actions d’éradication de l’incident) • Traiter les problèmes identifiés en exploitation (causes racines) • Coordonner, préparer et tester les scénarios de déploiement / retour arrière sur tous les environnements • Provisionner les asset techniques (PF SoCloud, PF Native, Fireflow, Secure Transport) • Contribuer à la définition des plans de tests • Contribuer à la définition des feuilles de route déploiement • Elaboration des devis dans le cadre des projets, et garant du respect des normes de production et d’exploitabilité • Être force de proposition sur les solutions à mettre en œuvre afin de respecter les SLA • Sensibilisation de l’entité sur les contraintes de production pendant les phases projets Garantir l'exploitabilité des solutions en Run et la continuité d'activité • Réaliser les activités de contrôle des opérations (MCO - suivre l'exécution des batchs, reprise des traitements, …) • Être garant des normes de production et d’exploitabilité • Assurer la maitrise du plan de production des domaines gérés • Gérer les consignes d‘exploitabilité • Exécuter ou faire exécuter les demandes de service et les actes d'admin applicatifs • Traiter les incidents et rétablir les services sur tous les environnements, notamment en intervenant en astreinte • Contribuer ou animer les cellules de crises • Gérer les obsolescences • Mettre en œuvre et contribuer aux PSIU et PSI • Suivre les indicateurs de qualité de fonctionnement Livrables attendus • Des dossiers d'architecture d'exploitation (DTA de la MOE opérationnelle SNI) validés, traités et conformes aux besoins • Des dossiers d’Exploitation (DEX) en pré requis à la mise en production • Des consignes de production (supervision et helpdesk) à jour • Des référentiels de documentation et techniques à jour (CMDB) • Des procédures et des objets informatiques structurés pour un usage en production (identifiés, supervisables, tracés/ traçables, prévisibles) • Des rapports de résolution d'incidents dit « post-mortem » ou « flash » pour les incidents à impact • Des problèmes enregistrés et traités • Des normes d'exploitabilité et techniques d'exploitation Expériences requises Une expérience réelle en environnements de production de 2 à 3 ans est requise. Compétences du monde Open • OS : Unix, AIS, Linux (RedHat), Windows • Scripting : Javascript, Powershell • Ordonnanceur : ControlM • Serveurs applicatifs / J2EE : Tomcat, Websphere, Apache, Jboss, DataStage, BPM, IIS • SGDB : Oracle, MySQL, SQLServer • Technologies Bigdata : NOSql, MongoDB, Postgre, Casandra, MapRDB, Teradata, DATA & IA • Transfert : CFT, Central Gouvernance, Secure Transport • Réseau : TCP/IP, F5, Grafana Compétences sur les outils « native » • CDAAS • Devops CI/CD • Kubernetes • Ansible • Dynatrace • Jenkins • ELK (ELISA) • Hadoop • Cloud public / cloud privé • GitLab • Kafka • Maven Compétences méthodologie • Agile • Devops • ITIL • Projet Compétences diverses • Pack Office • Teams • Service Now • Lotus Notes Langues Anglais courant Du lundi au vendredi, interventions en HNO et astreintes occasionnelles nuit et WE à prévoir

Freelance

Mission freelance
Ingénieur de production - Data / GCP

Cherry Pick
Publiée le
Big Data
Google Cloud Platform (GCP)
Production

12 mois
450-500 €
Paris, France

Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)

Freelance

Mission freelance
Administrer Devops plateforme Data Azure

SKILLWISE
Publiée le
Azure
Azure DevOps
Azure Kubernetes Service (AKS)

1 an
100-600 €
Paris, France

Dans le cadre du renforcement d’une plateforme data critique hébergée sur Azure , vous interviendrez sur : L’amélioration et la maintenance de la Data Platform (Snowflake sur Azure comme socle principal) Le développement et la maintenance du code Terraform (IaC) L’automatisation des déploiements, tests et processus CI/CD (Azure DevOps) Le support quotidien aux équipes Data (Architecture, Engineering, Analytics, ML & IA) L’optimisation des performances et le suivi des coûts applicatifs La mise en place de solutions de monitoring et d’alerting L’accompagnement des équipes internes dans la conception et la faisabilité des cas d’usage

Freelance
CDI

Offre d'emploi
Ingénieur de production DEVOPS

Agate IT
Publiée le
Ansible
DevOps
Kubernetes

3 ans
Montreuil, Île-de-France

Pour le compte d'un client grand compte du secteur bancaire, nous recherchons un consultant ingénieur de production DEVOPS. Les missions sont : - Résolution des incidents de production - Mise en œuvre des User Stories techniques en coordonnant les bons acteurs - Intégration et exploitation applicative dans le cadre des évolutions et des projets - Création ou mise à jour des environnements. - Réalisation de l'ensemble des gestes techniques d'installation ou de mise à jour d'application. - Soutient de l’équipe de développement pour sécuriser et accélérer la livraison des environnements - Mise à jour des consignes d’exploitation et contribution au passage en patrimoine. Mise en place de pipeline CI/CD - Scripting d'outils d'exploitation - Accompagnement technique et conseil auprès des chefs de projet Etude et Production. - Proposition d'axes d’optimisation, d’industrialisation. - Application des bonnes pratiques et des standards du groupe - Opérations en HNO et Astreintes - Environnement cloud privé - Redhat, Ansible Tower, Python - Un état d'esprit automatisation et optimisation : aimer résoudre les problèmes, et faire plus que le minimum attendu de résolution d'incidents. - Obsolescence sur Control M - Kubernetes, Terraform. - Anglais courant obligatoire - Interventions exceptionnelles à prévoir

Freelance

Mission freelance
GCP - Ingénieur DevOps – Terraform & Vault

KUBE Partners S.L. / Pixie Services
Publiée le
Google Cloud Platform (GCP)
Python
Terraform

3 ans
400-500 €
Lille, Hauts-de-France

Bonjour, Pour l’un de mes clients, je recherche un : Contexte La BU Technique fournit les services d’hébergement (cloud, réseaux, sécurité, OS, monitoring). Depuis 2021, migration totale vers le Cloud Public. Profil recherché DevOps spécialisé Infra & Secret as Code avec Terraform et Vault Enterprise. Missions Améliorer et faire évoluer les modules Terraform (HCL) Développer et maintenir des providers custom Terraform (GoLang) Assurer le support niveau 4 sur Terraform et Vault Accompagner et former les utilisateurs sur Terraform Gérer le Run (upgrade, DRP, amélioration continue) sur Terraform Enterprise & Vault Enterprise Intégrer de nouvelles fonctionnalités Vault Proposer et déployer des solutions innovantes Compétences clés Cloud computing confirmé (GCP) Terraform expert Cloud OPS expert GoLang confirmé Python confirmé Vault confirmé Serverless confirmé Mots-clés DevOps, Terraform, Vault Enterprise, Cloud, GCP, GoLang, Python, Serverless, Cloud OPS Si vous êtes intéressé et que votre profil correspond, merci de postuler avec votre CV à jour. Je reviendrai rapidement vers vous.

Freelance

Mission freelance
Ingénieur Automatisation & Data IA

Codezys
Publiée le
API
API Platform
Azure

3 mois
450-500 €
Créteil, Île-de-France

Métier et Fonction : Études & Développement Ingénieur Spécialités technologiques : Cloud Monitoring Intégration de données IA générative API Type de facturation : Assistance Technique avec un taux journalier Compétences clés : Technologies et Outils : SQL, Synapse, REST, Azure Soft skills : Autonomie, Rigueur Description de la prestation : Pour un client du secteur du transport, recherche d'un Ingénieur automatisation & Data IA. La mission consiste à mettre en place et orchestrer des flux d’automatisation et d’analyse de données en utilisant : IA générative (OpenAI) Data warehouse cloud (Azure Synapse) Outils d’automatisation de workflows (n8n) Objectifs : optimiser les processus internes, améliorer la productivité des équipes, fiabiliser l’exploitation des données. Les missions incluent : Conception et déploiement de solutions d’automatisation : création, surveillance et maintenance de workflows intégrant diverses sources (API, bases de données, outils internes) Exploitation de l’IA générative : intégration des services OpenAI (chat, embeddings, fine-tuning) dans les flux opérationnels Gestion de la donnée : mise en place et optimisation de pipelines d’ingestion et d’analyse dans Azure Synapse, incluant sources multiples et en temps réel Optimisation et gouvernance : performance des requêtes SQL, sécurité (RBAC, data masking), gestion des coûts liés aux API et au cloud Support et évolution : monitoring, debugging, amélioration continue des flux pour répondre aux besoins métiers

650 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous