L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 818 résultats.
Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
42k-50k €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Mission freelance
101448/Architecte Data IA Apache Kafka,Cloud Architecture Nantes
WorldWide People
Publiée le
Apache Kafka
12 mois
400-620 €
Nantes, Pays de la Loire
Architecte Data IA Apache Kafka,Cloud Architecture Nantes . Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
Offre d'emploi
Développeur .NET Cloud-Ready & Front-Office (Supervision Trading)
VISIAN
Publiée le
.NET
3 ans
40k-45k €
400-550 €
Île-de-France, France
Développeur .NET Cloud-Ready & Front-Office (Supervision Trading) Le Contexte : Pour le compte d'une entité de Trading & Optimisation, vous rejoignez une équipe agile de 7 personnes. Votre rôle est crucial : développer les outils qui permettent aux traders de piloter leurs activités en temps réel. 🎯 Votre Mission : Supervision & Compliance : Développer et maintenir des applications de supervision du trading (gestion des mandats, contrôles, déclaration de PnL). Hybridation IA : Travailler au quotidien avec GitHub Copilot pour optimiser vos développements tout en gardant un esprit critique sur la qualité produite. Data & Cloud : Exposer des data sets complexes sur AWS et participer à la mise en place de reportings Power BI performants. Proximité Métier : Collaborer directement avec les Business Analysts et les utilisateurs Front-Office pour recueillir les besoins. 💻 Profil Recherché : Compétences : C# .NET (confirmé), Angular, SQL. Appétence Cloud : Connaissance ou forte volonté d'apprendre sur les environnements AWS et Azure. Soft Skills : Grande curiosité technologique, sens de l'architecture "propre" et aisance relationnelle avec des profils métiers exigeants.
Offre d'emploi
Administrateur Linux F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Linux
SQL
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Chef de projet data groupe H/F
HAYS France
Publiée le
Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
Mission freelance
Ingénieur Test API / QA Automatisation Sélénium 400 e par j
BI SOLUTIONS
Publiée le
Javascript
Test unitaire
2 ans
300-400 €
Île-de-France, France
Ingénieur Test QA Automatisation Sélénium 400 e par j En tant que QA Engineer , vous êtes le garant de la qualité, de la fiabilité et des performances de notre application web. Au sein d'une équipe Produit Agile, vous travaillez en étroite collaboration avec le PO, l'UX/UI Designer, le Tech Lead et les Développeurs pour vous assurer que chaque nouvelle fonctionnalité livrée offre une expérience utilisateur irréprochable. Vos missions principales Stratégie et conception des tests : Définition de la stratégie globale, rédaction des scénarios et des plans de tests. Exécution des tests manuels et exploratoires : Réalisation de tests fonctionnels et de performance, identification des cas limites, et validation du respect des maquettes. Automatisation des tests : Conception, développement et maintien des scripts, intégration dans la chaîne CI/CD. Gestion des anomalies : Qualification des bugs, suivi rigoureux de la résolution et vérification des correctifs. Compétences techniques Tests d’API : Maîtrise d'outils type Postman. Architecture Web : Très bonne compréhension du fonctionnement web (HTML, CSS, DOM, requêtes HTTP, outils de développement navigateurs). Automatisation : Maîtrise d’un ou plusieurs frameworks modernes ( Cypress, Selenium …). Bonnes bases de programmation ( JavaScript, TypeScript, Python …). Connaissance des outils d’intégration continue ( GitLab CI, GitHub Actions …). 400 e par j
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Mission freelance
DATA ENGINEER GCP
ESENCA
Publiée le
Apache Airflow
BigQuery
DBT
1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop
Deodis
Publiée le
Red Hat
1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Offre d'emploi
Développeur Salesforce CRM – Service Cloud (H/F) – Expert
DATACORP
Publiée le
45k-50k €
Nantes, Pays de la Loire
Concevoir et développer des fonctionnalités sur Salesforce Service Cloud Assurer les évolutions et la maintenance du socle CRM Développer des intégrations avec des applications et services externes (API) Garantir la qualité, la performance et la robustesse des développements Appliquer les bonnes pratiques (industrialisation, standardisation, réduction de la dette technique) Participer aux choix d’architecture et proposer des axes d’amélioration Contribuer à l’amélioration continue des parcours utilisateurs Livrables Développements robustes et maintenables Documentation technique Optimisation et fiabilisation des flux et traitements Recommandations d’architecture et d’amélioration continue Stack & environnement Salesforce Service Cloud APEX, LWC, SOQL Intégrations API Node.js / Heroku Power BI Méthodologies Agile Profil recherché Expertise confirmée en développement Salesforce (Service Cloud) Maîtrise des langages APEX, LWC et SOQL Expérience des intégrations API et environnements distribués Bonne compréhension des enjeux CRM et des parcours utilisateurs Capacité à produire un code propre, maintenable et scalable Compétences clés Rigueur et sens de la qualité Esprit d’analyse et de conception Force de proposition Bon relationnel et travail en équipe Pré-requis Expertise Salesforce Service Cloud (obligatoire) Expérience en environnement Agile Bonne maîtrise des architectures applicatives et des intégrations
Mission freelance
Data Architect Orion
Nicholson SAS
Publiée le
Architecture
Data analysis
Data governance
9 mois
1 300 €
Paris, France
Vous êtes un architecte de la donnée passionné par la haute précision ? Rejoignez le programme stratégique de mon client pour façonner l'avenir de la Data au sein de cette marque Iconic. Votre Mission Une fois la Data Factory opérationnelle, vous deviendrez le garant de l'intelligence structurelle de nos données. Votre rôle sera central pour : Architecturer le futur : Concevoir et piloter la modélisation au sein d'une architecture Médaillon (Bronze, Silver, Gold). Innover en réseau : Déployer des modèles de données dans un environnement Data Mesh complexe. Standardiser l'excellence : Définir le modèle de données canonique , les spécifications techniques et l'intégrité des relations (clés, tables, jointures). Votre Profil Expertise : +7 ans d'expérience en Data Architecture Orion. Technique : Maîtrise avancée d' Oracle et de la modélisation complexe. Méthodologie : Vous évoluez avec aisance dans des environnements Agile et SaFe . Soft Skills : Esprit de synthèse, rigueur analytique et capacité à traduire des besoins métiers en structures de données performantes. Prêt à relever ce défi au sein d'une société de légende ?
Mission freelance
Administrateur système et Réseaux confirmé (H/F) - 75
MP Advertising
Publiée le
Administration linux
Administration Windows
AWS Cloud
3 mois
Paris, France
Rattaché(e) à la fonction IT / Systèmes d’Information, l’Administrateur Systèmes et Réseaux Confirmé assurera, sous la responsabilité du Manager Systèmes & Réseaux, le bon fonctionnement, la sécurité et l’évolution opérationnelle du système d’information de la société, dans un environnement à forte exigence (secteur financier). L’Administrateur Systèmes et Réseaux sera l’interlocuteur technique pour les collaborateurs de la société et bras droit opérationnel du manager, avec un rôle clé dans l’exécution, la fiabilité et l’amélioration continue de l’infrastructure. Il contribue activement à : - La disponibilité et la performance des systèmes - La qualité de service aux utilisateurs - La mise en oeuvre des standards de cybersécurité - La résilience et la continuité d’activité - La (co)gestion et l’implémentation des projets IT structurants 1. Exploitation & administration des systèmes et réseaux - Encadrer, animer et faire monter en compétence l’équipe systèmes et réseaux. - Administrer et maintenir les infrastructures : • Serveurs (on-premise et cloud) • Réseaux (LAN, WAN, VPN) • Stockage et sauvegarde. - Garantir la disponibilité, la performance et la sécurité des systèmes - Gérer les environnements virtualisés (VMware, Hyper-V) et cloud (AWS, Azure…) - Assurer la supervision quotidienne et le traitement proactif des alertes - Participer à l’automatisation des tâches d’exploitation (scripts, outils). 2. Référent technique & support avancé - Intervenir (helpdesk) en niveau 2/3 sur les incidents complexes et critiques - Diagnostiquer et résoudre les problématiques techniques avancées - Assurer un rôle de référent technique interne pour l’équipe - Contribuer à l’amélioration continue du support, de la documentation, des procédures, et des outils internes - Encadrer les administrateurs juniors (CDI, stagiaire, alternant) dans l’intervention en niveau 1 sur les incidents simples, et participer à leur formation technique (bonnes pratiques, …) 3. Cybersécurité (mise en oeuvre opérationnelle) - Appliquer la politique de sécurité définie par le manager - Déployer et maintenir les outils de sécurité : EDR, firewall, SIEM - Gérer les accès, identités et droits (IAM) - Participer aux audits de sécurité et à la remédiation des vulnérabilités - Contribuer à la détection et à la réponse aux incidents de sécurité - Appliquer les bonnes pratiques (patching, durcissement, segmentation réseau). 4. Résilience & continuité d’activité - Mettre en oeuvre les dispositifs PCA/PRA définis - Assurer : • Les sauvegardes (3-2-1) • Les tests de restauration - Participer aux tests de continuité et de reprise (PRA/PCA) - Documenter précisément : • Les procédures de reprise • Les dépendances critiques - Contribuer à l’optimisation des RTO/RPO 5. Projets IT & évolution du SI - Participer activement aux projets IT : • Migration cloud • Modernisation de l’infrastructure • Automatisation / DevOps • Intégration de nouvelles solutions - Implémenter les choix techniques validés par le manager - Être force de proposition sur : • Les améliorations techniques • Les optimisations de performance et de coûts - Collaborer avec les équipes métiers pour comprendre les besoins 6. Documentation & conformité - Maintenir une documentation technique rigoureuse et à jour : • Schémas d’infrastructure • Plan IP • Procédures d’exploitation • Configurations critiques - Assurer la traçabilité des actions et changements - Appliquer les politiques IT et de sécurité - Contribuer à la préparation des audits (internes et externes) 7. Collaboration avec le Manager Systèmes & Réseaux - Agir en binôme direct du Manager Systèmes & Réseaux - Relayer et appliquer les orientations techniques et stratégiques - Remonter les risques, incidents majeurs et axes d’amélioration - Participer à : • La priorisation des tâches • Les choix techniques (force de proposition) - Assurer la continuité opérationnelle en l’absence du manager (back-up) Intéractions avec: Equipes IT (support et admins) Equipes métiers Prestataires techniques (en coordination avec le manager) Indicateurs de performance (KPI): - Taux de disponibilité des systèmes - Temps de résolution des incidents complexes - Qualité et fiabilité des déploiements techniques - Nombre et typologie des incidents critiques - Respect des procédures et standards de sécurité - Qualité et mise à jour de la documentation - Mise en oeuvre des améliorations recommandées à la suite des tests PRA / PCA - Niveau de proactivité (améliorations proposées / mises en oeuvre)
Offre d'emploi
Tech Lead Data Snowflake Lille
Proxiad
Publiée le
Databricks
DBT
Snowflake
48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Mission freelance
Database Reliability Engineer / SQL Server / Windows (H/F) 75
Mindquest
Publiée le
Cybersécurité
Microsoft Dynamics
Microsoft SQL Server
6 mois
370-500 €
Paris, France
Mission Maintien en conditions opérationnelles * Assurer l’administration et le maintien opérationnel d’une dizaine de bases de données SQL Server supportant des applications critiques. * Garantir la haute disponibilité, la performance et la résilience des bases de données (PRA, monitoring, optimisation). * Automatisation et amélioration continue * Automatiser la gestion et l’administration des bases de données via des outils tels que Ansible et Puppet. * Contribuer à l’amélioration du monitoring et de l’observabilité des environnements SQL Server et Windows. * Participer aux analyses de performance et optimisations des bases de données. * Gestion des incidents et changements * Prendre en charge la gestion et la résolution des incidents. * Participer au Change Management, notamment lors des mises en production d’évolutions techniques. * Réaliser des post-mortems suite aux incidents afin d’identifier les axes d’amélioration. * Conception et évolution * Concevoir et déployer de nouvelles bases de données selon les besoins des équipes métiers. * Être force de proposition pour faire évoluer l’infrastructure et les pratiques techniques. * Communication et documentation * Assurer l’interface entre l’équipe technique et les clients internes (CRM, BI, Finance, MDM…). * Produire et maintenir la documentation technique (SharePoint, Confluence). * Rédiger des comptes-rendus d’activité quotidiens et hebdomadaires. Environnement technique Bases de données : SQL Server Automatisation / DevOps : Ansible, Puppet Systèmes : Windows, Linux ETL : SSIS (atout) Outils : ServiceNow (incidents / change management) JIRA Confluence / SharePoint
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Offre d'emploi
Ingénieur de Production Senior – DevOps Azure - Env Windows
Taimpel
Publiée le
Azure DevOps
Dynatrace
microsoft
2 ans
44k-55k €
400-450 €
Hauts-de-Seine, France
🕐 Type de mission : Production / Support Applicatif / DevOps Contexte de la mission Dans le cadre du renforcement d’une équipe Application Support , nous recherchons un Ingénieur de Production Informatique Senior (DevOps Full Windows) pour intervenir sur un environnement applicatif critique à forte visibilité métier. La mission porte sur le support, la disponibilité et l’évolution des plateformes applicatives utilisées par des clients finaux ainsi que par les équipes internes de gestion et de souscription. Vous intégrerez une équipe Agile travaillant en étroite collaboration avec : les équipes de développement les équipes de production les équipes d’ infrastructure et d’architecture L’objectif principal est de garantir la disponibilité, la stabilité et la performance des applications , tout en contribuant à leur industrialisation et leur modernisation . Missions principalesProduction applicative et exploitation Assurer la disponibilité et la performance des applications Superviser les plateformes via des outils de monitoring (Dynatrace, Grafana, etc.) Diagnostiquer et résoudre les incidents de production Participer aux cellules de crise et aux analyses post-incidents Garantir la stabilité et la résilience des environnements applicatifs Déploiements et gestion des livraisons Coordonner les déploiements applicatifs sur les différents environnements Sécuriser les mises en production Superviser l'exécution des procédures de livraison Assurer la traçabilité des changements et le suivi des mises à jour Automatisation et industrialisation Développer des scripts et outils d’automatisation Industrialiser les processus de déploiement et de support Contribuer à la modernisation des outils de supervision et d’exploitation Améliorer en continu l’efficacité opérationnelle Gestion de l’infrastructure applicative Garantir la sécurité et la performance des infrastructures Participer à la maintenance et aux mises à jour des environnements Collaborer avec les équipes techniques pour optimiser les architectures Collaboration DevOps Travailler en interaction constante avec les équipes de développement Contribuer à l’amélioration des pipelines de déploiement Participer aux rituels Agile (planning, sprint, revue, etc.) Support opérationnel Participer aux astreintes et interventions hors horaires ouvrés si nécessaire Assurer un support applicatif de niveau avancé Compétences techniques attenduesEnvironnement Microsoft Windows Server (2012 / 2019 ou supérieur) IIS .NET Active Directory SQL Server Cloud et DevOps Azure (IaaS / PaaS) Azure DevOps Azure Data Factory Déploiements automatisés Certification AZ900 appréciée ou expérience équivalente. Production et automatisation PowerShell (v2 / v4) Gestion des pipelines et livraisons Automatisation des tâches d’exploitation Supervision et monitoring Expérience avec des outils tels que : Dynatrace Nagios AppDynamics Grafana Kibana PowerBI Ordonnancement et flux Orchestration de jobs (type TWS ou équivalent) Gestion des échanges de fichiers sécurisés Protocoles de transfert sécurisés (ex : CFT ) Expérience recherchée Nous recherchons un profil ayant : une expérience solide en production applicative une forte pratique de la gestion d’incidents en environnement critique une expérience confirmée en environnement Microsoft une bonne maîtrise des environnements Azure et Azure DevOps Une expérience dans des environnements à forte contrainte de disponibilité est fortement appréciée. Soft skills et mindset attendus Ce poste nécessite un profil ayant une excellente posture professionnelle . Le candidat devra démontrer : une excellente communication orale une présentation professionnelle irréprochable une capacité à interagir avec différents interlocuteurs techniques et métiers un esprit d’équipe fort Nous recherchons également une personne : motivée et impliquée proactive et force de proposition capable de travailler avec autonomie ayant un bon esprit d’analyse capable de garder son sang-froid en situation d’incident Environnement de travail Organisation en méthodologie Agile Interaction forte avec les équipes Dev, Ops et Infra Environnement technique riche et évolutif
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- VOYANT GRATUIT SÉRIEUX EN FRANCE +33 7 54 05 54 85
- VRAI MEDIUM VOYANT PUISSANT GRATUIT +229 45723596
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Mission à 600 km de chez moi - Frais de double résidence
3818 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois