Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 994 résultats.
Freelance

Mission freelance
Data scientist

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Spark
Hadoop
PostgreSQL

6 mois
510-540 €
Courbevoie, Île-de-France

Vous aurez l’opportunité de contribuer à un projet d’envergure : le déploiement massif de bornes de recharge pour véhicules électriques dans les parkings collectifs. Ce programme, déjà en cours, se renforce et constitue une nouvelle équipe de 3 Data Scientists, intégrée à une équipe pluridisciplinaire d’une dizaine de personnes dédiée à la mobilité électrique et aux solutions de demain. Vos missions : - Réaliser des études statistiques et de la modélisation prédictive pour optimiser les déploiements, - Traiter et analyser des données massives en Python (un peu de R possible, mais non indispensable), - Collaborer avec des experts métiers et techniques pour transformer les données en leviers concrets de performance, - Participer au Comité Data interne pour partager les bonnes pratiques et enrichir vos compétences, - Évoluer dans une méthodologie SAFe, au cœur d’un environnement structuré et collaboratif.

Freelance

Mission freelance
Consultant (H/F) Tech Lead Data Engineer GCP

HOXTON PARTNERS
Publiée le
Google Cloud Platform (GCP)

12 mois
Paris, France

Nous recherchons un Tech Lead Data Engineer confirmé pour une mission longue à Paris. Le consultant sera responsable de la création et du maintien d’une architecture de pipelines de données optimale, en automatisant les processus manuels, en optimisant la livraison de données et en repensant l’infrastructure pour plus d’évolutivité. Il s’agira d’assembler des ensembles de données volumineux et complexes répondant aux besoins opérationnels, de créer l’infrastructure nécessaire à l’extraction, la transformation et le chargement des données depuis diverses sources grâce aux technologies SQL et BigQuery, et de développer des outils d’analyse permettant de fournir des insights exploitables sur l’acquisition de clients, l’efficacité opérationnelle et la performance globale. Le consultant collaborera étroitement avec les experts data et analytics pour améliorer continuellement la fonctionnalité des systèmes de données.

Freelance
CDI

Offre d'emploi
DevOps & Cloud Engineer - GCP

Atlanse
Publiée le
Ansible
Apache Kafka
CI/CD

3 ans
Châtillon, Île-de-France

Vous rejoindrez la Direction Digital & Data au sein de l'équipe OPS en charge de la plateforme e-commerce, déployée en mode hybride (on-premise et Google Cloud Platform). En tant que DevOps, vous collaborerez avec les équipes OPS, QA, DEV et Delivery afin d’assurer la performance, la fiabilité et l’évolution de la plateforme. Votre rôle Exploitation & Maintien en condition opérationnelle Diagnostiquer et résoudre les incidents et dysfonctionnements sur l’infrastructure Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participer aux phases de validation technique lors des mises en production ou des évolutions Gestion & Optimisation des infrastructures Configurer et dimensionner les plateformes pour répondre aux besoins de performance et de scalabilité Industrialiser les architectures cibles et automatiser les déploiements via les pipelines CI / CD Veiller à la sauvegarde des données et à la sécurité des accès en appliquant les bonnes pratiques de gestion des droits utilisateurs Pilotage & Suivi des ressources Suivre et optimiser les coûts liés aux composants et applications cloud (FinOps) Proposer des évolutions ou optimisations pour améliorer la fiabilité et l’efficacité des solutions déployées

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance

Mission freelance
Mission Freelance – Data Steward / Chef de projet Data Gouvernance

Comet
Publiée le
Market data

1 an
400-670 €
Île-de-France, France

Vos missions Déployer la stratégie de gouvernance Data au sein d’un domaine fonctionnel clé (comportements utilisateurs). Garantir la qualité, la traçabilité et la conformité des données collectées et exposées. Mettre en place et suivre les règles de Data Quality (contrôles automatiques, reporting, remédiation). Alimenter et maintenir le glossaire métier et le catalogue de données (métadonnées, définitions, propriétaires). Appliquer les politiques RGPD et sécurité des données du groupe. Coordonner les acteurs Data : Data Owners, Data Engineers, Métiers. Animer le domaine Data (ateliers, comités, sensibilisation). 🛠️ Environnement technique Cloud / Big Data : GCP (BigQuery), Hadoop, Spark, Hive Outils de gouvernance : Collibra, Alation, Talend Data Catalog (ou équivalent) Langages & outils : SQL, Jira, Confluence, Power BI (reporting) Méthodologie : Agile / DataOps

CDI

Offre d'emploi
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 ans
25k-58k €
310-530 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Freelance
CDI

Offre d'emploi
Data Engineer Senior

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache Kafka
Apache Spark
Big Data

1 an
50k-65k €
480-630 €
Tours, Centre-Val de Loire

Activités de la mission : 1. Comitologie, documentation et cartographie data : · Préparation et animation d'instances transverses DSIM de présentation de projets Data et de validation des solutions techniques associées (league Design Data, diverses Guildes data dédiées) · Documentation des assets data de la plateforme DSIM (espaces SimDoc, Datahub + Datalab) · Cartographie des données et conception / développement d'outillage 2. Expertise Data : · Accompagnement technique / conseil Data / Big Data aux équipes projets (Datahub + Datalab) · Aide à l’analyse / Conception / Refonte d'assets data transverses (Datahub + Datalab) · Aide au suivi des évolutions et migrations de la stack technique de la plateforme DSIM 3. Facilitation sujets data : · Aide à la médiation inter projets · Aide à l'expression de besoin/spécifications technico-fonctionnelles

Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

CDI
Freelance

Offre d'emploi
Mission sécurité RESEAU du cloud GCP(impératif) H/F

ISE SYSTEMS
Publiée le
ISO 27001
NIST

36 mois
40k-65k €
550-660 €
Paris, France

Si vous n'êtes pas un profil SECURITE GCP, ne postulez pas. Nous recherchons un consultant spécialisé dans sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à utiliser des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations.

Freelance

Mission freelance
Développeur Big Data

Mindquest
Publiée le
Apache Spark
Big Data
Hadoop

1 an
400-500 €
Nantes, Pays de la Loire

Le candidat participera au développement de composants Java ainsi qu’à la création et l’optimisation de scripts Linux dans un environnement Big Data complet incluant Hadoop, Cloudera, Kafka, Spark et Oozie. Il accompagnera les développeurs fonctionnels dans la conception et l’implémentation de solutions bancaires, tout en contribuant activement à la résolution d’incidents et au suivi de la production pour garantir la qualité et la continuité des services. Il travaillera au sein d’une squad technique, en étroite collaboration avec les équipes métiers, pour assurer l’alignement entre les besoins fonctionnels et les solutions techniques mises en place.

Freelance

Mission freelance
Data Engineer Microsoft Fabric

CHOURAK CONSULTING
Publiée le
Apache Spark
Azure Data Factory
Microsoft Fabric

3 mois
400-600 €
Île-de-France, France

Nous recherchons un Data Engineer expérimenté pour accompagner l’un de nos clients majeurs du secteur de la santé dans la modernisation de sa plateforme data autour de Microsoft Fabric . 🎯 Vos missions principales : Concevoir et développer des pipelines de données robustes et scalables dans un environnement Microsoft Fabric . Participer à la mise en place de l’architecture Médaillon (Bronze / Silver / Gold) pour structurer et fiabiliser les données. Collaborer avec les équipes métiers et techniques afin de garantir la qualité, la sécurité et la performance des flux. Contribuer à la mise en place de Microsoft Fabric . Accompagner les utilisateurs dans la valorisation des données via Power BI .

Freelance

Mission freelance
Devops GCP / kubernetes

skiils
Publiée le
Google Cloud Platform (GCP)
Kubernetes

3 ans
310 €
Île-de-France, France

Dans le cadre d’un grand groupe international, nous recherchons un DevOps Junior GCP/Kubernetes . Vous participerez à la conception, au déploiement et à l’amélioration continue d’infrastructures cloud sur Google Cloud Platform. Sous la supervision d’experts confirmés, vous interviendrez sur l’orchestration de conteneurs via GKE, l’automatisation des déploiements, le suivi des performances et l’accompagnement des équipes projets pour garantir stabilité et sécurité des environnements. Stack : GCP KUBERNETES

Freelance
CDI

Offre d'emploi
Data Engineer Pyspark/Dagster

VISIAN
Publiée le
Apache Spark
PySpark
Python

2 ans
40k-79k €
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/Dagster Mission: Architecture : Définition de l’organisation du Lakehouse dans le S3 Chargement : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia

Freelance

Mission freelance
Data Engineer IA GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
Python

3 mois
580 €
75000, Paris, Île-de-France

🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.

CDI

Offre d'emploi
Expert GCP - F/H - Guyancourt

AVANISTA
Publiée le

France

Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Expert GCP au sein de nos équipes pour l'un de nos clients. Le contexte ? Nous recherchons un Expert GCP disposant d'une solide expérience sur les environnements Cloud et les plateformes de supervision. Votre rôle sera d'assurer la fiabilité, la performance et la cohérence de nos projets en proposant des solutions techniques robustes et innovantes Vos missions ? - Piloter et optimiser l'utilisation de la plateforme GCP au sein des projets stratégiques. - Assurer le suivi de la cohérence et de l'intégration des projets DATA. - Utiliser Dynatrace pour la supervision et le monitoring des environnements Cloud. - Analyser et challenger les architectures techniques proposées par les différentes équipes. - Être force de proposition et apporter une vision experte auprès des entités métiers et IT. - Contribuer à la sécurisation de l'existant et à l'amélioration continue des environnements Cloud. - Participer à l'industrialisation et à l'optimisation des process (ordonnancement des traitements via Control-M ou équivalent). - Prendre en charge les demandes de créations de ressources natives (Kubernetes & Cloud) et les outils des chaines CI/CD - Prendre en charge de l'accompagnement des équipes applicatives pour la bonne implémentation et utilisation des outils DevOps. - S'assurer du bon accostage entre le développement applicatif et le déploiement sur les écosystèmes du cloud publique (AWS/GCP) dans l'utilisation de la CI/CD. - Définir les flux de logs de l'applicatif. - Assurer l'automatisation des tests et la vérification des prérequis à l'intégration et à l'exploitation. - Garantir la mise en place de tests de sécurité automatisés en production (scans d'images, de vulnérabilité et intrusion etc.) - Construire l'observabilité, la supervision et l'alerting des applications et des solutions employées dans le cloud public. - Opérer le provisionnement et le déploiement de l'infra as code - Gestion des changements - Coordonner l'évaluation des impacts des changements et la préparation des changements. - Autoriser les changements en coordination avec l'entité cliente et les équipes. - Informer l'entité client des applications concernées par le changement. - Dans le cadre des projets, participer à l'élaboration des devis et est le garant du respect des normes de production et d'exploitabilité - Etre force de proposition sur les solutions à mettre en oeuvre afin de respecter les SLA. - Coordonner la mise en production des solutions choisies. - Sensibiliser les clients sur les contraintes de production pendant les phases projets. - Etre responsable de la validation fonctionnelle et technique des DTA, de la validation des procédures, de la mise en place de la supervision et des consignes de production ainsi que de la bonne planification des traitements. - Gestion des évènements/incidents - Gestion des problèmes - Gestion de la configuration - Gestion du reporting - Alimenter le responsable de pôle et d'équipe pour préparer les comités opérationnels et de pilotage organisés avec le client - Participer au reporting de l'équipe (management visuel) - Être responsable de la mise en relation des CI dans la CMDB pour son périmètre applicatif. - Être force de proposition sur les solutions pérennes à mettre en oeuvre pour éradiquer. - Être responsable du suivi des problèmes de son périmètre, de son reporting et avancement des plans d'actions. - Être responsable de l'analyse des incidents et en identifier les causes origines. Coordonner l'ensemble des compétences et expertises nécessaires pour éradiquer les incidents et traiter les problèmes. - Être responsable de la journée de production dans le respect des engagements de service pour son périmètre. - Prendre les dispositions nécessaires en cas d'incident pour préserver les intérêts des clients selon les conventions établies. - Participer ou animer, selon les cas, aux cellules de crises technique et Client. - Être responsable de l'escalade fonctionnelle ou hiérarchique. - Être responsable de la qualité des informations saisies dans Metis (ServiceNow) : heure de résolution, cause/origine et responsabilité. - Être responsable de la communication sur incident vers les clients dans les délais contractuels (2 heures) de la déclaration, de l'état d'avancement, de la résolution, à la clôture avec la production du post-mortem. Le plan d'actions sera suivi jusqu'à la réalisation complète dans les délais. - Participer et coordonner les compétences pour restaurer le service normal dans les délais les plus courts possibles et être responsable du respect des SLAs de son périmètre. - Prendre en charge les incidents Metis (ServiceNow) sur les périmètres applicatifs confiés et en être responsable jusqu'à leur clôture. - Prendre en charge les requêtes Metis (ServiceNow) sur les périmètres applicatifs qui lui sont confiés. Il est responsable de leur bonne réalisation jusqu'à leur clôture. GCP Terraform google cloud plateform

1994 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous