L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 166 résultats.
Mission freelance
Développeur Cloud GCP – Plateforme Données Non Structurées h/f
Publiée le
API
API REST
Google Cloud Platform (GCP)
6 mois
400-680 €
Clichy, Île-de-France
Télétravail partiel
Dans le cadre d’une initiative stratégique autour de la valorisation des données, notre client du secteur grands comptes souhaite renforcer son équipe IT pour la construction d’une plateforme transverse dédiée aux données non structurées (documents, images, vidéos, audio). Cette plateforme permettra : la récupération de médias depuis des sources internes, leur préparation (OCR, vision, transcription…), l’extraction de données via des algorithmes avancés, la vérification humaine ou algorithmique, la structuration dans un modèle commun s’appuyant sur une taxonomie consolidée, la mise à disposition des données pour les équipes métier et Data
Mission freelance
Techlead Data à Paris ou Lille (H/F)
Publiée le
Cloud
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
3 mois
400-600 €
Paris, France
Télétravail partiel
Pour notre client dans le secteur privé, nous recherchons un Techlead Data. Le Tech Lead Data assure le leadership technique sur la conception, le développement et l’optimisation des traitements de données. Il définit les standards techniques (ETL/ELT, DBT, modélisation), veille à la qualité et la performance des livrables, et accompagne les Data Engineers dans la mise en œuvre des pipelines. En collaboration avec l’architecte et les business data analysts, il participe aux choix technologiques, conçoit des solutions robustes et maintenables, et intervient en lead sur les développements les plus complexes, notamment sur les projets stratégiques. Missions principales Leadership technique : définition des bonnes pratiques, encadrement des Data Engineers, veille technologique. Conception & développement : pilotage et optimisation des chaînes de traitement, développement de pipelines complexes, industrialisation et automatisation. Qualité, sécurité & performance : fiabilité, disponibilité, sécurité, mise en place d’outils d’observabilité et de monitoring. Support & accompagnement avancé : formation des équipes, coaching, gestion des incidents critiques (N3), amélioration continue. Interactions inter-pôles : Avec la Data Plateforme : définition des standards, supervision des choix techniques. Avec la Data Valorisation : mise à disposition de données fiables pour la BI. Avec la Data Intégration : cohérence des flux et qualité des données transférées.
Mission freelance
IT Transversal Project Manager M/F
Publiée le
Azure
Budget Management
Cloud
6 mois
Paris, France
Télétravail partiel
Nous recherchons, pour le compte de notre client dans le secteur du luxe, un IT Transversal Project Manager pour rejoindre son siège parisien. Le rôle consiste à superviser des projets majeurs d’infrastructure IT couvrant plusieurs domaines métiers, tout en accompagnant la mise en œuvre de cadres de gouvernance projet. Évoluant dans un environnement international, vous coordonnerez des parties prenantes transverses et garantirez la réussite d’initiatives globales. Missions : Piloter et gérer l’ensemble du cycle de vie des projets d’infrastructure IT et des initiatives transverses Traduire les besoins métiers en plans et solutions projets IT clairs Collaborer avec l’ensemble des Domain Managers IT pour répondre aux besoins métiers Veiller à la livraison des projets dans les délais, le budget et les standards de qualité attendus Définir les livrables requis (spécifications fonctionnelles, documents de recette, etc.) Suivre les plannings et les coûts projet afin d’en assurer la conformité Développer, mettre en œuvre et maintenir les politiques et procédures de gouvernance projet Superviser la gestion du portefeuille projets et le reporting auprès du Chief Technology Officer Promouvoir les bonnes pratiques en gestion de projet et en gouvernance au sein de l’organisation Travailler efficacement avec des équipes internationales en Europe, Asie et Amérique du Nord
Mission freelance
Chef de Projet Technique RUN & Gestion de Projet
Publiée le
Gestion de projet
Google Cloud Platform (GCP)
Linux
3 ans
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Responsabilités Gestion de projet (70%) Pilotage des projets techniques liés aux systèmes magasins. Coordination avec les équipes internes et externes. Suivi des livrables, planning et reporting. RUN / Support technique (30% à 50%) Traitement des incidents magasins (environnement retail). Analyse et résolution des problèmes techniques côté Linux/Windows. Interaction avec les équipes pour escalade et communication claire. Compétences techniques obligatoires Chefferie de projet technique (capacité à rentrer dans le détail technique). Expérience en traitement d’incidents magasins (retail fortement apprécié). Systèmes : Linux (maîtrise), Windows. Cloud : GCP (Google Cloud Platform), notions d’Azure. Outils Unix . Puppet (automatisation). Stack Linux (forte expertise). Soft Skills & Personnalité Proactivité : capacité à prendre des décisions et trouver des solutions. Communication : savoir interagir avec les équipes, prendre du recul. Souplesse : profil polyvalent, à l’aise pour toucher à tout. Posture : leadership technique sans rigidité (profil trop « banque/assurance » à éviter). Esprit d’équipe : collaboratif, pas isolé.
Offre d'emploi
Administrateur Plateforme GCP (H/F)
Publiée le
Git
IAM
Jenkins
24 mois
45k-55k €
450-550 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national majeur de la grande distribution, avec un SI riche et stratégique : milliers de serveurs, applications critiques et forte dynamique de migration Cloud. Dans l’équipe en charge de la gestion opérationnelle de la plateforme GCP, tu garantiras disponibilité, performance, sécurité et scalabilité des environnements — en cohérence avec un fonctionnement Agile et collaboratif. Tu auras pour missions de : Administrer et faire évoluer les environnements GCP (projets, IAM, quotas, monitoring, réseaux). Contribuer à la gestion et à l’exploitation de GKE / Kubernetes (clusters, workloads, politiques). Industrialiser les opérations via Terraform, Git et CI/CD. Participer au Build & au Run : support avancé, remédiation, optimisation. Accompagner les équipes utilisatrices dans leurs besoins, leurs choix techniques et leurs bonnes pratiques Cloud. Prendre part à la prise de décision collective de l’équipe et participer aux validations techniques. Monter en compétence à plusieurs, via pair programming, ateliers techniques et revues. Porter un mindset Agile : collaboration, adaptation, amélioration continue et partage. Stack technique : GCP – GKE / Kubernetes – Terraform – Git – Jenkins – Python – Cloud Monitoring – Cloud Logging – IAM – VPC – Cloud Armor – Security Command Center
Mission freelance
Analytics Engineer Senior H/F
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
350-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur High-tech recherche un/une Analytics Engineer Senior H/F Description de la mission: Contexte : Le client déploie un programme stratégique pour fiabiliser et industrialiser ses métriques business. Il recherche un Senior Analytics Engineer Freelance pour piloter la conception et le POC d’un Semantic Layer destiné à +500 utilisateurs internes. Mission : 1. Semantic Layer (mission prioritaire) Concevoir et prototyper l’architecture du Semantic Layer (dbt + BigQuery + GCP). Standardiser et documenter les métriques business clés. Définir une source unique de vérité pour tous les outils analytics (Tableau, BigQuery, GSheets, LLMs…). Intégrer le Semantic Layer aux usages IA (LLM). Produire la documentation technique et les bonnes pratiques. 2. Pipeline Analytics Maintenir et optimiser le pipeline existant (dbt + BI). Développer nouvelles features (qualité, documentation, monitoring). Résoudre incidents & data quality issues. Optimiser coûts et performances BigQuery. Support ponctuel aux équipes internes (code review, mentoring junior). Administration BI (gestion utilisateurs & permissions). Profil recherché : 5+ ans en Analytics Engineering / Data Engineering. Expertise dbt (modélisation, tests, docs) & SQL avancé. Très bonne maîtrise BigQuery (optimisation, coûts). Expérience démontrée Semantic Layer / Metrics Layer (dbt metrics, LookML, Cube.js…). Expérience BI (Tableau, Looker…). Bonus : GCP, modélisation dimensionnelle.
Mission freelance
TECH LEAD JAVA CLOUD
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Java
12 mois
100-600 €
Île-de-France, France
Télétravail partiel
Missions : Participer à la conception d’architectures applicatives modernes (microservices, cloud). Analyser les besoins, proposer des solutions robustes et scalables. Garantir la qualité technique des livrables (revues, guidelines, standards). Collaborer étroitement avec les product owners, les experts techniques et les autres tribus. Contribuer à l’évolution du socle technique et des frameworks internes. Participer aux rituels de l'équipe : des partages de connaissances, de la veille, amélioration continue.
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Offre d'emploi
Administrateur Hadoop Infra– MCO & Exploitation (H/F)
Publiée le
Google Cloud Platform (GCP)
Hadoop
HDFS (Hadoop Distributed File System)
6 mois
40k-45k €
400-550 €
Hauts-de-Seine, France
Télétravail partiel
Contexte Au sein de l’équipe Data, vous aurez la responsabilité d’assurer le bon fonctionnement, la fiabilité et la performance de l’écosystème Big Data de l’entreprise. Vous interviendrez sur un environnement Hadoop hybride, incluant des briques Cloud (GCP) et des services de Kubernetes-as-a-Service (KaaS). Missions principales Exploitation & MCO de la plateforme Big Data - Assurer la maintenance en conditions opérationnelles (MCO) de l’écosystème Hadoop. - Garantir la disponibilité, la performance et la sécurité des clusters. - Suivre l’état de santé des composants (HDFS, Yarn, Hive, Spark, Oozie, etc.). - Contribuer à la fiabilisation du socle technique et à la réduction des points de fragilité. Gestion des incidents et support de niveau 2/3 - Prendre en charge les incidents, réaliser les analyses, identifier les causes racines (RCA) et proposer des plans d’actions correctifs. - Assurer le suivi jusqu’à résolution complète. - Rédiger et maintenir la documentation technique associée. Amélioration continue & automatisation - Contribuer aux améliorations continues de la plateforme : performance, architecture, déploiements. - Mettre en place ou optimiser des scripts d’automatisation (Python, Shell, Ansible…). - Participer aux évolutions de l’écosystème et aux projets de transformation Big Data. Environnement Cloud (GCP) - Participer à l’exploitation et à l’évolution des services GCP liés au Big Data (BigQuery, Dataproc, Cloud Storage…). - Contribuer aux migrations, intégrations ou interconnexions entre Hadoop et GCP. - Assurer le monitoring, la gouvernance et l’optimisation des coûts dans GCP. Gestion et exploitation des plateformes KaaS - Administrer et exploiter les environnements Kubernetes-as-a-Service (GKE, Anthos, ou équivalent interne). - Déployer et maintenir les services Data ou applicatifs tournant sur KaaS. - Surveiller les clusters, gérer les ressources, les namespaces et la montée en charge. - Contribuer à la sécurisation et à la standardisation des déploiements. Collaboration & communication - Travailler en étroite collaboration avec les équipes Data Engineering, DevOps, Infrastructure et Sécurité. - Contribuer à garantir un niveau de service optimal pour les équipes métiers et projets. - Participer aux rituels opérationnels (briefs, comités, revues techniques…). Profil recherché Compétences techniques - Maîtrise de l’écosystème Hadoop. - Connaissance opérationnelle de GCP. - Expérience en Kubernetes / KaaS. - Compétences en automatisation (Python, Shell, Ansible…). - Connaissances en monitoring (Grafana, Prometheus, ELK…). - Compréhension des enjeux de sécurité et de gouvernance des données. Soft skills - Capacité d’analyse et résolution de problèmes complexes. - Bonne communication et esprit d’équipe. - Rigueur, sens du service et autonomie. - Proactivité dans l’amélioration continue.
Mission freelance
Network Ops Engineer sénior
Publiée le
DevOps
Google Cloud Platform (GCP)
Network
3 ans
100-510 €
Lille, Hauts-de-France
Télétravail partiel
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations).
Mission freelance
Architecte SRE - Sécurité & Réseau Cloud (IBM Cloud)
Publiée le
Azure
Google Cloud Platform (GCP)
IAM
6 mois
Paris, France
Télétravail partiel
Mission Principale : Vous êtes le garant de la posture de sécurité et de la connectivité de nos plateformes. Vous concevez une architecture "Security by Design" et "Zero Trust", en définissant les patterns de sécurité qui permettent à nos équipes de développer et d'opérer des services fiables et sécurisés à grande échelle. Vous déclinez les exigences de la Securité Fonctionnelle dans le SI Responsabilités Clés : Conception d'Architecture Sécurisée sur le Cloud IBM : Produire les HLD (High-Level Design) et les DAT (Dossier d'Architecture Technique) pour les briques de sécurité (IAM, PKI, gestion des secrets, etc.) et réseau (segmentation, peering, firewalling, WAF). Gestion des Identités et des Accès (IAM) : Définir et implémenter la stratégie de gestion des identités (humaines et machines), les politiques de moindres privilèges et les processus de revue des accès sur IBM Cloud et Keycloack. Gestion des flux Nord-Sud et Est-Ouest : Définir et implémenter une strategie des flux dans le SI entre les différentes applications/Layers Sécurité des Flux et Chiffrement : Établir les standards pour la sécurisation des flux réseaux (mTLS, VPN, etc.) et les politiques de chiffrement des données au repos et en transit. Infrastructure à Clés Publiques (PKI) : Piloter la stratégie de gestion du cycle de vie des certificats pour l'ensemble de nos services en s’appuyant sur Secret Manager ou Hashicorp Vault Patterns & Automatisation : Créer et maintenir les patterns d'architecture de sécurité réutilisables, notamment sous forme de modules IaC, en collaboration avec l'Architecte Infra. Test de Sécurité : Concevoir, planifier et superviser les campagnes de test de Sécurité, de l'hypothèse à l'analyse post-mortem, en collaboration avec les équipes SRE, de développement. Et l’Architecte Resilience IT et Chaos Engineering Veille et Conseil : Agir en tant qu'expert et conseiller auprès du Leader des Architectes Sécurité sur les menaces et les stratégies de mitigation.
Offre d'emploi
Ingénieur Mathématiques Appliquées / ML Data Scientist
Publiée le
Azure
Google Cloud Platform (GCP)
40k-54k €
Paris, France
Redlab cherche pour son client parisien , un Data scientist confirmé ( 4-6 ans d'expérience ) pour un démarrage en début d'année 2026 , le consultant interviendra sur : Rôle Modélise, développe et optimise des algorithmes d’IA : ML, Deep Learning, LLM, optimisation et pipelines cloud. Missions clés Concevoir pipelines de données (Azure/GCP/AWS). Développer modèles ML/DL/LLM (TensorFlow, PyTorch). Fine-tuning (BERT, LLaMA, etc.). Optimiser modèles (pruning, quantification). Collaborer avec équipes Data & Dev pour intégration.
Mission freelance
DevOps - Cloud GCP (Nantes) H/F
Publiée le
Google Cloud Platform (GCP)
6 mois
500-600 €
Nantes, Pays de la Loire
Télétravail partiel
Notre client dans le secteur Banque et finance recherche un/une DevOps H/F Description de la mission: Nous recherchons un(e) Freelance DevOps pour rejoindre une équipe transverse en pleine structuration au sein d'une FinTech. Ta mission sera essentielle au développement de l’équipe : accompagner et faire grandir techniquement des profils plus juniors, tout en contribuant à standardiser et harmoniser nos pratiques DevOps à l’échelle du groupe. contribuer à l’harmonisation des pratiques DevOps à l’échelle de l’entreprise : tu interviendras sur des sujets stratégiques : pipelines CI/CD, infrastructure as code (Terraform), déploiements sur Google Cloud Platform, observabilité (OpenSearch, Grafana, OpenTelemetry). faire le lien entre les équipes de développement, les équipes infrastructure et les exploitants : ton rôle sera autant technique qu’humain : tu prendras plaisir à transmettre, structurer, évangéliser les bonnes pratiques et t’assurer que nos standards deviennent un socle commun pour toutes nos équipes.
Mission freelance
Architecte Sécurité Senior SI, Cloud/On premise - Paris - Vorstone
Publiée le
Architecture
AWS Cloud
Azure
1 an
700-900 €
Paris, France
Télétravail partiel
Vorstone recherche un profil d'Architecte Sécurité H/F pour un client grand group basé à Paris Présentation du groupe Le groupe est un leader mondial. Il propose des solutions innovantes reposant sur des technologies en amélioration continue, et produit. Afin de répondre aux besoins de ses clients, l’organisation est structurée en lignes de métier mondiales : Industriel Marchand, Grande Industrie, Électronique, Santé et Ingénierie/Construction. Descriptif de l’entité L’entité concernée est le centre de services partagés global chargé de fournir les services d’infrastructure IT aux différentes DSI métier internes . La transformation IT opérée en 2014 a conduit à la création de ce centre ainsi qu’à la structuration des DSI métiers. Les lignes de service couvertes sont les suivantes : ● Poste de travail utilisateur ● Services Cloud ● Sécurité & Conformité ● Infrastructure Sites ● Architecture & Projets Transverses L’organisation entre maintenant dans une nouvelle phase de transformation visant une structure plus efficace et simplifiée, avec déploiement progressif d’un nouveau modèle jusqu’en 2026. Les lignes de service sont désormais regroupées en trois catégories correspondant aux étapes du cycle de gestion des services : ● Plan & Control (Gouvernance & Service Management) ● Design & Build (Ingénierie & Innovation) ● Deploy & Operate (Transition & Opérations) Les priorités actuelles portent sur : ● Cloud & Plateformes : introduction de GCP comme nouveau fournisseur cloud, en complément d’AWS et Azure. ● Cybersécurité : repositionnement de la ligne de service “Sécurité & Conformité”, nouvelle feuille de route sécurité (plateforme unifiée CSIRT…) et focus sur les solutions CNAPP, CSPM, CIEM, CWPP. ● Innovation : exploitation des capacités Gemini pour les utilisateurs. ● Efficacité opérationnelle : harmonisation ServiceNow, optimisation des processus et rationalisation des fournisseurs (MSP cloud, NOC/SOC, service desk). Missions L’Architecte Sécurité rejoindra l’équipe “ Sécurité & Conformité – Ingénierie & Innovation ” et apportera son expertise pour concevoir et déployer des architectures de sécurité dans un environnement majoritairement cloud public (AWS, GCP, Azure), tout en prenant en compte les infrastructures on-premise et les contraintes spécifiques à certains pays et activités. 1/ Concevoir et déployer des solutions de sécurité ● Rôle de chef de projet et architecte sécurité pour la conception et le déploiement de services de sécurité dans un contexte en constante évolution (organisation, politiques, menaces, outillage). ● Documentation et maintien de la connaissance du portefeuille de solutions de sécurité. ● Référent sur l’ingénierie des services de sécurité de son périmètre. ● Intégration des exigences et tests de sécurité dans les backlogs projets. ● Proposition de solutions pour assurer la conformité aux référentiels internes d’infrastructure. 2/ Intégrer la sécurité dans les projets et services ● Promotion de l’approche Secure by Design . ● Réalisation d’analyses de risques techniques. ● Conseil et support aux équipes sur les aspects sécurité. ● Identification et formalisation des actions de sécurité, avec suivi associé. 3/ Définir les standards de sécurité ● Contribution aux politiques et standards sécurité du groupe. ● Participation à la définition et à l’automatisation des contrôles de conformité et indicateurs sécurité.
Mission freelance
DevOps & Oracle Engineer
Publiée le
DevOps
Oracle
12 mois
Niort, Nouvelle-Aquitaine
Télétravail partiel
DevOps & Oracle Engineer, freelance, 12 mois de contrat initial, Niort, 3 jours de télé travail par semaine Attractive opportunité pour un(e) Consultant(e) DevOps & Oracle de rejoindre notre client final basé à Niort et qui accompagne quotidiennement des millions de particuliers et de professionnels. Contexte : Dans le cadre du maintien en conditions opérationnelles (MCO) et de l’amélioration continue de son système d’information, le Service Delivery du client souhaite renforcer son équipe Production / Exploitation par une prestation d'ingénierie/ Ops. La prestation consistera à une intervention en support du centre de service (N1/N2) afin d’assurer la prise en charge du niveau 3, la résolution des incidents complexes, et la fiabilisation des environnements de production. Objectifs de la prestation : Au sein de l’équipe opérations du service delivery (8 personnes + 1 manager) et plus précisément d’un pôle de gestion des incidents/demandes/problèmes de 6 personnes (4 profils métiers + 2 profils ops), nous avons besoin d’une prestation ops supplémentaire pour : · Assurer le support niveau 3 sur le périmètre production · Garantir la résolution et la prévention des incidents critiques; · Participer à la fiabilisation, à l’automatisation et à l’industrialisation des process · Accompagner le centre de service Exploitation (N1/N2) dans la montée en compétence et la formalisation des procédures · Assurer un rôle d’expert DBA Oracle, capable de traiter en autonomie les incidents et demandes de services autour des bases de données (compétence manquante au sein de l’équipe) · Gestion opérationnelle : o Prendre en charge les incidents techniques de niveau 3 et coordonner leur résolution o Effectuer les analyses post-incidents et proposer des actions correctives et préventives o Suivre et piloter les actions de fiabilisation et d’amélioration continue o Gérer les changements en production selon les bonnes pratiques ITIL · Mettre à jour la documentation technique et les procédures d’exploitation · Amélioration continue / Automatisation : o Identifier les points de fragilité du SI et proposer des quick win o Industrialiser les opérations récurrentes à fort ROI o Contribuer à l’amélioration continue des chaînes d’exploitation et du monitoring · Compétences DBA / Oracle o Diagnostiquer et résoudre les incidents N1/N2 sur les bases Oracle (performances, verrous, espace, corruption) o Effectuer des analyses de performance à partir de rapports awr et de la supervision oem o Proposer des scripts SQL/PL-SQL permettant de fiabiliser/optimiser le SI o Diffuser les compétences / bonnes pratiques au sein du service delivery mais également auprès des équipes de développement Profil recherché : o Compétences techniques : Expérience confirmée en environnement de production o Solide maîtrise du support niveau 3 et des processus ITIL o Expertise DBA Oracle (administration, optimisation, dépannage) o Connaissances techniques : Linux, scripts Shell, supervision (Dynatrace, OEM, Grafana…)
Mission freelance
Chef de projet Data
Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics
12 mois
Paris, France
Télétravail partiel
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Astuce pour trouver un client final
- Déclaration d'impots et boni de liquidation au PFU
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Marché global Business Analyst / MOA / AMOA
- Logiciel facturation gratuit + experience demande acompte
3166 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois