Trouvez votre prochaine offre d’emploi ou de mission freelance IBM DataStage
Votre recherche renvoie 16 résultats.
Mission freelance
Développeur IBM Datastage
Publiée le
IBM DataStage
SQL
12 mois
500 €
Joinville-le-Pont, Île-de-France
Télétravail partiel
Cherry Pick est à la recherche d'un Développeur IBM Datastage pour l'un de ses clients dans le secteur bancaire. Contexte du projet Dans le cadre de l’alimentation d’une base de données stratégique située à Madagascar, nous recherchons un Développeur DataStage confirmé . Le projet consiste à créer et alimenter plusieurs centaines de tables — un chantier structurant et chronophage nécessitant rigueur, autonomie et collaboration avec les équipes BI et Data. Vos missions Participer à la conception et à la création de nombreuses tables dans le cadre du projet d’alimentation de la BDD Madagascar. Développer et maintenir des flux DataStage pour l’intégration et la transformation des données. Collaborer étroitement avec les équipes BI à Paris , ainsi qu’avec les équipes de développement à Bangkok. Mettre en place et automatiser des scripts SQL pour optimiser les traitements et les alimentations. Contribuer à la documentation technique et au suivi des livrables. Garantir la qualité, la performance et la fiabilité des flux de données.
Offre d'emploi
Architecte Infrastructure / IBM DataStage
Publiée le
Hadoop
IBM DataStage
1 an
40k-45k €
400-640 €
Île-de-France, France
Télétravail partiel
Architecte Infrastructure / DataStage Descriptif de la mission Le bénéficiaire souhaite une prestation d'accompagnement pour des activités d'expertise et d'ingénierie des technologies BI DataStage Missions principales Mise en place de la procédure d'installation et de configuration du produit selon les requis Installation/ Configuration / optimisation / Support/ sécurisation du produit DataStage afin de coller au besoin de mise en place d'une plateforme mutualisée partagée mais cloisonnée Définition des règles d'exploitation autour de la solution DataStage/BigIntegrate afin de garantir une bonne supervision du comportement en production
Offre d'emploi
Développeur IBM Datastage / SQL & Oracle
Publiée le
IBM DataStage
Microsoft SQL Server
Oracle
1 an
Île-de-France, France
Télétravail partiel
Objectifs de la mission : Alimenter les bases de données et accompagner les développeurs BI dans l’écriture des scripts SQL Activités principales • Responsable du développement, de la conception, de la maintenance et de l’optimisation des flux de données • Intégration et traitement de données pour alimenter le Data Reservoir • Ecriture de script SQL pour répondre aux besoins de reportings de la filiale Travaux à réaliser • Analyser les besoins métiers et fonctionnels en lien avec l’équipe Data • Concevoir, développer et tester les flux ETL • Intégrer, transformer et charger les données issues de différentes sources (Core Banking Amplitude et applications annexes) • Assurer la qualité, la cohérence et la performance des traitements • Participer à la documentation technique et fonctionnelle des développements réalisés • Contribuer aux phases de recette, de mise en production et de support (correction d’anomalies, évolutions) • Optimiser les performances des jobs ETL et gérer les dépendances et planifications
Offre d'emploi
Consultant Teradata
Publiée le
IBM DataStage
Teradata
3 ans
Paris, France
Dans le cadre d’un projet stratégique orienté data, la mission consiste à intervenir sur des traitements ETL complexes au sein d’un environnement décisionnel basé sur Teradata. Le poste couvre à la fois des activités d’étude et de réalisation : 🔍 Phase d’étude Analyse de l’existant sur un périmètre de traitements ETL Définition de la cible technique sur Teradata Découpage en lots, estimation des charges et planification 🛠️ Phase de réalisation Conception des solutions cibles Développement et tests en SQL Teradata Exécution de doubles RUN et bilans en vue des mises en production Suivi des traitements post-MEP durant la phase de VSR Proposition et mise en œuvre d’optimisations techniques 📑 Livrables attendus Documentation technique et fonctionnelle Dossiers d’étude, d’architecture, de sécurité et de mise en production Résultats de tests, PV de recette, fiches d’anomalies Comptes rendus d’activité et de réunions 🤝 Interactions Collaboration avec les équipes métiers pour la mise à disposition et l’exposition des données Coordination avec les autres équipes IT et partenaires externes
Offre d'emploi
Data Engineer Teradata
Publiée le
DevOps
IBM DataStage
SQL
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Votre environnement de travail en tant de Data Engineer TERADATA : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationnel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea L’environnement technique : BTEQ Teradata Datastage Datawarehouse SQL DevOps
Offre d'emploi
Data Engineer GCP
Publiée le
Apache Airflow
DBT
DevOps
12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
DBT
DevOps
Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
Offre d'emploi
Architecte Infrastructure / Expertise en infrastructure
Publiée le
IBM Cloud
Kubernetes
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Architecte Infrastructure / Expertise en infrastructure Le bénéficiaire souhaite une prestation d'accompagnement pour des activités d'expertise et d'ingénierie des technologies cloud. Expert en infrastructure cloud spécialisé dans le déploiement, administration, optimisation et la gestion de clusters kubernetes sur un service cloud kubernetes et OpenShift. Responsabilités principales : Deploiement des architectures Kubernetes sur service cloud. Automatisation les déploiements et la gestion des clusters. Mise en place les bonnes pratiques DevOps. Assurer la haute disponibilité et la scalabilité des applications. Optimisation des performances et les coûts d'infrastructure. Implémentation des politiques de sécurité et de conformité. Formation et accompagnement des équipes des experts DataStage et se former en parallèle sur l'administration de l'ETL DataStage. Documentation des architectures et procédures.
Offre d'emploi
Ingénieur DevOps H/F
Publiée le
40k-50k €
Toulouse, Occitanie
Télétravail partiel
Tu aimes quand le code, les outils et les pipelines tournent comme une horloge ? Chez TOHTEM, on cherche un Ingénieur DevOps pour renforcer l’usine logicielle et fluidifier le quotidien des équipes de développement. Tu travailleras dans un environnement technique riche mêlant Java, Angular, Python, Datastage, Oracle, MySQL, PowerBI, Shell, Openshift et GCP. Ton terrain de jeu, ce sont les composants de l’usine logicielle : Bitbucket, Jenkins, AzureDevOps, Sonar, Checkmarx, Artifactory, XLDeploy, XLRelease. Tu seras au cœur des échanges entre les développeurs et les outils qui font vivre leurs projets. Tes principales missions seront les suivantes : - Fournir un support technique sur les outils de l’usine logicielle - Améliorer et maintenir les scripts Groovy utilisés dans les pipelines Jenkins - Concevoir et adapter des pipelines CI/CD performants pour les applications - Identifier les points de friction et faciliter la livraison continue - Accompagner les équipes de développement dans l’usage optimal des outils - Participer à l’évolution de la plateforme et proposer des améliorations - Contribuer à la fiabilité et à la sécurité des chaînes d’intégration et de déploiement Tu collaboreras au quotidien avec les développeurs, les architectes et les équipes infrastructure. Tu seras sollicité pour ton expertise, mais aussi pour ta capacité à simplifier et à rendre les outils plus efficaces pour tous.
Offre d'emploi
Ingénieur DevOps junIor H/F
Publiée le
35k-43k €
Toulouse, Occitanie
Télétravail partiel
Tu aimes comprendre ce qui se passe derrière les pipelines et optimiser ce qui peut l’être ? Chez TOHTEM, tu plonges au cœur de l’usine logicielle et tu fais le lien entre développement et exploitation. Tu interviens dans un environnement technique riche : Java, Angular, Python, Datastage, Oracle, MySQL, PowerBI, Shell, Openshift, GCP… Tu collabores avec des équipes de développement variées et tu participes à la fiabilité et à l’automatisation des chaînes CI/CD. Ton terrain de jeu, ce sont les outils et la fluidité des déploiements. Tu analyses, ajustes, et proposes des solutions simples pour que tout tourne sans accroc. Voici tes principales missions : - Fournir un support sur les composants de l’usine logicielle (Bitbucket, Jenkins, AzureDevOps, Sonar, Checkmarx, Artifactory, XLDeploy, XLRelease) - Améliorer les scripts Groovy internes pour enrichir les fonctionnalités des pipelines Jenkins - Aider les développeurs à concevoir des pipelines adaptés à leurs produits - Collaborer avec les équipes pour identifier et résoudre les problèmes techniques - Participer à l’automatisation et à la standardisation des processus de livraison - Assurer la surveillance et la maintenance des environnements d’intégration et de déploiement - Documenter les bonnes pratiques et proposer des améliorations continues Tu fais partie d’une équipe technique où entraide et partage d’expérience sont essentiels. Chaque journée t’apporte de nouveaux défis à résoudre, toujours avec un équilibre entre autonomie et collaboration.
Mission freelance
Business Analyst / Designer Data-IA
Publiée le
Business Analyst
36 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Au sein du service Data & AI, le Business Analyst / Designer est responsable d'assurer la cohérence transversale des évolutions Data pour plusieurs pays (présence mondiale sur 5 continents : présence directe dans environ 30 pays). Vous travaillerez dans le domaine Data Foundation : composé d'environ 15 personnes réparties dans 4 pays (France, Espagne, Pays-Bas et Inde), divisées en 2 Squads. Les équipes travaillent en mode Agile, avec une relation étroite avec les parties prenantes métier dans le monde entier et les autres équipes IT. Le Domaine fait partie de la Tribu Data & AI, et couvre, sur plusieurs domaines métier, les outils pour la collecte, la transformation, la visualisation et la mise à disposition des données métier. Les principales expertises technologiques couvertes par les équipes sont : Datastage, TIBCO, OBIEE/OAS, ODI, API Java et technologies cloud. En tant que Designer, vous travaillerez en relation avec les domaines métier décrits : accompagner la définition de leurs exigences utilisateurs et les traduire en spécifications techniques à partir des multiples technologies couvertes par les équipes. Vous accompagnerez le Product Owner IT dans la définition des éléments du Backlog et soutiendrez les squads dans la configuration de la visibilité des données. Missions principales : Comprendre les besoins métier, en contact direct avec les parties prenantes métier. Évaluer les propositions de changement et définir des solutions pour aider l'organisation à atteindre ses objectifs. Participer au découpage des Features en éléments de Backlog plus petits (User stories ou enablers / Exigences Non Fonctionnelles (NFR)). Analyser les besoins métier et les traduire en spécifications techniques, en les partageant avec les autres membres de la squad. Communiquer, traduire et simplifier les exigences métier pour garantir l'adhésion de toutes les parties prenantes. Agir comme interface entre les lignes métier départementales et l'équipe de développement au sein de l'organisation. Co-concevoir avec le Métier, les Ingénieurs et les Testeurs les critères d'acceptation et les scénarios de test. Participer au Backlog Refinement (avec les Parties prenantes) et au Backlog Review (au sein de la squad) pour élaborer les éléments du backlog. Contribuer à la préparation de la Planification Trimestrielle. Piloter la préparation et la présentation des instances de gouvernance (ex. : WASS, TASS), en collaboration avec les experts (Architecture, Sécurité, Risques, Protection des Données, etc.). Concevoir et enrichir l'Expérience Utilisateur du produit. Rechercher activement et être réceptif aux conseils et retours constructifs des clients internes, partenaires et membres de l'équipe. Proposer, contribuer et piloter des actions d'Amélioration Continue. Apprendre d'autres disciplines pour améliorer l'efficacité de la squad. Participer au Chapitre Designer : partager les connaissances, enrichir les meilleures pratiques et les leçons apprises, assurer la cohérence du design au niveau transversal des squads.
Mission freelance
Développeur·se Senior Décisionnel
Publiée le
PostgreSQL
18 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail 100%
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Etudes & Développement Lead Tech Spécialités technologiques : ETL Secteurs d'activités Administration Publique Au sein d’une direction numérique regroupant une soixantaine de collaborateurs, le consultant interviendra sur des projets décisionnels stratégiques. L’équipe accompagne plusieurs métiers dans la construction, l’évolution et la maintenance de produits data et BI, au service d’organisations publiques et de leurs partenaires. La mission vise à renforcer les équipes existantes et à garantir la pérennité des solutions décisionnelles, tout en participant à la création de nouveaux composants transverses. Rôle et responsabilités - Concevoir, maintenir et faire évoluer le système décisionnel complet (de l’ingestion des données à la restitution). - Assurer le développement ETL via Talend Studio, selon les patrons de conception en vigueur. - Créer et maintenir les rapports et tableaux de bord via Superset, Business Objects ou outils équivalents. - Garantir la qualité logicielle : tests unitaires, d’intégration et de non-régression, selon les principes du TDD. - Gérer les mises à jour et migrations de versions (Talend, bases de données). - Participer à la mise en place des pipelines CI/CD et à la gestion des versions via Git et Talend Administration Console. - Contribuer à la modélisation décisionnelle (Datastore, DataStage, Datawarehouse) et à l’historisation des données. - Participer activement aux cérémonies Agiles et aux comités techniques de la Dev Team. Environnement technique - ETL / Intégration : Talend Studio 8 - Bases de données : PostgreSQL, PostGIS, Oracle - Reporting / BI : Superset, Business Objects, Metabase - CI/CD : Git, Talend Administration Console Expertise souhaitée Expérience confirmée en développement décisionnel, avec une maîtrise des outils suivants : - ETL / Intégration : Talend Studio (v8 souhaitée) - Bases de données : PostgreSQL, PostGIS, Oracle - Reporting / BI : Superset, Business Objects, Metabase - CI/CD et versioning : Git, Talend Administration Console - Solides compétences en SQL et en modélisation décisionnelle. - Expérience dans la mise en place et la maintenance d’ETL et d’univers décisionnels. - Capacité à évoluer dans un contexte Agile, à collaborer étroitement avec les autres développeurs et à partager les bonnes pratiques. - Autonomie, rigueur, curiosité et goût pour la qualité logicielle.
Mission freelance
Chef de projet data/BI
Publiée le
ETL (Extract-transform-load)
Informatica
JIRA
12 mois
400-450 €
Paris, France
Télétravail partiel
Description détaillée Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs. Compétences techniques ETL - Confirmé - Impératif JIRA - Confirmé - Impératif powerBI - Confirmé - Important informatica - Confirmé - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif)
Mission freelance
Chef de projet production - ETL & BI-N3
Publiée le
ETL (Extract-transform-load)
JIRA
PowerBI
18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE Objectif global : Piloter projet ETL & BI MISSIONS : Gestion de Projet : Piloter les projets ETL et BI depuis la phase de conception jusqu'à la mise en production, en veillant au respect des délais, budgets et ressources. Élaborer et suivre les plannings, les livrables et les indicateurs de performance des projets. Coordination et Communication : Animer et coordonner les équipes techniques et fonctionnelles pour assurer une bonne collaboration. Organiser des réunions de suivi de projet et des comités de pilotage, et rédiger les comptes-rendus associés. Solide expérience en gestion de projets, idéalement dans un contexte ETL/BI, avec une connaissance approfondie des technologies utilisées par le service. 15 services ETL et BI managés : PowerBI, QlikView, Business Object, Cognos, Tableau, SSRS Informatica Power Center, Semarchy, IBM Datastage, SSIS Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea Connaissance des outils DevOps et des pratiques Agile, avec une expérience des logiciels tels que Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira. La pratique de l’anglais courant est indispensable (à l’oral comme à l’écrit) en raison des échanges fréquents avec certaines équipes basées à Porto et avec nos fournisseurs.
Mission freelance
Chef de Projet Data / BI
Publiée le
BI
Data analysis
DevOps
6 mois
400-450 €
Île-de-France, France
Télétravail partiel
Missions principales:Gestion de projet Piloter les projets ETL et BI de bout en bout (cadrage, conception, développement, tests, mise en production, suivi post-déploiement). Assurer le respect des délais, budgets et ressources . Définir, suivre et mettre à jour les plannings, livrables et KPI projet. Garantir la qualité des livrables et l’alignement avec les besoins métiers. Coordination et communication Animer et coordonner les équipes techniques et fonctionnelles. Organiser et conduire les réunions de suivi et les comités de pilotage . Rédiger et diffuser les comptes rendus et documents de suivi. Assurer le lien entre les équipes internes (techniques, métiers) et les partenaires/fournisseurs. Expertise technique et environnement Participer aux choix techniques et à l’architecture des solutions BI/ETL. Apporter un support technique et méthodologique aux équipes projet. Contribuer à l’amélioration continue des processus et outils Data & BI. Compétences techniques attendues ETL : Confirmé – impératif JIRA : Confirmé – impératif PowerBI : Confirmé – important Informatica : Confirmé – serait un plus Connaissance des principaux outils BI : PowerBI, QlikView, Business Objects, Cognos, Tableau, SSRS . Maîtrise des solutions ETL : Informatica Power Center, Semarchy, IBM Datastage, SSIS . Connaissance d’outils complémentaires : Informatica Datamasking, Denodo, Dataïku, Alteryx, Amadea . Connaissance des outils DevOps et environnements Agile : Bitbucket, Jenkins, Artifactory, Ansible Tower, Jira . Compétences linguistiques Anglais professionnel impératif : à l’oral comme à l’écrit (collaboration avec les équipes de Porto et fournisseurs internationaux). Profil recherché Formation supérieure Bac +5 (école d’ingénieur, informatique, MIAGE ou équivalent). Expérience confirmée en gestion de projets IT/Data/BI , idéalement dans un contexte ETL/BI. Excellentes capacités d’organisation, de coordination et de communication. Leadership, sens du service et capacité à travailler dans un environnement international et multi-projets.
Mission freelance
[LFR] Ingénierie d'Exploitation Open/devops | Experimenté - Guyancourt - 985
Publiée le
10 mois
1-450 €
Guyancourt, Île-de-France
Contexte de la mission : Contexte global Une expertise des applications, des outils et des systèmes d'information, la charge afin de réaliser la majorité des activités de production informatique dans toutes les étapes du Cycle de vie Produit et dans tous les environnements (Prod et hors Prod). En charge de la fabrication et de l'exploitation au quotidien, avec une responsabilité de bout en bout (Build & Run), en collaboration avec les équipes de développement de l’entité Expérience dans le métier d'ingénieur d'exploitation informatique. Contexte métier / technique L’OPS possède une bonne connaissance des chaînes de traitement en production. Il est le responsable du fonctionnement et de la continuité du service en relation avec l’entité. L’OPS possède une bonne connaissance de la technique d'exploitation. Il est responsable de la journée de production dans le respect des engagements de service de l'exploitation. Description de la mission Assurer la relation opérationnelle avec l'équipe de développement entité • Informer la Squad des actualités sur les sujets de fonctionnement • Participer aux rituels de la Squad selon les besoins/sujets du moment • Participer aux rituels • Assurer la complétude des référentiels (y/c documentaires) • Gestion de bout en bout l'intégrité des DTA (Dossier Technique Application), déclinaison en opérations techniques (traitements et schéma d’enchainement) • Validation fonctionnelle et technique des procédures • Mise en place de la supervision et des consignes de production • Création du DEX (Dossier d’Exploitation) • Assurer le suivi des incidents techniques • Prendre en charge les METIS (Service Now) de la Squad (mise en relation des changements, incidents, niveaux de service) • Responsable de la qualité des informations saisies dans METIS (heure de résolution, cause/origine et responsabilité). • Coordonner l’ensemble des compétences et expertises nécessaires pour éradiquer les incidents et traiter les problèmes • Gérer les problèmes de son périmètre et être responsable des plans d’actions et des tâches assignés • Être force de proposition sur les engagements RSE (exemple : purge de données, réajustement des moyens techniques, décommissionnement), en lien avec le FinOps • S'appuyer sur les toutes les ressources mises à disposition (FinOps, Architectes, Outils et Développements, Socles, …) • Développer la posture service Accompagner les développeurs dans la fabrication des solutions • Mettre en place des éléments de surveillance et des consignes associées en collaboration avec le développeur • Exprimer des besoins d’automatisation de tâches techniques auprès de l’équipe Outils et Développement • Mettre en place les indicateurs d'observabilité et vérifier l'intégration des exigences de production et d’exploitation dans les développements Réaliser les actions de mise en production des solutions • Assurer les MEP et vérifier l'absence d'impact (y/c en HNO) • Évaluation des impacts des changements et la préparation des changements • Autorisation des changements en coordination avec l’entité cliente et les équipes • Communication vers l’entité des applications concernées par le changement dans les délais contractuels (déclaration, état d’avancement, résolution, clôture avec la production du post-mortem/flash et suivi du plan d’actions d’éradication de l’incident) • Traiter les problèmes identifiés en exploitation (causes racines) • Coordonner, préparer et tester les scénarios de déploiement / retour arrière sur tous les environnements • Provisionner les asset techniques (PF SoCloud, PF Native, Fireflow, Secure Transport) • Contribuer à la définition des plans de tests • Contribuer à la définition des feuilles de route déploiement • Elaboration des devis dans le cadre des projets, et garant du respect des normes de production et d’exploitabilité • Être force de proposition sur les solutions à mettre en œuvre afin de respecter les SLA • Sensibilisation de l’entité sur les contraintes de production pendant les phases projets Garantir l'exploitabilité des solutions en Run et la continuité d'activité • Réaliser les activités de contrôle des opérations (MCO - suivre l'exécution des batchs, reprise des traitements, …) • Être garant des normes de production et d’exploitabilité • Assurer la maitrise du plan de production des domaines gérés • Gérer les consignes d‘exploitabilité • Exécuter ou faire exécuter les demandes de service et les actes d'admin applicatifs • Traiter les incidents et rétablir les services sur tous les environnements, notamment en intervenant en astreinte • Contribuer ou animer les cellules de crises • Gérer les obsolescences • Mettre en œuvre et contribuer aux PSIU et PSI • Suivre les indicateurs de qualité de fonctionnement Livrables attendus • Des dossiers d'architecture d'exploitation (DTA de la MOE opérationnelle SNI) validés, traités et conformes aux besoins • Des dossiers d’Exploitation (DEX) en pré requis à la mise en production • Des consignes de production (supervision et helpdesk) à jour • Des référentiels de documentation et techniques à jour (CMDB) • Des procédures et des objets informatiques structurés pour un usage en production (identifiés, supervisables, tracés/ traçables, prévisibles) • Des rapports de résolution d'incidents dit « post-mortem » ou « flash » pour les incidents à impact • Des problèmes enregistrés et traités • Des normes d'exploitabilité et techniques d'exploitation Expériences requises Une expérience réelle en environnements de production de 2 à 3 ans est requise. Compétences du monde Open • OS : Unix, AIS, Linux (RedHat), Windows • Scripting : Javascript, Powershell • Ordonnanceur : ControlM • Serveurs applicatifs / J2EE : Tomcat, Websphere, Apache, Jboss, DataStage, BPM, IIS • SGDB : Oracle, MySQL, SQLServer • Technologies Bigdata : NOSql, MongoDB, Postgre, Casandra, MapRDB, Teradata, DATA & IA • Transfert : CFT, Central Gouvernance, Secure Transport • Réseau : TCP/IP, F5, Grafana Compétences sur les outils « native » • CDAAS • Devops CI/CD • Kubernetes • Ansible • Dynatrace • Jenkins • ELK (ELISA) • Hadoop • Cloud public / cloud privé • GitLab • Kafka • Maven Compétences méthodologie • Agile • Devops • ITIL • Projet Compétences diverses • Pack Office • Teams • Service Now • Lotus Notes Langues Anglais courant Du lundi au vendredi, interventions en HNO et astreintes occasionnelles nuit et WE à prévoir
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
16 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois