L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 300 résultats.
Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)
Publiée le
BI
Splunk
SQL
38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Offre d'emploi
Data Consultant (Tableau to Power BI Migration)
Publiée le
MSBI
Oracle SQL Developer
Tableau software
Île-de-France, France
Télétravail partiel
Dans le cadre de ses projets de transformation data, Hextaem accompagne l’un de ses clients majeurs dans la migration de sa plateforme BI de Tableau vers Power BI . L’objectif est de moderniser l’écosystème de reporting , d’améliorer la performance des analyses et de renforcer l’autonomie des utilisateurs métiers. Le/la Consultant(e) Data interviendra sur l’ensemble du cycle de migration : analyse du parc existant, conception de l’architecture cible, migration technique et fonctionnelle, validation des données et accompagnement des utilisateurs. Missions principales 1. Analyse et cadrage Cartographier les rapports et jeux de données existants sous Tableau. Identifier les sources de données, flux et dépendances techniques. Définir l’architecture cible Power BI (datasets, dataflows, workspaces). Établir la stratégie, le plan de migration et le calendrier associé. 2. Migration et développement Reproduire et optimiser les dashboards, indicateurs et modèles dans Power BI. Concevoir des modèles de données performants (DAX, Power Query). Garantir la cohérence visuelle et fonctionnelle entre Tableau et Power BI. Gérer la publication, les jeux de données, les rafraîchissements et les droits d’accès sur Power BI Service. 3. Tests et validation Réaliser les tests de recette technique et fonctionnelle. Comparer les résultats entre Tableau et Power BI pour assurer la justesse des données. Documenter et corriger les écarts identifiés. 4. Formation et accompagnement Former les utilisateurs clés à Power BI et aux bonnes pratiques. Documenter les nouveaux rapports et processus de gouvernance. Accompagner les équipes métiers dans l’adoption de Power BI. Compétences techniques Maîtrise de Tableau Software et Power BI (Desktop & Service) . Excellente connaissance de SQL , DAX et Power Query (M) . Solides compétences en modélisation de données (étoile / flocon). Connaissance des principales sources de données : SQL Server, Oracle, Excel, API, Data Lake. Une expérience sur (ADF, Synapse, Databricks) est un plus. Maîtrise des bonnes pratiques en gouvernance BI , performance et sécurité.
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Mission freelance
Ingénieur Migration COBOL / Données
Publiée le
COBOL
6 mois
290-310 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission La mission consiste à intervenir sur des projets de migration de données issus d’environnements COBOL. Le rôle est centré sur l’analyse, la transformation et la migration de fichiers structurés provenant de systèmes legacy, en s’appuyant sur un outil interne dédié. Ce n’est pas un poste orienté développement applicatif : l’objectif principal est la compréhension fine des données, des formats, des encodages et des structures COBOL. Responsabilités principales – Analyser les structures de fichiers existantes (copybooks COBOL, formats propriétaires, fichiers plats, etc.) – Identifier et gérer les contraintes liées aux encodages (EBCDIC, ASCII) – Préparer, transformer et migrer les données à l’aide d’un outil interne – Adapter les mappings et règles de conversion selon les besoins métier et techniques – Contrôler la qualité des migrations : cohérence, intégrité, volumétrie, traçabilité – Collaborer avec les équipes internes pour clarifier les spécifications et résoudre les anomalies – Produire la documentation associée (règles de transformation, rapports de migration) – Participer aux phases de tests (unitaires, bout-en-bout, recette) Compétences techniques requises – Maîtrise des structures de fichiers COBOL (copybooks, organisation des données) – Solide compréhension des encodages EBCDIC et ASCII – Aisance dans la manipulation de fichiers volumineux et hétérogènes – Solides compétences Linux (scripts, manipulation de fichiers, commandes avancées) – Bon niveau en COBOL (lecture, compréhension, structures principales) – Maîtrise des formats d’échange : fixe, variable, CSV, binaire, etc. – Rigueur et méthodologie dans la manipulation de données sensibles Soft skills attendus – Motivation forte pour un rôle orienté migration et manipulation de données – Capacité d’analyse et sens du détail – Autonomie et fiabilité dans l’exécution des tâches – Communication claire et structurée avec les équipes projet Profil recherché – Ingénieur ou technicien confirmé avec expérience en migration, data ou environnements COBOL – Expérience sur systèmes legacy ou projets de transformation de SI – Intérêt marqué pour les activités de migration plutôt que pour le développement applicatif
Mission freelance
Consultant SAP S/4 Retail - Expert Données de base/Référentiel
Publiée le
Agile Scrum
Safe
SAP MM
6 mois
Île-de-France, France
Télétravail partiel
Vous souhaitez rejoindre une équipe experte SAP et contribuer à la fiabilité du référentiel Retail sous S/4HANA ? Nous recherchons un Consultant SAP S/4 Retail – Expert Données de base / Référentiel , capable de challenger, structurer et stabiliser les données articles dans un environnement SAP au cœur des opérations Retail. Intégré à une équipe produit dynamique, vous interviendrez sur la stabilisation des données de base SAP S/4HANA dans le cadre d’un projet stratégique de transformation. Votre mission : garantir la cohérence, la qualité et la performance des données Retail , essentielles au bon fonctionnement du SI. Vous participerez à la refonte du référencement SAP pour le périmètre, en collaboration avec les équipes métier et techniques.
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
Chef de Projet EDI (H/F)
Publiée le
SAP S/4HANA
Échange de données informatisé (EDI)
1 an
500-600 €
Yvelines, France
Télétravail partiel
Dans le cadre d’une transformation digitale majeure incluant le déploiement de SAP S/4HANA , notre client renforce son équipe IT et recherche un Chef de Projet EDI expérimenté pour piloter les intégrations SAP, les flux inter-applicatifs et la relation avec les fournisseurs. Vous interviendrez au sein de la DSI, en lien direct avec les équipes projet SAP, les équipes métiers et les partenaires externes. Vos missions Pilotage & coordination Gérer et animer l’équipe support EDI (utilisateurs et partenaires). Superviser la résolution des incidents, la gestion des litiges et le suivi des KPI. Coordonner les intégrations EDI dans l’écosystème SAP S/4HANA (IDoc, API, middleware…). Conduite de projet Rédiger le cahier des charges, la documentation projet et les spécifications fonctionnelles. Piloter l’appel d’offres pour une solution de gestion des flux B2B. Constituer et manager l’équipe de déploiement EDI et du portail fournisseurs. Planifier et suivre les jalons, budgets et risques du projet. Architecture & intégration Assurer les connexions entre SAP et les systèmes EDI existants (fournisseurs, ERP, plateformes externes…). Définir et valider les flux EDI (ORDERS, INVOIC, DESADV, etc.). Participer à l’alimentation du datalake dans une logique d’IA stratégique. Relationnel & gouvernance Travailler en interface avec les équipes SAP, les métiers, les fournisseurs et les prestataires. Garantir la conformité des échanges B2B et la qualité des données. Animer les comités de suivi et produire les rapports d’avancement.
Offre d'emploi
Data Engineer Python / AWS
Publiée le
AWS Cloud
PySpark
Python
3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Mission freelance
Data Analyst Ms Power BI / DataFlows– Montpellier
Publiée le
AWS Cloud
AWS Glue
Data analysis
12 mois
400-530 €
Montpellier, Occitanie
Télétravail partiel
Contexte : Le secteur de l’énergie renouvelable, notamment l’éolien et le solaire, connaît une croissance rapide et nécessite une exploitation optimale des données pour piloter les activités, assurer la qualité des installations et suivre la performance énergétique. Dans ce contexte, nous recherchons un Data Analyst Power BI confirmé pour renforcer les équipes Data et contribuer à la transformation digitale et analytique de l’entreprise. Mission principale : Le Data Analyst Power BI aura pour objectif de maintenir, améliorer et développer les tableaux de bord métiers critiques , tout en garantissant la qualité et la fiabilité des données . Ses missions incluent : Assurer le maintien en condition opérationnelle (MCO) des tableaux existants. Concevoir et déployer de nouveaux tableaux Power BI adaptés aux besoins métiers. Détecter, analyser et corriger les anomalies de données , et sensibiliser les métiers à la qualité des données. Documenter les évolutions, anomalies et retours métiers. Collaborer avec les équipes métiers et techniques (AWS, Dataiku, Power Platform…) pour assurer la cohérence et la performance des tableaux de bord.
Mission freelance
Consultant JDE FI (AP AR GL) - Intégration données comptables
Publiée le
ERP
12 mois
620-750 €
Paris, France
Télétravail partiel
Consultant JDE FI (AP AR GL) - Intégration données comptables - Paris - Hybride Pour le compte de notre prestigieux client, société à dimension internationale, leader sur leur marché, et dans le cadre d'un important projet de transformation visant à déployer JDE sur une cinquantaine de pays, nous recherchons plusieurs consultants JDE FI (AP AR GL) expérimentés pour : - Diriger l'alignement du plan comptable et de la structure des unités commerciales - Préparer les entités pour la mise en service de JDE (vérifications de l'état de préparation des entités) - Gérer la migration et le rapprochement des balances de réconciliation - Coordonner l'alignement de la matrice fiscale avec les équipes financières locales - Documenter les hypothèses et les décisions relatives à la migration - Expérience en transformation financière et JDE préférée Profil : - 5 à 7 ans d'expérience dans les opérations comptables/financières et la mise en œuvre d'ERP dans des environnements multi-entités. - Solides connaissances en comptabilité générale, structures COA, balances de vérification et rapports financiers. - Expérience dans la migration et le rapprochement des données entre les systèmes existants et JDE (ou ERP similaire). - Capacité à analyser et à aligner les structures des unités commerciales, les centres de coûts et les matrices fiscales afin de répondre aux exigences du système et à la réglementation. - Contribue à la standardisation des processus et à la mise en place de modèles d'intégration financière évolutifs. - Capacité à travailler efficacement avec les équipes financières régionales/locales, le SICF et les parties prenantes JDE. - Souci du détail, esprit analytique, capacité à résoudre les problèmes de données manquantes et à garantir l'exactitude des données financières migrées. - Une certification CPA/ACCA ou équivalente est un plus ; une bonne connaissance de JDE est nécessaire Mission prévue pour démarrer courant Janvier. Entretiens et sélection possible entre fin Décembre et mi-Janvier. Merci de transmettre votre CV actualisé en anglais pour considération immédiate.
Offre d'emploi
Data Engineer – GCP confirmé·e
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Offre premium
Offre d'emploi
Lead Dev
Publiée le
PowerBI
SQL
40k-60k €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Lead Developer spécialisé en technologies Microsoft Power BI & Data (H/F) . Il/elle sera associé(e) à l’ensemble des phases de développement de projets organisés en mode agile : appropriation du contexte, chiffrage, conception et développement, optimisation du code, livraison et veille technologique. Il/elle aura également la responsabilité d’accompagner la montée en compétences de développeurs juniors sur cette technologie. Missions : Accompagner et mettre en place une animation de mentoring auprès de nos développeurs BI / Data Analysts Recueillir les besoins utilisateurs, réaliser les études de faisabilité et rédiger les spécifications Concevoir, développer, déployer et maintenir des tableaux de bord et des rapports sous Power BI (Desktop & Service) Concevoir et mettre en place la modélisation des données (modèles en étoile, gestion des relations) Garantir la conformité des développements avec les standards Microsoft et ceux du GPU SNCF Garantir l’intégration des normes de sécurité (RLS – Row Level Security, gestion des accès) Réaliser des tests de cohérence des données (DAX) et assurer le dépannage Tester la qualité des données et publier les rapports (gestion des espaces de travail et des applications) Participer à la rédaction de la documentation technique et fonctionnelle afin de documenter les modèles et indicateurs existants Assurer la transformation et l’enrichissement des données via Power Query à partir des sources de production Optimiser les performances (optimisation du DAX et des temps d’actualisation) Assurer une veille technologique sur Power BI et la Power Platform, et apporter un support aux utilisateurs. Livrables : Mise en place et maintien de la documentation technique sur les projets confiés Réalisation de revues de code Respect de la chaîne de livraison et du versioning des livrables.
Offre d'emploi
Consultant(e) AMOA Recette Décisionnel
Publiée le
AMOA
Big Data
Business Intelligence
6 mois
40k-50k €
400-450 €
Paris, France
Télétravail partiel
Contexte du projet : Dans le cadre du maintien en conditions opérationnelles et de l’évolution d’applications décisionnelles stratégiques , nous recherchons pour notre client bancaire, un Consultant expert en Recette & AMOA Décisionnel (H/F). Vous accompagnez les équipes métiers et techniques dans les activités de recette , de conception fonctionnelle et de support à la production applicative , au sein d’un environnement data et BI à fort enjeu. Le projet s’inscrit dans une démarche de transformation et d’industrialisation des processus décisionnels, en lien avec les équipes MOA, MOE, Data Platform et Métiers . Activité de Recette : Élaborer et rédiger le plan de tests (cas de tests, scénarios, jeux de données) Exécuter les différents types de tests : recette fonctionnelle, d’intégration et de non-régression Analyser les résultats : conformité, détection et qualification des anomalies Déclarer et suivre les anomalies dans les outils Banque de France Produire les rapports de tests exécutés et bilans de recette Activité de Conception fonctionnelle : Collecter et analyser le besoin métier et rédiger les cas d’usage Réaliser les modélisations fonctionnelles (diagrammes d’activités, de séquence, architecture fonctionnelle) Rédiger les spécifications fonctionnelles générales et détaillées , ainsi que les règles de gestion et exigences non fonctionnelles Consigner les livrables dans JIRA / Confluence Activité de Support à la Production : Analyser les incidents de production (fonctionnels et métiers) Assurer le suivi et la vérification des correctifs Contribuer au pilotage et à la communication autour des incidents
Offre d'emploi
Administrateur systèmes et bases de données H/F
Publiée le
40k-50k €
Toulon, Provence-Alpes-Côte d'Azur
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Provence-Alpes-Côte d'Azur accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un organisme public dans le domaine de la défense, vous contribuez au maintien en conditions opérationnelles et à l'évolution des bases de données. Vos responsabilités : • Participer au maintien en conditions opérationnelles de l'infrastructure système • Réaliser les requêtes SQL • Optimiser l'architecture du cluster Oracle • Optimiser l'exploitation, la performance, la documentation, la sécurité et la qualité de service des bases de données en fonction des contraintes clients • Produire et mettre à jour la documentation technique et les modes opératoires (fiches consignes et des procédures d'exploitation, documentation des configurations) • Assurer le transfert de connaissances aux techniciens • Réaliser l'assistance pour la résolution de problèmes et incidents L'environnement technique : ExaData, Redis, Oracle, MySQL, MongoDB, SQL Server, PostgreSQL, Maria DB Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI, avec un démarrage selon vos disponibilités (nous acceptons les préavis) Horaires : Horaires de bureau, astreintes ponctuelles possibles Localisation : prestation de client grand compte situé à Toulon Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : gbgx8i3cxe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
300 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois