L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 426 résultats.
Mission freelance
Data Scientist - Industry 4.0 - Belgique
Publiée le
Data science
1 an
400-600 €
Belgique
Télétravail partiel
Contexte Des usines spécialisées dans la production d’éléments de moteurs aéronautiques en titane réalisent des opérations d’usinage et de forge avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 fournit les outils digitaux, les technologies Industrie 4.0 et le support technique aux équipes métier et à la production industrielle. Structure du département L’équipe Manufacturing 4.0 regroupe des ingénieurs assurant l’interface entre le monde industriel et les systèmes IT permettant le pilotage intelligent des activités. On y retrouve notamment des compétences en : IT Platform Manufacturing Execution Systems UNS (Unified Namespace), collecte et distribution temps réel des données et indicateurs industriels Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attrait pour la fonction Le programme consiste à concevoir et développer la solution technologique Manufacturing 4.0 du futur , intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction – Tâches principales En collaboration avec les équipes Manufacturing 4.0, IT et métiers industriels, vous serez amené à : Explorer, analyser et préparer les données issues des systèmes industriels (machines, capteurs, MES, inspection qualité…). Concevoir, entraîner et évaluer des modèles ML et/ou Computer Vision adaptés aux contraintes industrielles. Mettre en œuvre des pipelines end-to-end MLOps (training, validation, déploiement, monitoring). Déployer les modèles en production sur une architecture hybride on-prem / cloud avec containers et AWS SageMaker. Suivre la performance des modèles en production (qualité, dérive, robustesse) et proposer des améliorations. Intégrer les modèles aux systèmes existants via la chaîne CI/CD en lien avec les équipes IT. Documenter les solutions et diffuser les bonnes pratiques. Challenges Contribuer à la transformation Manufacturing 4.0 par la donnée et l’IA. Déployer des modèles robustes, fiables et maintenables en environnement industriel. Combiner innovation, contraintes industrielles et exigences de production. Faire preuve d’autonomie, proactivité et esprit critique constructif. Être force de proposition pour améliorer les pratiques Data Science et MLOps. Partager les bonnes pratiques avec les autres data scientists. Contacts internes et externes Intégration au sein de l’équipe Manufacturing 4.0 avec data, IT et ingénieurs industriels. Interactions avec les équipes MES, Qualité, Maintenance, UNS, IT et Cloud. Collaboration possible avec partenaires technologiques et fournisseurs de solutions.
Offre premium
Offre d'emploi
Chef de Projet BI / Data
Publiée le
Microsoft Power BI
Microsoft SSIS
Power Apps
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vous souhaitez rejoindre une ETI française dynamique , tournée vers l’innovation et engagée dans un plan de développement ambitieux ? Vous recherchez un environnement où les valeurs humaines, la cohésion d’équipe, l’expertise technique et la qualité de service sont au cœur du fonctionnement ? Ce poste est fait pour vous. Dans le cadre de son développement, notre client recherche un Chef de Projet BI / Data Middleware (H/F) pour renforcer sa Direction Digitale et Systèmes d’Information. Vous jouerez un rôle clé dans la collecte, la transformation et la valorisation des données , ainsi que dans la mise en œuvre des flux d’échanges entre les différents systèmes. Le poste comporte environ 60 % de BUILD et 40 % de RUN . Vos missions : Conception et gestion des infrastructures data Recueillir les besoins métiers en matière de collecte, traitement et exploitation des données. Concevoir des architectures de données robustes (DWH, Data Lake…). Développer et maintenir des pipelines de données performants et sécurisés. Assurer la qualité, la sécurité et la conformité des données (gouvernance, RGPD). Optimiser les systèmes de traitement de données et industrialiser les processus. Support aux projets Data et intégration Collaborer étroitement avec les key users BI sur les projets décisionnels. Mettre en place et suivre les flux EDI (INVOIC, ORDERS…). Assurer la maintenance, les tests automatisés et l’exploitabilité des solutions. Contribuer à la rédaction des bonnes pratiques d’architecture et de sécurité. Veille, amélioration continue et qualité Réaliser une veille sur les technologies Big Data, frameworks et langages associés. Proposer des améliorations continues, tant sur les outils que sur les performances. Garantir la traçabilité et la haute qualité des données mises à disposition. Support utilisateurs et supervision quotidienne des flux (40 % du temps) Traiter les tickets utilisateurs (incidents, assistance). Assurer la supervision quotidienne des flux : analyse d’erreurs, corrections, rejouements, optimisations.
Offre d'emploi
Ingénieur Data (Azure Data Factory)
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
Microsoft SQL Server
Paris, France
Télétravail partiel
Dans le cadre d’un projet d’intégration majeur, une phase opérationnelle de migration des données a démarré cette rentrée avec une série de bascule(s) à blanc prévue(s). Vous rejoignez l’équipe data du SI source pour renforcer les travaux de migration et assurer le maintien en condition opérationnelle (MCO) des flux existants. Vos principales missions seront : Participer à la migration des données et aux bascules (à blanc puis production). Développer et maintenir les pipelines ETL/ELT sur Azure Data Factory et/ou SSIS. Concevoir et optimiser les traitements d’alimentation, de transformation et de contrôle qualité des données. Assurer le support opérationnel des flux existants (monitoring, résolution d’incidents, correction). Participer aux phases de recette, validation et suivi de bascule, en coordination avec les équipes métier et techniques. Produire des reportings d’avancement et contribuer à la qualité et la traçabilité des livrables. Travailler en transversal avec les équipes métier pour comprendre le domaine fonctionnel (Assurance / Banque, compte titres, PEA) et garantir la conformité des traitements.
Offre d'emploi
Consultant Projets Cybersécurité / RSSI Confirmé
Publiée le
ISO 27001
Maintien en condition de sécurité (MCS)
Safe
1 an
La Défense, Île-de-France
🎯 Objectif de la mission Accompagner les projets cybersécurité afin de garantir la conformité réglementaire, la sécurité opérationnelle et l’amélioration continue des services numériques de la BU. 📦 Livrables attendus Pilotage et développement des politiques de sécurité du SI Animation et coordination des partenaires internes et externes 🛠 Missions principales1. Pilotage de la sécurité du SI Déployer les politiques, normes et procédures de sécurité de l’information Rédiger la documentation liée au SMSI (conforme ISO 27001) Réaliser les analyses de risques (méthode EBIOS RM) et piloter les plans de remédiation Traduire les risques en contrôles techniques opérationnels Suivre les indicateurs de performance sécurité (KPI, KRI) Préparer les audits internes et contribuer à l’amélioration continue Intégrer les exigences réglementaires (RGPD, NIS2, DORA) Sensibiliser les équipes techniques et métiers 2. Coordination des partenaires Mettre en place les annexes de sécurité partenaires Concevoir les supports d’évaluation sécurité Rédiger documents projets (PAS, PAQ, KPI, questionnaires) Animer des revues techniques régulières avec DSI, DEV, SRE Accompagner les équipes projets dans les réponses sécurité 💻 Compétences techniques requises (Impératives) Analyse de risques & remédiation (EBIOS RM) – Confirmé Méthodologie Agile SAFe – Confirmé Amélioration continue / MCS – Confirmé 🌍 Langues Anglais courant – Impératif
Offre d'emploi
Analyste DATA - Prévoyance Santé
Publiée le
Cognos
Dataiku
DSS
1 an
10k-45k €
100-390 €
Tours, Centre-Val de Loire
Télétravail partiel
Présence chaque matin dès 8h00 sur TOURS. Data & analytics a une activité d’exploitation et de supervision de traitements (récurrents ou non) qui nécessite de venir renforcer l’équipe existante. · Il s’agit notamment de : · Superviser les traitements, en assurer la veille et la communication, · Gérer les incidents et interagir avec les clients internes/externes, · Créer et maintenir la documentation opérationnelle, la cartographie des sources, des · Données et leur utilisation · Optimiser des traitements (SQL, SAS, Dataiku) · Effectuer un 1er niveau d’analyse et de correction en cas d’anomalie · Venir en support du reste de l’équipe · Avoir une bonne relation et communication avec le client Livrables attendus : · Mise à disposition des livrables métiers · Communication adaptée et réactivité · Mise à jour de la documentation Périmètre de l’intervention : Les technologies à utiliser seront particulièrement SAS (jusqu’au 31/12/2026), SqlDeveloper et Dataiku . Une connaissance de Cognos est un plus.
Offre d'emploi
Développeur Java / BPMN (obligatoire) – Facturation électronique
Publiée le
Business Process Model and Notation (BPMN)
Java
Quarkus
1 an
29k-35k €
Ivry-sur-Seine, Île-de-France
Contexte Dans le cadre du développement d’une solution de facturation électronique (e-facture PA) à forte contrainte de performance, le prestataire interviendra au sein de la Direction du Développement. Il participera à des projets de dématérialisation fiscale , ainsi qu’à la maintenance évolutive et corrective des applications existantes, en lien direct avec les besoins clients. Objectifs de la mission Développer des workflows applicatifs sur une solution de facturation électronique. Contribuer à la fiabilité, à la performance et à l’évolutivité du produit. Participer aux projets clients nécessitant des développements spécifiques. Missions principales Développer des services applicatifs principalement en Java (Quarkus / Spring Cloud) . Concevoir et implémenter des workflows métier (BPMN). Développer et adapter des chaînes applicatives clients s’appuyant sur l’écosystème existant. Assurer la maintenance évolutive et corrective des applications. Intervenir en support de niveau 3 (incidents complexes, évolutions). Travailler en collaboration avec une équipe pluridisciplinaire et, ponctuellement, avec d’autres équipes techniques pour l’intégration de solutions tierces. Livrables attendus Modélisation BPMN des workflows. Code source des workflows développés. Compétences techniques Java – Junior BPMN – Junior Environnements à forte contrainte de performance – Apprécié Compétences linguistiques Anglais : lu et écrit – Impératif
Mission freelance
Consultant Senior Data Governance / Collibra
Publiée le
Collibra
Data governance
Groovy
12 mois
400-590 €
Île-de-France, France
Télétravail partiel
Dans le cadre du déploiement et de l’industrialisation de sa démarche de gouvernance des données , un grand groupe recherche un Consultant Senior en Data Governance, expert Collibra . La mission s’inscrit dans un programme structurant visant à renforcer : le catalogage des données la traçabilité (data lineage) la qualité des données la conformité réglementaire (Data Privacy) Le consultant intégrera l’équipe Data Governance du pôle Data et interviendra sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. 🛠 Responsabilités principales Le consultant aura un rôle d’expert fonctionnel et technique autour de Collibra et interviendra notamment sur : Gouvernance & Cadrage Animation d’ateliers métiers et IT Recueil des besoins et rédaction des spécifications fonctionnelles et techniques Définition et mise en œuvre des politiques et processus de gouvernance Implémentation Collibra Configuration et administration de la plateforme Développement de workflows de validation Mise en place du data catalog (glossaire métier, dictionnaire de données) Modélisation et déploiement du data lineage Paramétrage des règles de Data Quality Implémentation des processus Data Privacy (registre de traitements, PIA…) Qualité & Pilotage Mise en place des indicateurs de qualité des données Suivi et pilotage des rejets de qualité Création de reportings Power BI Animation & Conduite du changement Animation de la communauté des Data Owners et Data Stewards Formation et acculturation des équipes à la Data Governance Contribution à la mise en place des référentiels de données (MDM) Livrables attendus Expressions de besoins et documents de cadrage Roadmaps Data Governance (Connaissance / Qualité / Accessibilité) Workflows Collibra configurés Catalogues de données alimentés Lineage modélisé et documenté Règles de Data Quality implémentées Indicateurs et tableaux de bord de suivi Supports de formation et documentation projet Référentiels de données via une solution MDM (Semarchy, Informatica…)
Offre d'emploi
Data Ingénieur DBT - Snowflake (H/F)
Publiée le
DBT
1 an
45k-55k €
470-560 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer spécialisé DBT et Snowflake pour rejoindre une équipe Data et participer à la construction, l’optimisation et l’industrialisation d'une plateforme analytique moderne. Vous interviendrez au cœur des pipelines de données pour garantir la fiabilité, la scalabilité et la performance des modèles. En tant que Data Engineer, vous serez en charge de : 1. Développement & modélisation Modéliser, transformer et documenter les données à l’aide de DBT (models, tests, macros). Construire et optimiser les modèles dans Snowflake (warehouse, schemas, performance tuning). Développer et maintenir des pipelines data robustes (batch ou streaming selon contexte). 2. Architecture & DataOps Participer à la conception de l’architecture Data (Data Lake / Data Warehouse). Mettre en place des bonnes pratiques en versionning, CI/CD et monitoring autour de DBT. Assurer la qualité, la cohérence et la gouvernance des données. 3. Collaboration & support Travailler étroitement avec les Data Analysts, Data Scientists et équipes métier. Documenter les transformations pour assurer la transparence et la traçabilité. Participer à l'amélioration continue des standards Data. Stack technique DBT (core ou cloud) Snowflake SQL avancé Git / CI-CD (ex : GitLab, Github Actions, CircleCI) Orchestrateurs : Airflow, Dagster ou équivalent (souhaité) Langages : Python (souhaité)
Offre d'emploi
Data Analyst / Data Scientist / Ingénieur IA (H/F)
Publiée le
AI
Alteryx
Apache Spark
1 an
50k-65k €
500-650 €
Paris, France
Télétravail partiel
En tant que Data Analyst ou Data Scientist ou AI Ingineer , vous contribuez aux projets stratégiques de grands comptes bancaires en intervenant sur l’analyse, le traitement et la valorisation des données bancaires et financières. Vos principales missions : Recueillir et analyser les besoins métiers Collecter, structurer et traiter les données chiffrées issues de différentes sources Nettoyer les données (suppression des doublons, gestion des valeurs manquantes, etc.) Développer des algorithmes pour l’exploitation des données (analyse statistique, machine learning) Concevoir et construire des actifs informatiques dédiés à la préparation et à la visualisation des données Développer du code ou des scripts s’appuyant sur des données structurées et non structurées Participer aux phases de tests, recettes et validation des solutions déployées Installer et configurer les outils requis dans le respect du cadre de référence technique Assurer la maintenance évolutive et corrective des solutions déployées, intervenir en support si nécessaire Rédiger la documentation associée (use cases, développements, procédures) Lieu : Paris – Client : Grand établissement bancaire – Type de mission : CDI / Freelance / Portage Démarrage : ASAP – Durée : 3 ans
Offre d'emploi
Développeur Logiciel Full Stack – Plateforme Multi-Canal
Publiée le
Angular
PHP
PostgreSQL
1 an
40k-45k €
370-450 €
La Défense, Île-de-France
🎯 Objectif du poste Participer au développement, à l’évolution et au maintien en condition opérationnelle d’une plateforme multi-canal existante, utilisée pour l’orchestration et la gestion de flux applicatifs. 🛠️ Compétences techniques requises (impératif) Symfony 7.4 / PHP 8.5 PostgreSQL Angular 19 Spring Boot 3.5 📌 Contexte & Missions Le développeur rejoint une équipe Agile et intervient sur un produit multi-canal déjà en production. Les responsabilités couvrent : Développement & intégration Conception et intégration de nouvelles fonctionnalités. Analyse & rédaction des spécifications techniques. Développement, tests unitaires, correction d’anomalies. Respect des standards de qualité, sécurité & architecture. Travail en Agile Participation aux rituels : daily, planning, reviews, rétrospectives. Contribution au chiffrage et à l’estimation des charges. Collaboration étroite avec l’équipe projet et le Product Owner. Maintenance & évolutions Gestion des montées de version. MCO du produit : performance, stabilité, dette technique. Optimisation et sécurisation de l’architecture. Support avancé (N3/N4) Analyse & résolution d’incidents complexes. Diagnostic des causes racines. Mise en œuvre de correctifs pérennes. Support technique aux équipes internes.
Mission freelance
Support Market Data
Publiée le
Linux
PL/SQL
Python
12 mois
Paris, France
Télétravail partiel
Mission : Nous assister dans l’implémentation, le support et la maintenance de nos architectures market data ainsi qu’au développement et à la maintenance des outils de support. Cette mission se situe dans une équipe market data (5 personnes y compris le prestataire) qui gère la disponibilité des flux temps réel pour les applications de trading CFM Missions: Support niveau 1, qualification, traitement et suivi des incidents et des remontés d’alertes. Implémentation des nouvelles architectures des flux de données Détection, suivi et résolution des problèmes techniques et fonctionnels avec les autres équipes IT et les équipes de Recherche. Communication pendant et après les incidents auprès des utilisateurs et du management. Optimisation de la qualité des flux Intégration de nouveaux marchés Suivi et veille technologique sur les évolutions des places boursières : compréhension de l’impact sur nos infrastructures et proposition d’intégration Astreintes de l’équipe Nous recherchons donc un consultant avec les compétences suivantes : Développement Python, PL/SQL Gitlab 2/3 ans d’expérience. Support Connaissance réseau (routage, unicast, multicast) Linux, PL/SQL Expérience de support applicatif Connaissance des marchés boursiers
Offre d'emploi
Ingénieur DATA
Publiée le
44 800-54k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Le poste fait partie de la Direction de la Transformation Stratégique qui compte notamment quatre équipes data : BI & Data Analytics, Data & AI Technology, Data Science & AI, Stratégie & Projets Data. Sous l’autorité du/de la Responsable Data & AI Technology et du/de la Team Leader, le/la Data Engineer réalise la conception, le développement et la maintenance des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données. Il/elle intervient également sur l’architecture data pour garantir des solutions robustes, performantes et évolutives. Missions clés : • Conçoit, développe et maintient des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données • Assure le développement logiciel lié et prodigue son support aux équipes data & business dans leurs propres développements • Intervient sur l’architecture data pour garantir des solutions robustes, performantes et évolutives • Participe activement à la montée en compétence des équipes data & business et les accompagne dans l’adoption des bonnes pratiques data et DevOps • Administre et fait évoluer la plate-forme data en collaboration avec la DSI, développe les outils nécessaires Compétences attendues : • Expertise en Python et SQL, appliquée dans des environnements data complexes et exigeants, intégrée dans des pratiques DevOps (Git, CI/CD, ELK …) o Expérience solide et opérationnelle avec les outils de la modern data stack et notamment Snowflake, Airflow et Soda • Expérience démontrée dans la conception d’architectures data modulaires, scalables et résilientes, combinée à des connaissances avancées en infrastructure et cloud, en particulier Azure. • Forte sensibilité aux technologies émergentes, en particulier l’IA, avec une capacité à identifier des cas d’usage pour le business et à les intégrer dans des produits data mais aussi dans la plate-forme data
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
Data Scientist / Developper
Publiée le
.NET
Azure Synapse
BI
1 an
500-550 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous sommes à la recherche d'un(e) : Data Scientist Analyse des besoins métiers – Ateliers de cadrage – Reverse Engineering d’applications existantes Intégration de données dans l’environnement Synapse Développement SQL et procédures T-SQL, Synapse Synchronisation des développements avec les développeurs Front-End et Back-End Tests d’intégration Suivi des campagnes de tests en UAT Développements de rapports Power BI et de rapports paginés Power BI Report Builder Documentation des projets Support technique aux utilisateurs sur les applications livrées, sur Synapse, sur Power BI
Mission freelance
Ingénieur DevOps Azure
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
350-390 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Résumé de la mission : Le client souhaite faire appel à une société spécialisée en ingénierie DevOps et SRE sur environnement Azure, dès la phase d’idéation, en collaborant avec les concepteurs et développeurs pour assurer l’exploitabilité, la performance et la supervision des produits tout au long du cycle de vie. Accompagnement technique : Support à la squad sur la performance, la robustesse, la sécurité et la fiabilité durant le développement et la maintenance. Mise à disposition des environnements : Veiller à leur disponibilité, conformité et automatisation dans une logique DevOps pour le déploiement continu. Garanties opérationnelles : Assurer l’exploitabilité, l’observabilité, et l’optimisation des produits avec assistance technique et certifications. Préconisations : Solutions pour le capacity planning, évolutivité et scalabilité des systèmes. Gestion documentaire : Vérification et mise à jour régulière des dossiers d'exploitabilité. Amélioration continue : Participation à l’amélioration des produits et processus. Compétences techniques requises : Développement, configuration, déploiement et test d'automatismes. Maîtrise des principes fondamentaux d'intégration et développement de code adapté à DevOps. Connaissance des outils et procédures d'exploitabilité et d'observabilité pour assurer la disponibilité. Évaluation des risques techniques lors des mises en production. Gestion des déploiements d’évolutions de solutions et configurations cloud. Objectifs et livrables : Mise à jour du dossier d'architecture avec éléments d’exploitabilité, d’observabilité et de performance. Environnements contenairisés , paramétrés et configurés, avec suivi évolutif dans le temps. Dashboard d'observabilité opérationnels et supports pour leur utilisation. Rapports d’incidents rédigés et communiqués pour leur traitement. Matricielles Qualité-Performance pour évaluation continue des solutions.
Mission freelance
Proxy Product Owner Data - Run
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
3 mois
400-500 €
Hauts-de-Seine, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients un Proxy Product Owner expérimenté pour stabiliser la phase de RUN du datalake de la BU - cybersécurité Responsabilités clés : Structurer et accompagner une transition fluide du Build vers le RUN des activités du projet. S'approprier et gérer le backlog d'incidents ServiceNow. Proposer un arbitrage des tickets de RUN dans ServiceNow en fonction des risques et de l'impact métier. Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement et communiquer auprès des utilisateurs. Produire des SOP (Procédures Opérationnelles Standard) pour les incidents récurrents afin de permettre à l'équipe de RUN externe de gérer les opérations courantes. Cela implique la création de procédures d'investigation, la fourniture d'extraits de code utiles utilisés par les développeurs, et de procédures de remédiation. Mettre en place le monitoring et les alertes sur les sources de données du datalake pour garantir la fraîcheur, la qualité et la disponibilité des données. Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Contribuer à la formation et au support des utilisateurs, tant sur les rapports PBI que sur le modèle de données (self-BI).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
426 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois