L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 958 résultats.
Offre d'emploi
Expertise technico-fonctionnelle sur les contributions Referentiels / PACBASE/SDP
Digistrat consulting
Publiée le
Méthode Agile
Rédaction des spécifications fonctionnelles
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : La mise à jour des environnements de tests MOE 💡Description détaillée Le contexte de la mission : Mission technico-fonctionnelle sur le progiciel de core Banking bancaire ATLAS 2 déployés dans les filiales corporate du groupe. Intégré dans l'équipe MOE Référentiel, rentabilité Juridiction, le collaborateur prendra en charge la mise à jour des environnements de tests MOE, participera aux différentes phases des projets et assistera les différents intervenants sur les prochains sujets référentiels (évolutions projet d'enslavement du référentiel Tiers A2 à la TP API CIB – OCAPI....). 💡Missions Principales : - la mise à jour des environnements de tests MOE, -Participation aux différentes phases des projets et assistera les différents intervenants sur les prochains sujet référentiels (évolutions projet d'enclavement du référentiel Tiers A2 à la TP API CIB - OCAPI…) 💡Responsabilités principales : · Prise en charge des différentes assistances d'étude et de mise en œuvre des évolutions référentiel client associées au programme Radar. - développements batch et TP PACBASE/SDP - revues de code ponctuelles et d’apporter une assistance technique aux développeurs le cas échéant. - recettes fonctionnelles (sous Quality Center). - reporting à son responsable opérationnel client. - Application des processus méthodes CMMI et utiliser les outils du client. - Aide aux entités de déploiement lors de la mise en production des évolutions. - Aide fonctionnelle la MOA ainsi que la TMA production dans la maintenance corrective
Mission freelance
Business Analyst / Project Manager – Calypso - Paris
Net technologie
Publiée le
Business Analysis
Business Analyst
Calypso
1 an
Paris, France
Dans le cadre des impacts du programme IT sur les plateformes Calypso , nous recherchons un(e) Senior Business Analyst / Project Manager pour intervenir sur des environnements Prime Brokerage, Fixed Income, ALM Treasury & Equities . 🎯 Objectif : accompagner les évolutions fonctionnelles, projets stratégiques et activités de support autour des instances Calypso. 🚀 Missions Pilotage de projets liés aux évolutions Calypso & interfaces métiers Recueil des besoins, rédaction des spécifications & coordination IT Organisation des recettes fonctionnelles & tests de non-régression Support avancé N3 aux équipes MO/BO & comptables Coordination avec les équipes internationales (France / Inde) Contribution aux sujets transverses Global Markets 👉 Mission stratégique au cœur des plateformes de post-trade & opérations de marchés.
Mission freelance
Développeur/ Chef de Projet Data (h/f)
emagine Consulting SARL
Publiée le
Microsoft Power BI
3 ans
400-550 €
Île-de-France, France
À partir d’une liste prédéfinie d’environ 1 200 rapports Business Objects existants, l’objectif est de challenger les métiers propriétaires afin de : 1. Décommissionner et arrêter un maximum de rapports BO non utilisés ou obsolètes. 2. Orienter les métiers vers des rapports Power BI existants lorsque ceux-ci répondent déjà au besoin couvert par les rapports BO. 3. En dernier recours, lorsque les deux points précédents ne sont pas applicables, migrer le nombre limité de rapports BO restants vers de nouveaux rapports Power BI. L’objectif principal est donc de réduire significativement le parc de rapports BO, de favoriser l’usage des rapports Power BI existants, et uniquement lorsque le besoin métier est avéré, de développer de nouveaux rapports Power BI en remplacement des rapports BO concernés. EXPERIENCE PROFESSIONNELLE REQUISE • Expérience de 7 ans minimum en tant que data analyste • Experience de 5 ans minimum en tant que chef de projet data COMPETENCES REQUISES • Connaissance Business Object • Connaissance Power BI • Connaissance SSIS • Connaissance de la méthode agile Compétence – Nice to have ▪ Connaissance du monde de l’assurance/Assistance
Offre d'emploi
Data Analyst Qlik Sens - Rennes
Argain Consulting Innovation
Publiée le
Qlik
Qlik Sense
Qlikview
2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée dans la restitution et l’analyse de données sous Qlik afin d’accompagner les métiers dans la construction, l’évolution et l’optimisation de leurs tableaux de bord. Principales missions Accompagnement des métiers dans l’expression des besoins et participation aux phases de recette fonctionnelle. Analyse des sources, modélisation décisionnelle et conception des applications Qlik. Développement, évolution et maintenance de tableaux de bord QlikView et/ou Qlik Sense . Mise en forme, datavisualisation et valorisation des données pour faciliter l’aide à la décision. Contribution à l’optimisation des performances : modèles de données, scripts de chargement, organisation des applications. Documentation fonctionnelle et technique, participation aux travaux d’industrialisation. Support, diagnostic et résolution d’incidents sur les applications de restitution.
Offre d'emploi
Consultant Data & Flux (H/F)
WINSIDE Technology
Publiée le
Apache Airflow
AWS Cloud
Snowflake
33k-65k €
Lille, Hauts-de-France
Contexte Dans le cadre de la structuration de leur plateforme data, notre client recherche plusieurs profils Data et Flux pour intervenir sur la mise en place et l’optimisation de nos systèmes de gestion de données. Leur environnement technique s’appuie principalement sur : Snowflake (cœur de la plateforme data) AWS (EventBridge, Lambda) Airflow (orchestration des flux) Nous recrutons 4 profils avec des niveaux allant de très junior (sortie d’école) à très sénior (expert / architecte) . Vos missions 🔹 Volet Data Mise en place et structuration des données d’entreprise Contribution à la qualité des données (data quality) Modélisation et gestion des données dans Snowflake Participation aux bonnes pratiques Data (gouvernance, structuration) 🔹 Volet Flux / Data Engineering Développement et gestion des flux de données Mise en place des pipelines (ETL / ELT) Orchestration avec Airflow Intégration et gestion des événements via AWS EventBridge Développement serverless avec AWS Lambda 👉 Environnement orienté industrialisation des flux et qualité de la donnée (le décisionnel n’est pas la priorité à ce stade). INFORMATIONS COMPLEMENTAIRES Mission longue (minimum 1 an) Démarrage : 2 postes en juin 2 postes en septembre Localisation : Lille (59)
Offre d'emploi
Chef de projet Data Intégration (H/F)
TechOps SAS
Publiée le
API
Azure
Confluence
12 mois
40k-56k €
450-600 €
Paris, France
Nous recherchons un Chef de Projet Data Intégration pour intervenir sur des projets à fort enjeu autour des échanges de données et des API. Vous serez au cœur des interactions entre les équipes métiers et techniques, avec pour mission de cadrer les besoins, piloter les projets et assurer la bonne mise en œuvre des solutions d’intégration. Vous évoluerez dans un environnement structuré, avec des équipes organisées et des processus établis, facilitant le delivery et la qualité des projets. Vous interviendrez sur la mise en place et le suivi de flux de données dans un environnement cloud, en veillant à la cohérence, à la performance et à la fiabilité du système d’information. Vous jouerez également un rôle clé dans la coordination transverse et le suivi des livrables, dans une logique d’amélioration continue.
Mission freelance
Data Engineer / Data Platform Engineer (H/F)
INFOGENE
Publiée le
Data Engineering
Finance
Python
6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
Offre d'emploi
Tech Lead Data Engineer H/F
JEMS
Publiée le
50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : h07ygwznqb
Offre d'emploi
Ingénieur DataOps/ Administrateur·rice Systèmes & Data H/F
TOHTEM IT
Publiée le
35 500-40k €
Toulouse, Occitanie
Ta mission Tu assures l’administration, l’exploitation et l’optimisation des plateformes Data, des infrastructures applicatives et des environnements systèmes dans des contextes Data et Cloud. Le poste est fortement orienté autour des flux de données, des traitements ETL, de l’automatisation des chaînes de production et de la fiabilisation des plateformes techniques. Tu interviens également sur les sujets de supervision, de déploiement, d’industrialisation et de performance des environnements Data, en collaboration avec les équipes projets et métiers. Tes activités principales Administration systèmes et infrastructures Administrer et maintenir les environnements Windows et Linux Gérer les serveurs IIS et Apache Assurer l’administration des bases MSSQL Participer au maintien en condition opérationnelle des infrastructures applicatives Garantir la disponibilité, la performance et la sécurité des systèmes Supervision, exploitation et production Data Mettre en œuvre et administrer les outils de supervision des plateformes Data et infrastructures techniques (Zabbix ou équivalent) Assurer le suivi des alertes, incidents et performances des traitements applicatifs et flux de données Gérer les ordonnanceurs de traitements et chaînes batch (VTOM ou équivalent) Superviser les transferts de fichiers et échanges inter-applicatifs via CFT ou outils équivalents Assurer la gestion, la centralisation et l’analyse des logs via ELK, Splunk ou solutions similaires Garantir la continuité de service des environnements de production Data Automatisation et déploiement Développer et maintenir des scripts d’automatisation (PowerShell, Shell ou équivalent) Participer à l’industrialisation des déploiements Administrer et faire évoluer les chaînes CI/CD Utiliser des outils tels que XL Deploy, Ansible ou équivalents Participer à la conteneurisation des applications Data, ETL et middleware Administrer et exploiter les plateformes de traitement de données et environnements ETL Assurer le bon fonctionnement des flux de données, traitements batch et échanges applicatifs Intervenir sur les technologies Semarchy, Apache Tomcat, MSSQL, MongoDB et Trdata Superviser les traitements de données critiques et garantir leur disponibilité Participer à l’optimisation des performances des plateformes Data Assurer le suivi des incidents liés aux flux de données et traitements applicatifs Contribuer à l’industrialisation et à l’automatisation des pipelines Data Cloud et méthodes de travail Participer aux projets d’infrastructure Cloud Public (GCP ou équivalent) Travailler en méthodologie Agile Collaborer avec les équipes de développement, production et exploitation Participer aux réunions de suivi et aux démarches d’amélioration continu
Mission freelance
Data Analyst expert Dataiku
Nicholson SAS
Publiée le
Dataiku
MySQL
Salesforce
6 mois
600 €
Paris, France
Entité : Banque Site : Paris ; 50% TT Prix d’achat max : 600 euros Date de démarrage : ASAP Date de fin : 31/12/2026 Mission : Au sein de la direction Data Office & RPA / Reporting&Analytics nouvellement créée chez mon client, nous recrutons pour un poste d’analyste Data et Reporting dédié à la direction marketing. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein de la banque. Vos activités principales consisteront à accompagner les métiers marketing - dans 30 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité du groupe (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU.
Offre d'emploi
Chef de Projet Automatisation Command Center
VISIAN
Publiée le
Agile Scrum
Cloud
1 an
Île-de-France, France
Missions Définition et pilotage de la stratégie d’automatisation Contribuer à l’élaboration et à la mise à jour de la roadmap d’automatisation et les entités (auto call, auto retry, auto résolution) sur le scope Open et Mainframe Identifier, prioriser et qualifier les opportunités d’automatisation à partir des instructions, gestes opérateurs et incidents récurrents Garantir l’alignement avec les orientations du Strategic Committee et des entités Mise en œuvre des solutions d’automatisation Piloter avec les entités le nettoyage, la standardisation et l’industrialisation des instructions en vue de leur automatisation Piloter et suivre les automatisations techniques (ex. Ansible, schedulers, outils d’autocall) Travailler avec les équipes Gouvernance, suivi et performance Définir et suivre les KPIs d’automatisation (taux d’automatisation, sollicitation du Command Center, réduction des incidents manuels) Identifier les risques (notamment Mainframe) et contribuer aux plans de mitigation Produire des reportings clairs à destination du pilotage et des comités Accompagnement du changement Accompagner les équipes dans l’appropriation des nouvelles automatisations Contribuer à la montée en compétence des équipes et à la transformation des modes opératoires Favoriser la mutualisation des bonnes pratiques entre entités Animer le réseau des entités autour (automatisation des gestes du pilotage applicatif) Expérience dans l'environnement de la prestation : 11 ans et plus Élaboration, suivi et gestion de la bonne fin des plans d’actions et des plannings associés pour un projet de taille moyenne ou un sous-ensemble d'un grand projet (environ 4-8 personnes) Représentation des intérêts de l'ensemble des Directions partie prenante Gestion du ou des projet(s) dans le respect des règles de conduite de projet définies en garantissant le respect des conditions de qualité, de coûts et de délais décrites dans le contrat de prestation Suivi du déploiement des équipements, du matériel et des logiciels Assistance au Directeur de Projet dans la validation et la gestion de la production Préparation des instances de suivi Gestion et suivi des risques Collaboration auprès des différents partenaires du projet des éléments nécessaires à l’élaboration d’un planning présentant l’évolution des chantiers du projet Rédaction des rapports d’avancement incluant le planning remis à jour et identifiant et recensant les éventuels points critiques et/ou de blocages détectés Production du reporting synthétique de ces informations vers le Directeur de Projet Proposition de solutions nécessaires à la résolution des blocages ou à leur contournement (solutions palliatives)
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
POT9149 - Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc
Almatek
Publiée le
Dataiku
6 mois
Saint-Brieuc, Bretagne
Almatek recherche pour l'un de ses client, Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc Les livrables sont : Schéma d’architecture data global + focus Dataiku Guide des bonnes pratiques Dataiku Templates / bibliothèque réutilisable Compétences techniques : Dataiku - Confirmé - Impératif Architecture data modernes - Confirmé - Impératif DBT et workflows de transformation - Confirmé - Impératif Description détaillée Contexte: L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver ? gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données Profil recherché Compétences techniques Expertise Dataiku (architecture et administration) Bonne maîtrise des architectures data (Data Lake, ELT) Connaissance AWS (S3) et DBT Sensibilité data quality et data governance Compétences fonctionnelles Structuration de bonnes pratiques Accompagnement des équipes métiers Connaissance MDM appréciée Modalités Démarrage : ASAP Présence : ~2 jours/semaine sur site (22) Contexte : environnement majoritairement interne
Offre d'emploi
Consultant SAP Data Migration (H/F)
Scalesys
Publiée le
1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
Offre d'emploi
Candidature spontanée - Freelance Data Engineer – Cloud & Data Platform
█ █ █ █ █ █ █
Publiée le
Apache Kafka
Apache Spark
BigQuery
Île-de-France, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Business Analyst SI – Technico-Fonctionnel
TEOLIA CONSULTING
Publiée le
Business Analyst
Cypress
Node.js
12 mois
370-500 €
Paris, France
Dans le cadre du renforcement d’une équipe en charge d’un produit digital à forte volumétrie de données, notre client recherche un Business Analyst technico-fonctionnel . Vous interviendrez au sein d’une équipe Agile composée de profils MOA et MOE, sur un périmètre mêlant gestion de données, interfaces externes et amélioration continue du produit . La mission implique également une collaboration étroite avec une équipe Big Data en charge de l’alimentation des données issues de flux externes. Missions Recueillir, analyser et formaliser les besoins métiers Rédiger et affiner les User Stories Participer aux cérémonies Agile (daily, sprint, review, etc.) Contribuer à la définition fonctionnelle des évolutions Réaliser les recettes fonctionnelles et TNR Mettre en œuvre des tests automatisés (Cypress / Typescript) et manuels Assurer le suivi des mises en production et du RUN Produire du reporting auprès du PO / PM Interagir avec les équipes techniques (MOE, Data) Réaliser des requêtes SQL pour analyse et validation des données Environnement technique : Méthodologie : Agile Outils : Jira, Confluence Tests : Cypress, Typescript, Gherkin Data : SQL (Hue / Impala, DBeaver, Squirrel) IDE : VSCodium / NodeJS Environnement SI complexe et multi-applicatif
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2958 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois