Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 269 résultats.
Offre d'emploi
Architecte / Chef de Projet Intégration ESB - ETL F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Grasse, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Qualifieur Expert Décisionnel H/F
CITECH
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
MySQL
60k-65k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez mettre votre expertise en qualité logicielle au service d’un projet data stratégique, nous avons LE poste qu’il vous faut ! Nous recherchons en effet un(e) Qualifieur Expert Décisionnel (H/F) 🚀 ☘️ Votre mission s’inscrit chez un acteur majeur du secteur de la protection sociale , au sein d'une direction dédiée au SI Décisionnel. Vous intégrerez une équipe d'experts pour garantir la fiabilité et la performance de flux de données à forte volumétrie. Vous interviendrez sur des sujets à forts enjeux techniques et opérationnels au sein d'un environnement technologique de pointe. 👉 Vos principales missions seront les suivantes : 👈 🔸 Stratégie & Conception des Tests Réaliser les études d’impact en amont des phases de développement. Définir et rédiger la stratégie de test globale pour l'écosystème BI. Élaborer les plans de tests détaillés. 🔸 Exécution & Qualité Piloter et exécuter les campagnes de tests (flux ETL, stockage, restitution). Assurer le suivi des anomalies via JIRA et coordonner les corrections avec les équipes de build. Garantir la non-régression des environnements décisionnels. 🔸 Livraison & Reporting Rédiger les bilans de qualification complets. Valider les bons de livraison techniques. Assurer l'interface entre les besoins métiers et les contraintes techniques.
Offre d'emploi
BA DATA sur profil (CDI uniquement) - Préavis 1-3 mois
OBJECTWARE
Publiée le
ETL (Extract-transform-load)
Oracle
PL/SQL
Nanterre, Île-de-France
GREAT PLACE TO WORK depuis 2019 et BEST WORKPLACE FRANCE 2023-2024 & 2025 Depuis 24 ans, le Groupe Objectware développe ses expertises et practices pour accompagner ses clients dans l’optimisation de leurs performances et leurs enjeux de transformation. Notre expertise en Management de projets, Développement applicatif, Infrastructure, Opération et Sécurité nous permet d’avoir une couverture totale sur le cycle de vie des projets de nos clients. BA DATA - Oracle, SQL, PL-SQL (très présent) -Clarity (pas obligatoire) Controle M / ETL / UNIX .. Rémunération selon le profil, début de mission en JUIN donc préavis de 1 à 3 mois accepté. CDI Uniquement Contexte de la mission : La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" : Les Bases Commerciales (BCA-BCB-BCC) Interfaces Délégataires Préparation éditique Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données, règles/calculs sur les données … Détails de la prestation : Contribution au projet « IRF » ( I mprimé R èglementaire et F iscal) : Le projet IRF à vocation envoyer chaque année aux clients concernés les courriers IA, IFU et IFI. Sur notre application « Préparation Editique » : qui est le pôle d’échange centralisé d’agrégation et transformation des données avant envoi à l’application d’édition des courriers (Optima) Sur notre périmètre (Préparation éditique) : - Gestion de projet : planification (Clarity), estimation des charges, gestion du budget, reporting, suivi des travaux, coordination, participation au COPROJ, suivi des alertes/risques/problèmes - Participation active (avec le métier) à la compréhension et transposition des besoins et règles métiers en solution IT - Recueil des besoins, définition de la solution, contribution aux aspects architecture et sécurité, rédaction des spécifications fonctionnelle / exigences, expertise applicative - Commande et pilotage des travaux de développement (Réception et validation des développements via une phase de vérification applicative), - Participation à la stratégie de tests, - Participation à la phase de recette en relation avec le centre de test Cardif, - Préparation, organisation du déploiement et mise en production, - Suivi et coaching des ressources techniques (forfaits, équipes transverses ...) Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - UNIX - Ordonnanceur Control-M - CFT - Informatica Powercenter (très limité sur l’IRF -> donc optionnel mais toujours apprécié si jamais …) - GIT (Toolchain) Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données, règles/calculs sur les données … Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : architectes, développeurs, experts, centre de test, exploitant … Ce qui fera la différence : Les Soft Skills de la personne 👍 Compétences Outils : Clarity serait apprécié Compétences méthodologiques : Agile (at Scale)
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Mission freelance
Concepteur – Développeur IDMC, CAI, CDI
CAT-AMANIA
Publiée le
Apache Kafka
API
ETL (Extract-transform-load)
1 an
100-400 €
Mons-en-Barœul, Hauts-de-France
Au sein de l’équipe RPG, les activités à prendre en charge sont conceptions, analyses fonctionnelles et techniques, développements et tests unitaires. Technologies attendues : ETL, IDMC (dont les modules CAI & CDI), API, Kafka Technologies optionnelles (représentant un plus pour la candidature) : Java De réelles capacités de travail en équipe, de communication et de réactivité sont attendues pour ce poste. Un haut niveau de qualité et de rigueur sont également attendus sur ce poste Le projet consiste à réaliser les développements et paramétrages autour de la solution IDMC d’Informatica. Le périmètre technique couvre également les technologies API & Kafka.
Mission freelance
Data Engineer
Signe +
Publiée le
Database
ETL (Extract-transform-load)
SQL
2 ans
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un Data Engineer. Contexte : Renforcement de l’équipe Data pour industrialiser et faire évoluer les environnements BI/ETL/Cloud (GCP BigQuery, Teradata, Informatica/IDMC, BO, Power BI) et soutenir les activités de delivery et de transformation. Mission & objectifs Concevoir, développer et industrialiser des pipelines de données robustes (batch/ELT). Garantir la qualité, la sécurité et la gouvernance des données (IAM, rôles, permissions). Moderniser les assets BI et modèles sémantiques (Power BI, Business Objects). Contribuer à l’ automatisation et à l’ infrastructure as code (Terraform). Accompagner les équipes Métiers/Tech dans l’usage des plateformes data (BigQuery, Teradata, Unix/Linux). Participer à la documentation et à la montée en compétence de l’équipe.
Offre d'emploi
Business Analyst IT Finance
Lùkla
Publiée le
Diapason
ETL (Extract-transform-load)
Master Data Management (MDM)
2 ans
50k-55k €
450-550 €
La Défense, Île-de-France
Nous recherchons un(e) Business Analyst IT Finance expérimenté(e). Vous serez le pivot central entre les équipes Finance et IT, assurant la continuité opérationnelle lors de la migration des systèmes financiers. Vous accompagnerez également nos projets de conformité (facturation électronique) et contribuerez au cadrage des futures initiatives technologiques, notamment autour de l'IA appliquée à la Finance. 1. Planification et coordination des transitions Développer et piloter les plans d'action détaillés pour la sortie du périmètre TSA de chaque application financière. Cartographier les systèmes existants, les interfaces et les dépendances critiques. Coordonner les tâches entre les équipes Finance, IT et les prestataires externes. 2. Intégration des processus Finance Collaborer avec les responsables de processus et les architectes IT pour intégrer les outils Finance dans nos systèmes internes. Faciliter les ateliers de travail, valider les besoins fonctionnels et documenter les processus et flux de données cibles. 3. Gestion de projet et continuité d'activité Identifier les risques opérationnels et concevoir des plans de mitigation (backup et support). Définir la stratégie de test et piloter les phases de cutover (bascule) ainsi que le support hypercare post-déploiement. Assurer un reporting régulier sur l'avancement, les risques et les points bloquants. Assister les équipes dans le cadre des UAT à mener. 4. Projets transverses et innovation Facturation électronique : Analyser les exigences réglementaires, accompagner le design de la solution, préparer les plans de test et guider les utilisateurs dans l'adoption. Futurs projets IT : évaluation des business cases, recette UAT, définition des ressources, budgets, calendriers et critères de succès.
Mission freelance
Profil Data Azure (modernisation applicative)
Signe +
Publiée le
ETL (Extract-transform-load)
12 mois
400-550 €
Gémenos, Provence-Alpes-Côte d'Azur
Contexte général Mission de modernisation Data dans un environnement industriel (Industry 4.0). L’application concernée est une solution critique de traçabilité industrielle, aujourd’hui basée sur des bases Oracle et des systèmes legacy. Elle présente des limites en termes de performance, monitoring, sécurité et coûts. L’objectif est de transformer cette solution en une application PaaS sur Microsoft Azure. Le consultant interviendra sous pilotage interne, avec des instances de validation formelles et un cadre projet structuré (réunions hebdomadaires et revues mensuelles). Objectifs de la mission Étudier l’existant et identifier les limitations techniques et fonctionnelles Définir une architecture cible Azure (coûts, sécurité, performance, gains attendus) Migrer les données et traitements depuis Oracle et systèmes legacy vers Azure Moderniser les pipelines Data (cloud-native, automatisés, sécurisés) Mettre en place le monitoring, la sécurité et les processus DevOps Documenter et assurer le transfert de connaissances Missions principales Conception et implémentation de pipelines ETL / ELT (Azure Data Factory / Fabric) Migration de données Oracle vers Azure Refactoring et automatisation de scripts legacy Mise en place de CI/CD pour les workflows Data (GitLab ou Azure DevOps) Supervision, logging, alerting des pipelines et services Gestion de la sécurité : RBAC, chiffrement, conformité Rédaction de la documentation technique et accompagnement des équipes Compétences clés attendues Forte expertise Azure Data Factory / Microsoft Fabric Expérience concrète de projets de modernisation Data Très bonne maîtrise des bases de données Oracle (admin, optimisation) Bonne pratique des environnements Windows Mise en place de pipelines CI/CD Data Sensibilité forte aux enjeux sécurité et coûts cloud Capacité à travailler en autonomie avec des interlocuteurs variés (IT, sécurité, sites industriels) Organisation & gouvernance Réunions techniques : hebdomadaires + à la demande Suivi d’avancement : hebdomadaire Présentations management / stakeholders : trimestrielles Forte autonomie attendue dans la conduite des échanges (en anglais) Planning prévisionnel Étude de l’existant et définition de la cible : 1 mois Mise en place de l’environnement cible : 1 mois Implémentation des pipelines ETL : 2 mois Monitoring, sécurité et DevOps : 1 mois Documentation et support : 1 mois Contraintes Localisation : Gemenos Démarrage : ASAP Télétravail : 1 à 2 jours maximum par semaine
Offre d'emploi
Business Analyst MDM / Data
VISIAN
Publiée le
Big Data
Data governance
ETL (Extract-transform-load)
1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Mission freelance
Business/Data Analyst - Full Remote
VISIAN
Publiée le
Business Analyst
Data analysis
ETL (Extract-transform-load)
3 ans
350-400 €
France
Dans le cadre du lancement d’un projet interne stratégique à dimension internationale, un grand groupe recherche un Business Analyst / Data Analyst pour accompagner la mise en place d’un outil de pilotage commercial centralisé, orienté data. Le projet vise à fournir aux équipes Sales et Sales Ops une vision consolidée, fiable et exploitable de la performance commerciale. Le rôle est clé et transverse , au cœur des échanges entre les équipes métiers, data et IT. Missions Recueillir, analyser et formaliser les besoins des équipes Sales / Sales Ops (KPIs, reporting, cas d’usage). Analyser les sources de données existantes (dont CRM) et comprendre le modèle de données actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion (Bronze / Silver / Gold) et Canonical / Shared Data Model . Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout. Rédiger la documentation fonctionnelle et le dictionnaire de données. Jouer le rôle de référent data au sein de l’équipe projet (arbitrage fonctionnel, réponses aux questions). Accompagner les utilisateurs (présentation des KPIs, démonstrations, recueil de feedbacks). Contribuer à une démarche d’amélioration continue. Livrables attendus Modèle de données documenté (Medallion / Canonical). Spécifications fonctionnelles des pipelines de données. Règles de transformation et de qualité de données. Documentation data (dictionnaire, lineage, historisation). Vues analytiques et indicateurs métier. Supports de restitution et d’accompagnement utilisateurs. Environnement technique Architecture data de type Medallion Outils ETL / orchestration (exemples) : Fabric Pipeline dbt Alteryx Airflow Logic Apps / Power Automate Environnement CRM et données commerciales Outils BI / analytics (selon stack en place)
Offre d'emploi
Administrateur Senior Teradata F/H
SMARTPOINT
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Teradata
12 mois
40k-45k €
400-450 €
Île-de-France, France
Nous recherchons un Administrateur Senior spécialisé Teradata pour rejoindre l’équipe d’exploitation et support de notre client Atos. Le candidat sera en charge de la gestion, de l’optimisation et du maintien en condition opérationnelle de l’entrepôt de données Teradata. Les responsabilités principales incluent : Administration et exploitation quotidienne des bases Teradata. Gestion des jobs BTEQ et optimisation des scripts existants pour garantir la performance et l’intégrité des données. Surveillance et optimisation des performances des requêtes et des systèmes. Participation à la maintenance des entrepôts de données d’entreprise (DWH) Teradata. Support et résolution des incidents critiques liés à la plateforme Teradata. Mise en œuvre des bonnes pratiques et standards d’exploitation. Participation aux projets d’évolution, migration ou amélioration des solutions Teradata. Rédaction et mise à jour de la documentation technique (procédures, guides d’exploitation, rapports d’anomalies). Compétences requises Techniques : Expertise en bases de données Teradata : administration, gestion des tables, sécurité et optimisation. Maîtrise de Teradata BTEQ pour l’exécution et la maintenance des scripts ETL et des jobs batch. Expérience significative sur des entrepôts de données d’entreprise (Enterprise Data Warehouse) avec Teradata. Connaissance des outils de surveillance et de performance Teradata. Bonne compréhension des architectures de données et des flux ETL. Soft skills : Rigueur, autonomie et sens de l’organisation. Capacité à travailler en mode projet et en équipe. Excellente communication pour interaction avec les équipes internes et le client. Capacité à prioriser et gérer des incidents critiques. Expérience : Plus de 10 ans d’expérience en administration de bases de données Teradata, DWH ou environnement similaire. Expérience sur des environnements critiques et volumineux. Langues : Français courant. Anglais opérationnel apprécié pour documentation et reporting. Livrables attendus Scripts et jobs BTEQ opérationnels et optimisés. Procédures d’exploitation et documentation technique à jour. Reporting des incidents et performances. Recommandations pour optimisation et évolutions de l’entrepôt de données.
Offre d'emploi
Responsable Master Data (H/F) - 93
Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)
Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Offre d'emploi
Chef de Projet & Gouvernance Data-Power BI-CDI
AVALIANCE
Publiée le
ETL (Extract-transform-load)
Microsoft Power BI
Microsoft Project
40k-65k €
Nanterre, Île-de-France
Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI - Langage : Oracle 12c, SQL, Power Query, langage DAX - Outils BI : Power BI Desktop, Report Builder. - ETL et outils : Talend, Alteryx, Sql Developer - Bureautique.
Mission freelance
Data engineer GCP
ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)
1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
Mission freelance
BA/Data analyst
Nicholson SAS
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Shell
5 mois
350 €
Val-de-Marne, France
BA/Data analyst pour mon client Entité : Banque Site : Val de Marne; 2 jours/semaine obligatoire sur site Prix d’achat max : 355 euros Date de démarrage : asap Date de fin : 01/07/2027 Contexte : Au sein du pilier RPBI (« Retail, Private Banking & Insurance »), RPBI Business Solutions , gère les systèmes d’information du Réseau Private Banking . La direction RBS/DMP est en charge de la Data, de sa gouvernance, ainsi que des projets et applications des filières Marketing et Pilotage. Le Chapter DEV intervient dans le développement des applications des différentes Tribes, en intégrant les compétences techniques nécessaires au sein des Feature Teams. Mission : Le Bénéficiaire , en charge de l'application/entrepôt décisionnel CMW souhaite une expertise pour sa Feature Team , notamment sur le sujet NDOD ( Nouvelle Définition du Défaut ) mis en place depuis quelques années mais générateur de beaucoup d'analyses et/ou évolutions ==> sujet "sensible" sur lequel les demandes d'analyses arrivent au fil de l’eau, d'où capacité à pouvoir gérer une certaine pression. À ce titre, le bénéficiaire souhaite bénéficier de l'expertise du prestataire en termes de Data Analysis. Dans ce cadre, la prestation consiste à contribuer à/au(x): Compréhension des besoins métier Spécifications fonctionnelles générales et détaillées dans le respect des règles d'urbanisme (DCO, CFG, CTG) Contribution aux ateliers avec les Métiers Estimation des charges et délais des évolutions du périmètre Assistance aux comité opérationnels Support à l'entité de développement situées à Bangalore dans la mise en oeuvre Support aux Métiers, requêtage et extractions ponctuelles, réponse aux exigences réglementaires. Mise en place du plan de qualification et sa validation Profil : BA/Data analyst pour la Société Générale Nombre d’années d’expérience : + 8 ans Expérience techniques requises Expertise de l'ETL Datastage fortement recommandée (min 2 ans) Maitrise du SQL indispensable (10 ans) Expertise en Shell, sur l'ordonnanceur CTRL M, et sur SNOWFLAKE seraient les bienvenues. Notions d'Agilité Environnement anglophone Modélisation en étoile (5ans) Banque de Détail / Risque de Crédit (8 ans)
Mission freelance
Consultant ETL confirmé – Apache Hop / Pentaho (H/F)
Amontech
Publiée le
Apache
ETL (Extract-transform-load)
1 an
Île-de-France, France
Secteur : Finance Dans le cadre du renforcement de nos activités Data pour un client du secteur Finance , nous recherchons un consultant ETL confirmé disposant d’une expertise réelle sur Apache Hop (ou Pentaho) , pour intervenir au sein d’une équipe Data expérimentée. 🚀 Vos missions Concevoir, développer et déployer des flux ETL complexes sous Apache Hop Optimiser et maintenir des traitements existants Participer à la mise en production et au support technique Contribuer aux choix d’architecture Data et aux bonnes pratiques Accompagner la montée en compétences des équipes internes 🛠️ Environnement technique (exigences impératives) ETL : Apache Hop (fortement souhaité) ou Pentaho – expérience confirmée exigée Bases de données : Oracle & MySQL SQL / PL-SQL : confirmé XML : confirmé Unix / Linux : confirmé Outils : Eclipse, Maven, SVN, Git, Nexus Outils collaboratifs : Jira, Confluence, Snow IT 👉 Une première expérience dans le secteur Finance est un plus apprécié.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
269 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois