Trouvez votre prochaine offre d’emploi ou de mission freelance IBM DataStage à Paris
Votre recherche renvoie 9 résultats.
Mission freelance
Développeur DataStage
Cherry Pick
Publiée le
IBM DataStage
JIRA
12 mois
400-450 €
Paris, France
Projet : Mise en œuvre des indicateurs AML dans le cadre des nouveaux outils en cours de développement Missions : Co-rédiger le contrat d’interface - Modéliser les tables correspondantes dans le DRE avec l’équipe DMO - Développer les packages DataStage d’alimentation - Les tester, assister les phases de recette et préparer le changement pour la MEP Profil Expertise de 3 à 5 ans idéalement dans un environnement bancaire et ou activités de marché Avoir une expérience de mise en œuvre ou d’utilisation des systèmes Big Data et surtout de l’ETL DataStage Connaitre JIRA (must have) Périmètre fonctionnel : Comptabilité multinormes Connaitre la méthode agile Anglais indispensable
Offre d'emploi
Architecte Solution Data
CHARLI GROUP
Publiée le
Exadata
IBM DataStage
Java
Paris, France
Avec la livraison récente de la toute nouvelle Data Factory, qui consiste en un datawharehouse transversal à l’entreprise ainsi qu’une multitude de services et clients associés, en production ou en devenir Compétences clefs : • Maitrise des technologies data plateformes avec un atout majeur sur les solutions IBM (ETL Datastage PX) • Modélisation des données, data linéage, Data qualité… • Vision : capacité à prendre de la hauteur et référent/garant sur les choix d’architecture • Capacité d’influencer les choix d’architecture et traduire les besoins métier en choix d’architecture fonctionnelle et technique • Faciliter et accompagner les équipes de dev dans le cycle de développement.
Offre d'emploi
Administrateur Technique ETL (Informatica / DataStage)
Lùkla
Publiée le
Azure
IBM DataStage
Informatica
3 ans
50k-55k €
500-600 €
Paris, France
Vous évoluerez au sein d'un centre d’expertise transverse en charge de technologies clés telles que la BI (MSBI), l'ETL (Informatica, DataStage), les ERP (PeopleSoft), la GED (Documentum) et l'EAI. Votre rôle sera pivot : vous assurerez l'interface entre les entités d'infrastructure (parisiennes et internationales) et les équipes de développement des applications métiers. En tant qu'Administrateur technique, vos responsabilités seront les suivantes : Administration et MCO (Maintien en Condition Opérationnelle) : Gestion complète du cycle de vie des plateformes Informatica et DataStage (Installation, configuration, paramétrage). Suivi des environnements de Production, UAT (Recette), Homologation et Développement. Application des correctifs (patching) et gestion des sauvegardes. Support technique : Support de niveau 2/3 auprès des entités fonctionnelles et des équipes projets. Résolution d'incidents techniques complexes sur les environnements ETL. Architecture et Évolution : Maintenance et optimisation des architectures techniques existantes. Amélioration des systèmes de supervision pour garantir une visibilité optimale sur la santé des flux. Déploiement et Qualité : Tests de non-régression et validations techniques. Accompagnement et suivi des mises en production (MEP) des nouvelles applications.
Offre d'emploi
Expert IBM Infosphere - Data Replication
VISIAN
Publiée le
AS/400
IBM DataStage
1 an
Paris, France
Contexte Dans le cadre du programme qui vise à construire une Data Platform intégrée , la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud) . Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace. Nous recherchons un Expert IBM IDR qui aura pour mission de stabiliser la solution, améliorer la scalabilité et accompagner l'élargissement du périmètre des données répliquées.
Mission freelance
AMOE / Administrateur Système Décisionnel
Signe +
Publiée le
LUnix
4 mois
580 €
Paris, France
CONTEXTE DE LA MISSION La mission se deroule au sein d'une unite locale PDA (Produits Data et Analytics), rattachee a l'unite FAB (Fabrique Digitale) du departement DEI. Le prestataire interviendra en maitrise d'oeuvre en tant qu'administrateur systeme et technique sur un parc decisionnel compose des plateformes suivantes : IBM DataStage, IBM Cognos, IBM Planning Analytics (TM1), Oracle Hyperion EPM, Talend, Konvergence Shuttle. Une forte expertise IBM DataStage est attendue. Le prestataire assurera egalement le role de Backup Technique du responsable CTBD. PRESTATIONS ATTENDUES Installation, configuration, parametrage, qualification et integration des progiciels Gestion des environnements (developpement, test, production) Support technique MOE Diagnostic et resolution de problemes Redaction de documentation technique (installation, parametrage, FAQ, base de connaissances) Tests techniques (unitaires, interoperabilite, performance) Coordination avec les autres equipes techniques Assurer le role de Backup Technique du responsable CTBD PROFIL RECHERCHE Experience : 8 ans minimum Competences techniques requises : Administration systeme UNIX/Linux avancee - RHEL 7.6 / 8+ Connaissance bases de donnees Oracle 11g a 19c Tres bonne maitrise administration IBM DataStage 9.1 / 11.7 (competence cle) Maitrise administration IBM Cognos Analytics 11.x Red Hat Notions administration IBM TM1 Planning Analytics Maitrise environnement Windows 10 Capacite a lire et assimiler de la documentation technique en anglais
Mission freelance
Ingénieur de production mainframe
CS Group Solutions
Publiée le
Mainframe
Production
12 mois
Paris, France
Nous recherchons un ingénieur de production ( donc pas un développeur ). Si le profil a des compétences Open, ce serait un plus mais pas obligatoire.. ci-dessous descriptif, Réaliser les activités de contrôle des opérations ( MCO - suivre l'exécution des batchs, reprise des traitements, …) Être garant des normes de production et d’exploitabilité Assurer la maitrise du plan de production des domaines gérés Gérer les consignes d‘exploitabilité Exécuter ou faire exécuter les demandes de service et les actes d'admin applicatifs Traiter les incidents et rétablir les services sur tous les environnements, notamment en intervenant en astreinte Contribuer ou animer les cellules de crises Gérer les obsolescences Compétences du monde Mainframe sont indispensables OS : Z/OS, TSO, MVS Scripting : JCL, REXX Ordonnanceur : TWS SGDB : DB2, SPUFI, SYNC Transactionnel : CICS, MQ-Series Transfert : CFT, Copilote Outils d’exploitation : EGEN-WS, Changeman, ICAN, Mainview Compétences du monde Open seraient un plus OS : Unix, AIX, Linux (RedHat), Windows Scripting : Javascript, Powershell Ordonnanceur : ControlM Serveurs applicatifs / J2EE : Tomcat, Websphere, Apache, Jboss, DataStage, BPM, IIS SGDB : Oracle, MySQL, SQLServer Technologies Bigdata : NOSql, MongoDB, Postgre, Casandra, MapRDB, Teradata, DATA & IA Transfert : CFT, Central Gouvernance, Secure Transport Réseau : TCP/IP, F5, Grafana
Mission freelance
DevOps / ETL Data Engineee - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site / semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Votre mission Au sein d'une équipe Agile, vous intervenez sur des projets data à forts enjeux. Votre rôle consiste à concevoir, développer et maintenir des chaînes de traitement de données fiables, performantes et sécurisées. Vous participez à l'ensemble du cycle de vie : analyse fonctionnelle et technique, développement ETL, tests et contrôles qualité, livraison et support aux équipes de production. 🛠️ Vos responsabilités Développer et paramétrer des traitements ETL Rédiger des scripts SQL et Shell Produire les livrables : code, documentation, jeux de tests Participer aux cérémonies Agile (backlog, grooming, démos) Collaborer avec les équipes IT et métiers Garantir la qualité, la performance et la conformité des solutions Contribuer à l'amélioration continue de l'équipe ✅ Profil recherché Expérience confirmée en ETL (Datastage ou équivalent) Bonne maîtrise du SQL Connaissances en Shell scripting À l'aise dans un environnement Agile Rigueur, sens des responsabilités, esprit d'équipe Anglais professionnel requis ⭐ Pourquoi rejoindre cette mission ? Environnement international et structuré Projets data critiques à forte valeur Équipe Agile mature Bon équilibre présentiel / télétravail
Mission freelance
DevOps / ETL Data Engineer - Banque
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site par semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Contexte de la mission Vous rejoignez une équipe Agile intervenant sur des projets data structurants , dans un environnement international et fortement réglementé. La mission porte principalement sur la conception, le développement et la maintenance de flux de données critiques. 🚀 Vos missions Au quotidien, vous serez amené(e) à : Réaliser des analyses fonctionnelles et techniques Concevoir et développer des traitements ETL (principalement orientés intégration) Modéliser et enrichir des bases de données Développer des scripts SQL et Shell Paramétrer les outils ETL et garantir leur bonne exécution Produire l'ensemble des livrables : code, scripts, documentation, jeux de tests Effectuer les tests et contrôles (logique maker / checker) Participer aux mises en production et au support des équipes opérationnelles Collaborer avec les équipesIT et métiers dans un cadre Agile : backlog grooming, user stories, critères d'acceptation, démos de fin de sprint Contribuer à la qualité, la performance, la sécurité et la conformité des solutions livrées Être force de proposition dans une logique d' amélioration continue ✅ Profil recherché Profil confirmé avec environ 4 à 6 ans d'expérience en environnement Data / ETL Maîtrise impérative de : ETL (Datastage ou équivalent) SQL Shell scripting Habitué(e) aux méthodes Agile À l'aise dans des environnements structurés et exigeants Capacité à travailler en équipe, sens des responsabilités, rigueur Anglais professionnel requis Une expérience en environnement bancaire ou réglementé est appréciée mais non obligatoire
Offre d'emploi
Data Engineer Teradata et Big Data H/F
CONSORT GROUP
Publiée le
Big Data
Teradata
55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata et Big Data H/F C’est votre mission Vous êtes passionné·e par [XXX] ? Ce poste est fait pour vous. En tant que Data Engineer Teradata et Big Data , vous êtes responsable du [XXX] et [XXX] de notre écosystème : Côté build : Concevoir et développer des solutions DataMart / Datalab sur environnement Teradata Mettre en œuvre les chaînes ETL via BTEQ / TPT Développer des traitements de collecte, transformation et stockage de données sur plateforme Big Data Construire des agrégats et indicateurs (scores, datamarts) à destination des équipes Data Science Développer des pipelines de données sous environnements Spark / Hadoop / HDFS Participer à la modélisation et au design des solutions de données (bonnes pratiques Data Engineering) Industrialiser les traitements dans un contexte Unix / SQL / Teradata Utiliser les outils collaboratifs (Git, Jira, Confluence, MEGA) dans un cadre Agile Côté run : Assurer le support et la maintenance des chaînes de production Data Surveiller et optimiser les traitements batch (ordonnancement via Control-M ) Gérer les incidents de production sur les flux Teradata / Big Data Analyser et corriger les anomalies sur les traitements SQL / ETL Garantir la disponibilité et la performance des jobs data Participer à l’amélioration continue des pipelines (fiabilisation, optimisation) Assurer le support aux équipes Data Science sur les environnements de données Maintenir la documentation technique (Confluence, MEGA) Suivre les bonnes pratiques d’exploitation dans un contexte DevOps C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez concevoir et industrialiser des pipelines de données robustes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnement Linux / Unix dans un contexte Agile et DevOps Maîtrise des technologies Data : Teradata, SQL, BTEQ, TPT Écosystème Big Data : Spark, Hadoop, HDFS, Python Outils d’exploitation et d’ordonnancement : Control-M Outils collaboratifs : Git, Jira, Confluence, MEGA Connaissance de solutions ETL / Data : Datastage Bonne compréhension des architectures de données et pipelines industrialisés C’est votre manière de faire équipe : Rigueur et sens de la qualité dans les traitements de données Esprit d’analyse et capacité de résolution de problèmes complexes Collaboration forte avec équipes Data, IT et métier Autonomie et sens des responsabilités en environnement de production Communication claire et esprit d’équipe Adaptabilité dans des environnements techniques évolutifs (DevOps / Big Data) Culture de l’amélioration continue et du delivery fiable C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55K € à 62K € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
9 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois