Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 097 résultats.
CDI

Offre d'emploi
Consultant Administrateur Applicatif BI / Data

Publiée le
Microsoft Power BI
Qlik Sense
Sap BO

Paris, France
Télétravail partiel
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
CDI

Offre d'emploi
Ingénieur cybersécurité gouvernance - Ferroviaire H/F

Publiée le

45k-50k €
Massy, Île-de-France
Télétravail partiel
Contexte de la mission : Notre client est un grand acteur du secteur ferroviaire au niveau international, contribuant au développement de systèmes embarqués.Dans le cadre de l'un de ses projets, nous recherchons un Ingénieur Cybersécurité Gouvernance H/F pour renforcer un projet de définition et de déploiement d'une architecture cybersécurité. Vous serez chargé de consolider les études (analyses de risques, évaluation et conformité aux référentiels), de définir le modèle cible et d'accompagner les équipes projets et offres dans sa mise en oeuvre, en Île-de-France et à l'international. Vos responsabilités : - Conduire les analyses de risques (EBIOS RM / ISO 27005) : définir le contexte, évaluer les risques, formaliser le plan de traitement et dériver les exigences ; - Définir et faire évoluer l'architecture cybersécurité : modéliser le modèle cible, établir les principes directeurs, prioriser et allouer les exigences de sécurité ; - Évaluer et attester la conformité : collecter et analyser les rapports d'essais, agréger les statuts internes, consolider la conformité aux référentiels et produire les synthèses ; - Piloter le management des tiers (via service mutualisé) : contrôler la qualité des inputs, challenger devis et livrables ; - Accompagner de manière technique et fonctionnel les offres/projets : contribuer aux clause-by-clause des exigences, définir les solutions et guider leur mise en oeuvre ; - Structurer et animer la gouvernance : assurer la veille, capitaliser les bonnes pratiques et reporter au management.
CDI
Freelance

Offre d'emploi
Business Analyst - Risque de Crédit

Publiée le
Business Analysis

3 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Analyser les besoins métier liés au risque de crédit : octroi, scoring, notation interne, monitoring. Participer à la conception des outils de suivi (PD, LGD, EAD…) et des tableaux de bord réglementaires. Rédiger les spécifications fonctionnelles (calculs, règles métier, scoring). Contribuer aux projets réglementaires (Bâle III/IV, IFRS9, stress-tests…). Accompagner les équipes IT dans la mise en œuvre des modèles et des règles de gestion. Préparer et exécuter les tests fonctionnels et d’acceptation. Documenter les processus et accompagner le changement auprès des analystes risques. Compétences requises Connaissance approfondie des concepts de risque de crédit. Familiarité avec la réglementation (Bâle, IFRS9) et les indicateurs de risque. Maîtrise des outils BI/Data (SQL, Excel avancé ; Power BI un plus). Bonne compréhension des chaînes de données et systèmes risque. Capacité de rédaction et de vulgarisation d’enjeux réglementaires.
Freelance

Mission freelance
Architecte Kubernetes OpenShift - Expert

Publiée le
Administration réseaux
Apache
Apache Kafka

12 mois
520-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre du renforcement d’une équipe SRE / Plateforme Cloud au sein d’un environnement complexe et critique, nous recherchons un Expert Cloud DevOps / Architecte Kubernetes & OpenShift . Le consultant interviendra sur la conception, l’industrialisation et la sécurisation de plateformes cloud natives, orientées microservices, data et haute disponibilité . Missions principales Architecture & Design Définir et valider l’architecture Cloud & Kubernetes en tant que Design Authority Élaborer les HLD (High Level Design) et LLD (Low Level Design) Concevoir l’architecture centrale et les standards de la plateforme Participer aux choix technologiques et aux roadmaps techniques Cloud & Conteneurisation Déployer et maintenir des clusters Kubernetes (AKS, EKS, OpenShift, Rancher) Expertise Red Hat OpenShift Mise en œuvre de plateformes cloud sur Azure (AKS) et AWS (EKS) Gestion des environnements hybrides / on-premise et data centers virtualisés DevOps & Automatisation Mise en place des pipelines CI/CD Automatisation des déploiements et de l’infrastructure (IaC) Accompagnement des équipes de développement sur les bonnes pratiques DevOps Sécurité & Réseau Sécurisation des plateformes Kubernetes et Cloud Gestion des secrets et identités ( HashiCorp Vault ) Architecture réseau, segmentation, politiques de sécurité Conformité, durcissement et bonnes pratiques sécurité cloud Data & Streaming Conception et intégration de Data Platforms Mise en œuvre de solutions de streaming et de data flow : Apache Kafka Apache NiFi Intégration avec des workloads data, IA et ML ( TensorFlow ) Microservices & Observabilité Architecture et exploitation d’architectures microservices Supervision, monitoring et gestion de la performance Haute disponibilité et résilience des plateformes FinOps Pilotage des coûts Cloud Optimisation des ressources et mise en place de bonnes pratiques FinOps
Freelance

Mission freelance
Consultant·e senior Metadata & Contenus

Publiée le
Data analysis
Gestion de projet

4 mois
580-640 €
Paris, France
Télétravail partiel
Contexte Mission d’étude au bénéfice d’un client (organisation de presse – anonymisée), sans prestation de développement à ce stade. Coordination avec la DSI en charge des métadonnées. Échanges préalables déjà tenus ; la présente fiche formalise le périmètre à présenter avant contractualisation. Interlocuteurs et coordination Côté client : DSI en charge des métadonnées. Demande associée : partage des coordonnées des personnes clés côté prestataire pour une présentation du périmètre de mission avant formalisation. Objectif de planification Cible de chiffrage : avant Noël. Démarrage envisagé : début 2026, sous réserve de validation par la DSI. Objectifs « high level » de la mission (phase initiale) Analyse concurrentielle des métadonnées : comparaison [Client – organisation de presse] vs Reuters, AP, et autres acteurs à déterminer. Analyse des besoins clients en metadata dans leurs systèmes CMS / DAM / MAM, avec un focus spécifique sur les usages « AI‑friendly ». Recommandations d’actions. Description détaillée du besoin 1) Analyse concurrentielle des métadonnées Construire une grille de comparaison couvrant : modèles de métadonnées (schéma, champs obligatoires/optionnels), taxonomies/ontologies, politiques de nommage, qualité/complétude, mécanismes d’identifiants, historisation/versioning, exposition via APIs, et modalités de licence/usage. Cadrer les sources publiques et matériaux accessibles des acteurs ciblés (Reuters, AP, autres à confirmer) et expliciter les limites éventuelles. Évaluer l’alignement/déviations du [Client – organisation de presse] par rapport aux pratiques observées, avec exemples représentatifs. 2) Besoins clients metadata dans CMS / DAM / MAM Conduire des entretiens structurés avec un panel représentatif de clients/intégrateurs (rôles : équipes CMS, responsables DAM/MAM, data/AI) pour cartographier les besoins par parcours : ingest → édition → publication → réutilisation. Identifier les champs et structures « AI‑friendly » prioritaires (désambiguïsation, liens entité‑événement, timestamps normalisés, droits/licensing, source, provenance) et les contraintes d’ingestion/export (formats, payloads, latence, webhooks). Formaliser les attentes d’intégration : modèles d’API (REST/GraphQL), filtres, pagination, recherche/facettes, webhooks, documentation attendue, exemples de réponses, politiques de versioning et SLA de fraîcheur/qualité. 3) Recommandations d’actions Produire des options de convergence par paliers (quick wins vs chantiers structurants), avec impacts estimés sur qualité des métadonnées, réutilisabilité, et compatibilité IA. Proposer une trajectoire de normalisation (champ par champ / structure par structure), des règles de gouvernance (dictionnaire, contrôles automatiques, métriques de complétude), et les prérequis organisationnels. Préparer le chiffrage et les hypothèses associées, adaptés à la cible « avant Noël » pour décision de lancement début 2026. Périmètre de la phase initiale Cadrage et restitution du périmètre aux parties prenantes identifiées par la DSI Metadata. Prise en compte des échanges précédents comme base de travail. Inclusion des trois volets listés dans les objectifs « high level ». Hypothèses et dépendances Validation interne DSI nécessaire pour enclencher un démarrage début 2026. Identification et disponibilité des personnes clés côté prestataire et côté [Client – organisation de presse] pour la présentation de cadrage. Livrables attendus (alignés sur les objectifs « high level ») Restitution d’analyse concurrentielle métadonnées [Client – organisation de presse] vs acteurs cités. Synthèse des besoins clients metadata dans CMS / DAM / MAM, avec attention aux usages « AI‑friendly ». Recommandations d’actions.
CDI
Freelance

Offre d'emploi
DBA Oracle

Publiée le
Oracle
PostgreSQL
Red Hat Linux

2 ans
45k-50k €
400-450 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Le service DBAs, au sein de la Direction technique, a pour principales missions de modéliser les bases de données et d'accompagner les équipes Projet dans leur conception, de réaliser les gestes d'administration autour des bases de données tout au long du cycle de vie des applications, du développement jusqu'à la Production, et de les maintenir en conditions opérationnelles. Ce service opère sur un grand nombre de bases de données (plus de 2500) et sur des technologies diverses: DB2, db2 luw, PostgreSQL, MariaDB, SQLserver, Oracle.
Freelance

Mission freelance
Business analyst Asset management

Publiée le
Business Analysis
Direction de projet

6 mois
680-700 €
Paris, France
Télétravail partiel
Au sein de l'équipe en charge des reporting transactionnels, vous participerez à la structuration et à la mise en œuvre de la nouvelle solution de reporting réglementaire. Des connaissances des différentes Reporting Réglementaires, en particulier : KIDs (PRIIIPs/ UCITs), Transaction & On-going charges, Risk and Rewards, CTI / DCPT et votre expérience en tant que BA sont nécessaires pour cette mission. Vos principales missions : · Contribution à l’analyse et à la documentation fonctionnelle dans le cadre d’un changement de prestataires · Participer aux réunions de cadrage et de suivi avec le prestataire et les équipes internes · Contribuer à la revue des livrables fournis par le prestataire (formats de reporting, templates, process) · Participer à la recette fonctionnelle des nouveaux livrables (vérification des formats, complétude, cohérence par rapport à l’existant) · Contribution à la définition de la solution cible de reporting (définition du TOM / choix du – des prestataires en lien avec le TOM) · Aider à la mise à jour des documentations internes (Operating mémorandum, procédures) · Suivre l’avancement des actions liées à son périmètre et remonter les points de blocage éventuels Soutien à la gouvernance projet : · Participer aux ateliers de mise en œuvre avec le prestataire et la coordination les parties prenantes (équipe Reporting, Techno & Data, prestataires, etc.) · Contribuer aux comptes rendus, aux synthèses de suivi et tableaux de bord projet · Structurer la documentation projet dans un espace partagé, avec une logique d’historisation et d’auditabilité · Revoir et valider les livrables de l’équipe Regulatory Reporting · Remontée des informations / des éventuels points de blocages Livrables attendus : · Documentation des processus et procédures opérationnelles · Documentation des contrôles – selon le calendrier défini : · Checklists de recette fonctionnelle et de conformité des livrables · Fiches de suivi des anomalies / points ouverts · Tableau de bord projet · Compte rendu de réunion · Organisation de la documentation projet dans une logique d’archivage et de traçabilité Travail en proximité des équipes Regulatory Reporting, de l’IT, Data Management…, s’assurer de la bonne transparence de la communication, être garant du calendrier des livrables
CDI
Freelance

Offre d'emploi
Développeur Python/DevOps & Chatbot IA

Publiée le
Chatbot
DevOps
Kubernetes

3 ans
40k-73k €
400-580 €
Île-de-France, France
Prestations demandées Missions DevOps / Backend 1. : API et services principaux Développer l’API centrale permettant l’interfaçage entre le chatbot, les assistants métiers et les services de gestion de fichiers. Implémenter le service de gestion des conversations : historique, anonymisation/suppression, continuité conversationnelle. 2. Gestion des fichiers : Concevoir le traitement et le stockage sécurisés des fichiers utilisateurs (txt, PDF, docx, pptx, xlsx). Intégrer des mécanismes d’analyse et d’enrichissement des fichiers pour l’exploitation dans les assistants. 3. Contexte et personnalisation : Développer un module d’analyse et d’enrichissement du contexte (user/entity) pour optimiser la pertinence des réponses. Gérer les prompts : création de templates, favoris, personnalisation par entité ou collaborateur. 4. Orchestration et assistants : Mettre en place un service d’orchestration multi-assistants (agents spécialisés, fallback, exécution d’actions). Développer un système de gestion des widgets et actions (web search, rendu mermaid, outils interactifs). 5. Monitoring et conformité : Implémenter le feedback utilisateur, la collecte de KPIs et le suivi des délais de réponse. Administrer les mécanismes de contrôle d’accès, garde-fous et politiques d’usage (policy-based). Mettre en œuvre les logs applicatifs, l’audit des actions et les traces conformes aux exigences du Groupe (sécurité, conformité, confidentialité).
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance
CDI

Offre d'emploi
Data Analyst - Qlik Sense - Rennes

Publiée le
Data visualisation
Qlik Sense
Qlikview

3 mois
40k-45k €
400-450 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.
Freelance

Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python

Publiée le
AWS Glue
Python

6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Freelance
CDI

Offre d'emploi
HashiCorp Vault / Sécurité & Secrets Management

Publiée le
DevOps
HashiCorp Vault

3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client (secteur bancaire) un.e Consultant HashiCorp Vault / Sécurité & Secrets Management. Mission : intervenir au sein d’une équipe en charge des services de gestion de secrets et des services cryptographiques, autour de HashiCorp Vault. 🎯 Vos responsabilités Intégration & évolution des services de gestion de secrets dans le Cloud/hybride Qualification des nouvelles fonctionnalités Vault & participation aux upgrades Support sécurité aux équipes projets & métiers MCO / Support N2-N3 d’une plateforme Vault internationale Automatisation & Infrastructure as Code (Terraform, CI/CD) Documentation et livrables en FR/EN 🧩 Profil recherché Hard skills : Expertise HashiCorp Vault (Enterprise, PKI, HSM, policies…) Maîtrise Terraform & Everything-as-Code Compétences DevSecOps & sécurité applicative Connaissances solides en cryptographie et architectures Cloud Soft skills : Communication claire, rigueur, autonomie Capacité à gérer les urgences & priorités Excellente rédaction FR/EN
Freelance

Mission freelance
Expert Workplace, Endpoint Management & Mobility - Anglophone - 92

Publiée le
Active Directory
Endpoint detection and response (EDR)
Intune

6 mois
550-600 €
Nanterre, Île-de-France
Télétravail partiel
Expert Workplace, Endpoint Management & Mobility - Anglophone - 92 📍 92 – 3j sur site ⏳ ASAP - 6 mois renouvelables – 🌍 Compte international - Anglais courant exigé Nous recherchons un expert Workplace, senior, pour piloter la roadmap France et assurer la continuité de service sur les postes et devices utilisateurs (Windows, Mac, mobilité) d'un client international. 🎯 Livrables * Pilotage produit France & alignement avec la roadmap globale Monde. * Suivi des évolutions, incidents, performances et satisfaction utilisateur * Support N2/N3 et contribution aux projets et changements 🔧Stack : Intune / SCCM / Autopilot, Windows 10/11, AD / Entra ID, PowerShell, MDM iOS & Android On en parle cette semaine ? #Endpoint #Workplace #Intune #SCCM #MECM #Freelance #Microsoft
Freelance

Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)

Publiée le
AWS Cloud
Azure
CI/CD

1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
6097 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous