Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 672 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI

Offre d'emploi
Alternant Chef de projet informatique H/F

█ █ █ █ █ █ █
Publiée le
Scrum

La Défense, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Business Analyst ALM Trésorerie (ALMT) - CDI F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte DATA

Codezys
Publiée le
Python
SQL
Teradata

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance
CDI

Offre d'emploi
Proxy Product Owner Data – Transformation Finance Corporate F/H

SMARTPOINT
Publiée le
Dataiku
Finance
P2P

1 an
50k-76k €
500-680 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Transformation Finance , nous recherchons un(e) Proxy Product Owner Data pour accompagner la Corporate Finance au sein d’un environnement international. Rattaché(e) au Group Data Office , vous intervenez comme véritable pont stratégique entre les équipes Finance, IT et Data , afin de garantir la bonne intégration des enjeux data dans les projets de transformation. Les domaines couverts incluent : L’automatisation des processus Finance Le cycle P2P (Procure-to-Pay) Le cycle O2C (Order-to-Cash) L’amélioration continue des processus financiers Votre mission En tant que Proxy Product Owner Data, vous assurez que toutes les initiatives de transformation Finance comportant une dimension data : Sont correctement identifiées et priorisées Sont alignées avec les standards du Group Data Office Respectent les patterns d’architecture et la gouvernance groupe Sont délivrées efficacement et adoptées par les métiers Vos responsabilités Identification & priorisation des initiatives data Détecter les projets Finance à fort impact data Évaluer la valeur business et la faisabilité Alimenter et prioriser le backlog Data groupe Produire les analyses d’impact data Traduction des besoins métier Transformer les besoins Finance en exigences techniques et data Valider les modèles de données et les flux Garantir l’alignement avec l’architecture groupe Formaliser les spécifications fonctionnelles Expertise Processus Finance Apporter votre expertise sur les cycles P2P et O2C Accompagner les projets d’automatisation Cartographier les processus et définir les cas d’usage Formuler des recommandations d’amélioration Automatisation & Dataiku Contribuer aux cas d’usage d’automatisation via Dataiku (ou outil équivalent) Garantir l’intégration et la qualité des données Définir les besoins en pipelines data Coordination & delivery Coordonner les équipes Finance, IT et Data Suivre l’avancement des projets Identifier et lever les risques et dépendances Assurer un reporting régulier auprès des parties prenantes Gouvernance & standards Garantir la conformité aux standards Data groupe Assurer la qualité, la sécurité et la gouvernance des données Produire la documentation d’alignement
Freelance

Mission freelance
Directeur de programme(h/f)

emagine Consulting SARL
Publiée le

1 mois
750-850 €
France
Résumé Le Directeur de Programme a pour principale mission de superviser divers programmes de digitalisation au sein de l'entreprise en étroite collaboration avec les Directeurs de Programme Métier et les équipes IT. Responsabilités : Gestion de Projet : Planification, coordination et suivi des activités d'intégration des nouvelles solutions. Planification et Suivi : Élaboration et suivi des plannings projets, gestion des ressources, délais, budgets et qualité des livrables. Gestion des Risques et Résolution de Problèmes : Identification des risques et mise en œuvre d'actions correctives. Pilotage des appels d’offres fournisseurs : Gestion du cahier des charges, organisation et participation aux soutenances, négociation commerciale et juridique. Coordination des Parties Prenantes : Collaboration avec l'intégrateur, les équipes Métier, Data et DSI. Must Haves : Expérience dans le pilotage de grands programmes informatiques à dimension internationale. Expérience éprouvée avec des grands éditeurs et intégrateurs. Expérience dans la conduite de gros appels d'offres. Compétences pratiques avec des systèmes intégrés comme SAP et Oracle. Maîtrise des méthodologies de gestion de projet (Agile, SCRUM, Prince2). Nice to Have : Capacité à fédérer et coordonner des équipes transverses. Excellente communication orale et écrite en français et en anglais. Très bon niveau d’anglais requis. Connaissance des outils de gestion de projet (MS Project, JIRA).
Alternance

Offre d'alternance
Alternance Développeur mobile (H/F)

Amiltone
Publiée le

12 mois
10k-20k €
Villeurbanne, Auvergne-Rhône-Alpes
Vos missions ? En tant qu'alternant Développeur mobile (H/F) vous assurerez les missions suivantes : 1. Développement mobile multiplateforme o Participer au développement de nouvelles fonctionnalités dans des applications mobiles Flutter. o Contribuer à l'amélioration continue de l'architecture du code. o Prendre part à l'implémentation de modules partagés en KMP (business logic, data layer, etc.). o Collaborer à l'intégration de ces modules dans nos projets. o Réaliser des tests unitaires et fonctionnels sur les modules partagés. 2. Cloud & Backend (AWS) o Participer à l'intégration de services AWS dans les applications. o Mettre en place ou améliorer des architectures serverless simples. o Contribuer à la documentation et au monitoring des services déployés. 3. Collaboration produit et cycle agile o Participer aux cérémonies agiles (dailys, plannings, rétrospectives). o Échanger avec les équipes produit pour comprendre les besoins métiers et proposer des solutions techniques adaptées. o Rédiger de la documentation technique et fonctionnelle. 4. Veille technologique et montée en compétences o Réaliser une veille régulière sur les évolutions de Flutter, KMP et des services AWS. o Proposer des améliorations techniques ou méthodologiques. o Participer à des sessions de partage de connaissances internes.
Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
325-650 €
France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
CDI

Offre d'emploi
Ingénieur Systèmes et Réseaux N3 H/F - Gennevilliers

Webnet
Publiée le
LAN
SQL
WAN (Wide Area Network)

50k-60k €
Gennevilliers, Île-de-France
Dans le cadre d'une intégration définitive chez l'un de nos clients grand comptes, nous sommes à la recherche d'un Ingénieur Système et Réseaux N3. Dans un contexte de transformation du SI à l'échelle Monde vous assistez la DSI ainsi que les différents sites dans leur adaptation. À ce titre, vos missions principales sont les suivantes : Partie administration niveau 3 et projets infrastructure (70% du temps) : Projets de consolidations de l’infrastructure des sites locaux dans le datacenter de notre infogéreur. Gestion des réseaux et firewall en lien avec notre prestataire externe. Gestion des serveurs et des infrastructures locales. Gestion de la politique de sécurité du groupe. Administration O365. Définition de l’architecture technique en fonction des projets métier. Gérer des projets d’infrastructure informatique et être force de proposition pour améliorer la sécurité et l’exploitation. Partie Exploitation et support informatique (30% du temps) : Assurer le Helpdesk informatique et résoudre les incidents de niveau 3 Suivre, gérer et répondre aux demandes liées à l’infrastructure informatique de niveau 3. Gérer le réseau et le parc serveur. Veiller à l'application des procédures (codification, confidentialité, sauvegarde, sécurité…) Assurer la supervision des systèmes et réseaux.. Compétences attendues pour ce poste : Connaissances approfondies sur Windows serveur 2008, 2012, 2016 et 2019 Compétences sur SQL Serveur/smtp/ftp/AD et Oracle est un plus Gestion d’un active Directory et des GPO Réseaux LAN et WAN ainsi que des Firewalls. Bonnes connaissances et pratique des méthodologies de Projets. Animation de comités projets internationaux.
CDI
Freelance

Offre d'emploi
Chef.fe de projet Data senior

Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile

6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Freelance

Mission freelance
Architecte Data Azure / Databricks / Snowflake — Part-time puis Full-time

CONCRETIO SERVICES
Publiée le
Azure
Databricks
Snowflake

3 mois
700-750 €
Puteaux, Île-de-France
Architecte Data Azure senior (10 ans+) recruté en mission de transformation — plateforme Databricks/Snowflake à recadrer architecturalement , équipe interne à coacher, stratégie data à 3 ans à définir. Il challenge diplomatiquement la direction technique actuelle , conçoit l'architecture cible , industrialise les pipelines en Terraform/Azure DevOps, gouverne la plateforme via Unity Catalog, et transfère les compétences sans créer de dépendance. MISSIONS PRINCIPALES Audit & Recadrage Diplomatique de l'Architecture Existante Analyser l'architecture data actuelle : identifier les problèmes structurels, les anti-patterns, les risques opérationnels Formuler les recommandations de façon constructive Convaincre le management et les équipes de changer de direction : argumentation technique, démonstration par les risques, roadmap de transition réaliste Conduire des revues d'architecture régulières pour maintenir la cohérence dans la durée Définition de l'Architecture Cible Concevoir l'architecture data cible : zones medallion (raw/processed/curated), formats (Delta Lake / Snowflake selon les cas d'usage), partitionnement, clés de distribution Définir les patterns d'intégration entre Databricks et Snowflake pour éviter les silos Produire le DAT complet, défendable en comité de direction Définir la stratégie de gouvernance : Unity Catalog, RBAC, RLS, Data Lineage, catalogue de données Industrialisation des Pipelines & DataOps Concevoir et implémenter les pipelines ETL/ELT sur Databricks et Snowflake (Snowpipe, Streams & Tasks) Mettre en place les pipelines CI/CD Azure DevOps (YAML) avec Terraform pour l'infrastructure as code Tests automatisés data : qualité, contrats, régression — culture DataOps production réelle Structurer les environnements dev/staging/prod avec isolation et promotion contrôlée Sécurité & Conformité IAM Azure, RBAC Unity Catalog, RLS Snowflake, Key Vault Conformité RGPD : pseudonymisation, chiffrement, audit trail, droit à l'oubli Coaching & Transfert de Compétences Revues de code, revues d'architecture, sessions de formation sur les patterns et standards Documentation des décisions (ADR) et bonnes pratiques pour assurer la continuité sans dépendance Montée en compétences sur Unity Catalog, Delta Live Tables, optimisation Snowflake, Terraform Stratégie Data à 3 ans Roadmap data : quick wins, transformations structurelles, jalons, dépendances Veille technologique : évolutions Databricks/Snowflake/Azure, data mesh, data fabric Cadrage des POCs nécessaires avant l'implémentation à grande échelle
Freelance

Mission freelance
Expert DataGalaxy (F/H)

Argain Consulting Innovation
Publiée le
DataGalaxy

6 jours
500-600 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du projet de gouvernance des données, le client déploie progressivement la solution Data Catalogue auprès des différentes équipes (métier et IT). La gouvernance, la méthodologie et le planning de déploiement sont déjà définis. Le consultant interviendra en tant qu’expert DataGalaxy, sous la responsabilité du porteur projet métier, pour accompagner les équipes à chaque étape du déploiement et garantir l’appropriation de la solution ainsi que la mise en œuvre des premiers cas d’usage. Vous interviendrez chez le client, sur les missions suivantes : Objectifs - Assurer un déploiement conforme à la gouvernance, à la méthode et au planning définis - Former et accompagner les équipes dans la prise en main de DataGalax - Implémenter les premiers cas d’usage du catalogue de données - Garantir une adoption durable et une montée en compétence des équipes - Assurer le lien entre les besoins métier et les équipes techniques - Sécuriser les aspects qualité, sécurité, RGPD et conformité liés aux données Formation & Implémentation des cas d'usage - Former les équipes déployées à l’utilisation de DataGalaxy - Accompagner la mise en place des premiers cas d’usage dans le catalogue - Transmettre les bonnes pratiques de gouvernance et de modélisation - Recueillir les besoins des parties prenantes (Métier, IT, Sécurité, RGPD, Architecture, Conformité…) - Proposer des solutions adaptées aux besoins métier Accompangement technique - Collaborer avec les équipes techniques pour évaluer les impacts (architecture, sécurité, RGPD, infrastructure) - Accompagner le paramétrage et l’intégration des fonctionnalités DataGalaxy - Suivre les actions techniques : mise à jour des attributs, droits d’accès, configuration générale Conseil - Conseiller sur les bonnes pratiques de gouvernance, documentation et qualité des données - Proposer des indicateurs de succès pour mesurer l’efficacité du déploiement et de l’adoption - Recommander les fonctionnalités DataGalaxy les plus pertinentes pour les cas d’usage Gestion de projet - Contribuer au respect des coûts, des délais et du planning de déploiement - Assurer le reporting au porteur projet et la coordination avec les équipes concernées Livrables attendus - Cas d’usage implémentés dans DataGalaxy (UC documentés dans le catalogue) - Comptes rendus d’ateliers et supports de formation - Plan de déploiement consolidé et mis à jour - Matrices de besoins recueillis par équipe - Suivi des actions techniques (tableau de bord ou backlog) - Indicateurs de succès proposés et validés - Documentation des paramétrages spécifiques si nécessaire - Tableaux de bord de pilotage du catalogue
CDI

Offre d'emploi
Chef de projet ERP H/F

FED SAS
Publiée le

45k-50k €
Rungis, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client ( banque privée) basé à Rungis, un Chef de Projet ERP H/F dans le cadre d'un CDI. Missions principales : Gestion de projet ERP Sage X3 : Pilotage des projets (budget, calendrier, qualité), coordination des équipes internes et externes. Intégration d'applications métiers : Analyse des besoins et intégration des solutions comme Power BI, Weavy, Lascom avec l'ERP X3. Support applicatif : Assistance aux utilisateurs et gestion des problèmes techniques. Communication & coordination : Collaboration avec les équipes métiers pour s'assurer que les solutions informatiques répondent aux objectifs de l'entreprise. Veille technologique & amélioration continue : Proposer des solutions innovantes pour optimiser les systèmes. Enjeux du poste : Assurer la fiabilité de l'ERP et des systèmes intégrés. Optimiser les outils pour mieux répondre aux besoins métiers. Améliorer l'efficacité des services de support. C'est un rôle clé alliant gestion de projet, coordination, intégration de systèmes et amélioration continue.
Freelance
CDI

Offre d'emploi
DBA DB2 Mainframe (H/F)

STORM GROUP
Publiée le
DevOps
Elasticsearch
Mainframe

3 ans
55k-60k €
600 €
Île-de-France, France
Nous recherchons un(e) Expert(e) DB2 Mainframe et LUW pour rejoindre notre équipe de DBA Étude. Vous interviendrez principalement sur l’administration, le suivi des performances et le support autour des environnements DB2 (z/OS et LUW), en interaction directe avec les équipes d’intégration, de développement et de production. Un aspect important de la mission consistera à assurer les évolutions en termes de structures, ainsi qu’à valider et customiser les requêtes SQL avant passage en production. Les missions pour ce poste sont les suivantes : Administration & optimisation : Assurer une gestion des bases DB2 sur mainframe (db2Z) et Linux/Unix/Windows (db2_luw). Maîtriser la suite BMC (Catalog Manager) et DataStudio pour une gestion avancée des bases. Suivi et amélioration des performances : Auditer et formuler des recommandations techniques pertinentes. Validation et exécution de requêtes SQL : Contrôler, valider et exécuter les requêtes SQL avant leur mise en production. Garantir leurs performances. Accompagnement et conseil : Conseiller et assister les différentes équipes dans les démarches BDD. Pilotage des livraisons et déploiements : Superviser la cinématique des livraisons en lien avec l’intégration et assurer la cohérence des déploiements. Support production, suivi de démarrage & gestion des incidents : Intervenir lors des incidents critiques : analyse, diagnostic, résolution collaborative. Surveillance avancée des actions et réplications : Anticiper et mesurer les impacts des évolutions sur la réplication (change data capture) pour garantir la cohérence des flux Communication, formation et gestion du stress : Qualités relationnelles et pédagogiques pour assurer la synergie et l’anticipation en environnement exigeant.
Freelance

Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F

Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)

6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

672 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous