Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 10 795 résultats.
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
SQL
1 an
Nantes, Pays de la Loire
Nous recherchons un data engineer H/F en charge de l’alimentation des datamarts. Missions : Compréhension de l’activité et des besoins en dialogue avec la MOA Compréhension du SI de production, en dialogue avec les équipes MOE Modélisation du Système d’Information Décisionnel Conception et réalisation des traitements d’alimentation des datamarts Diagnostic des dysfonctionnements rencontrés Maintenances correctives et évolutives Support auprès des différents métiers Documentation technique Suivi des traitements
Mission freelance
IBM sterling integrator / Full remote
Groupe Aptenia
Publiée le
Cryptographie
FTP (File Transfert Protocol)
Linux
3 ans
120-620 €
Paris, France
Hello la sphère IBM😊 ❗❗URGENT ❗❗Intégrateur Sterling IBM❗❗FULL REMOTE❗FREELANCE❗❗ Je suis à la recherche d’un(e) Intégrateur Sterling IBM pour un prestigieux client: ✅Statut : Freelance ✅Démarrage : ASAP ✅TJM : Attractif ✅Télétravail: FULL REMOTE ✅Anglais: Courant Activités: ✅Déploiement, configuration, modification et dépannage des flux de processus Sterling Integrator. ✅Intervention sur le BPML : compréhension, adaptation et correction des process flows, sans interruption des traitements. ✅Dépannage de bout en bout, du poste client jusqu’aux systèmes internes et partenaires ✅Contribution active à la stabilisation des environnements et au support opérationnel Compétences attendues: ✅Excellente maîtrise de Linux EL8 / EL9 ✅Expérience pratique avancée : installation, exploitation, configuration et maintenance quotidienne ✅ Expertise en PGP, SSH, gestion des clés, configurations cryptographiques, politiques de sécurité. Transfert de Fichiers N'attendez plus et contacter moi pour + d'informations : Belle journée !! 🌞
Mission freelance
POT8907 - Un architecte urbaniste sur Lyon
Almatek
Publiée le
TOGAF
6 mois
200-500 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients Un architecte urbaniste sur Lyon. Activités : Au sein de l'équipe Client, le Consultant sera amené, notamment : d'identifier et de partager les contraintes et exigences métiers et informatiques, présentes et futures qui portent sur certains domaines du Système d'Information, et notamment ceux en lien avec notre notre système de distribution d'évaluer la pertinence et la cohérence des projets par rapport à l'architecture cible et aux systèmes existants d'accompagner les projets et les métiers dans la définition des architectures cibles en cohérence avec notre système d'information de participer à l'amélioration ou à la création de nouvelles applications ou services et de s'assurer de l'alignement entre les besoins et les solutions proposées de participer à la gouvernance du système d'information et assurer l'alignement des évolutions avec le schéma d'architecture cible de rechercher des solutions innovantes pour la création de nouvelles solutions Livrables : Etude d'Architecture (Existant, Cible, Trajectoire) Cartographie (Fonctionnels, Applicatifs, Flux) Plan d'Occupation des Sols Compétences requises : Concevoir l'architecture d'entreprise – Niveau Expert Architecture Fonctionnelle – Niveau Confirmé TOGAF – niveau Avancé IARD distribution – niveau Confirmé Localisation : proximité de Lyons + 2 jrs de TT après la phase d’initialisation
Offre d'emploi
DevOps Python H/F
OBJECTWARE
Publiée le
AWS Cloud
Python
1 an
Nantes, Pays de la Loire
Les missions : - vous intervenez sur l’ensemble du cycle de vie des applications : conception, développement, déploiement et maintenance. - vous participez activement à la conception de solutions robustes, scalables et sécurisées, en répondant aux exigences fonctionnelles et techniques. Le rôle couvre à la fois le développement Front-End (React), le développement Back-End (Python, AWS Lambda) ainsi que les activités DevOps et Cloud AWS. - vous êtes impliqué(e) dans une migration technologique d’un backend existant
Offre d'emploi
Chef de projet DevOps (H/F)
STORM GROUP
Publiée le
CI/CD
DevOps
Méthode Agile
3 ans
50k-60k €
400-550 €
Île-de-France, France
Dans le cadre de la transformation de ces pratiques, l'équipe de production applicative recherche un profil IT senior en environnement CIB pour faire le lien avec les équipes IT Dev - Business analyst et accompagner les équipes APS dans leur transformation. Les objectifs sont d’améliorer l’accompagnement des équipes de développement en mode build, de renforcer la proximité avec les équipes d’infrastructure du groupe, et d’accroître la transversalité entre les équipes. Mise en place d'une culture DevOps et le déploiement d'un modèle de support applicatif type APS Coordination transverse entre métiers, IT et infrastructures, Optimisation des processus build/run Leadership et capacité d'impact, permettant de fédérer les équipes autour d'objectifs communs. Connaissance des méthodologies Agile, DevOps et Lean Management. Gouvernance et méthodologie, Formaliser et documenter les processus Une expérience en support applicatif et gestion des incidents serait bénéfique pour maintenir la continuité des opérations.
Offre d'emploi
Architecte Infrastructure Cloud Azure
VISIAN
Publiée le
Architecture
Azure
Cloud
2 ans
50k-100k €
470-750 €
Orly, Île-de-France
Bonjour, dans le cadre de nos projets clients, nous recherchons un Architecte Infrastructure expérimenté, à la fois expert technique et bon communicant, capable de concevoir, piloter et faire évoluer notre infrastructure hybride (Cloud Azure et on-premise), tout en accompagnant les équipes dans les projets et opérations critiques. Missions principales •Concevoir et proposer des architectures robustes et évolutives pour l’infrastructure IT (Azure et on-premise), en cohérence avec les besoins métiers et les contraintes de sécurité et de résilience. •Concevoir un plan d’architecture technique global, permettant d’identifier les dépendances métiers avec les applications critiques et les systèmes d’information critiques. •Piloter la migration et l’évolution vers le Cloud Azure , en lien avec les équipes applicatives et opérationnelles. •Participer à la modernisation des datacenters et infrastructures on-premise , en garantissant performance, sécurité et disponibilité. •Collaborer avec les équipes IT (réseau, sécurité, exploitation, applications) pour définir et mettre en œuvre les standards d’infrastructure . •Conseiller la DSI et les équipes sur les choix technologiques et leur impact opérationnel, budgétaire et sécuritaire. •Participer à la documentation, aux plans de reprise d’activité et aux tests de résilience . •Accompagner les équipes dans la mise en œuvre des projets , avec une attention particulière au transfert de compétences et à la montée en expertise des équipes opérationnelles
Mission freelance
Ingénieur DevOps
JobiStart
Publiée le
DevOps
Google Cloud Platform (GCP)
Python
1 an
400-450 €
Île-de-France, France
Administrer et exploiter les environnements cloud (AWS, GCP) et Kubernetes . Mettre en place et optimiser la scalabilité des applications (HPA). Surveiller et améliorer les performances et la disponibilité des services. Assurer la sécurité des infrastructures cloud et des clusters Kubernetes. Concevoir, maintenir et faire évoluer les pipelines CI/CD . Automatiser les déploiements et la gestion de l’infrastructure ( IaC / GitOps ). Garantir le respect des SLA et appliquer les pratiques SRE (monitoring, alerting, gestion d’incidents). Gérer la mise en cache et la diffusion de contenu via CDN . Participer à la conception d’ architectures cloud natives , résilientes et distribuées. Contribuer à l’ amélioration continue des plateformes et des processus DevOps.
Mission freelance
DBA POSTGRESQL
MCONSULTING
Publiée le
PostgreSQL
24 mois
400-500 €
Yvelines, France
Dans un contexte de migration du parc des bases des serveurs (60% PostgreSQL, 15% Mysql, 10% SQLserver et 5% Oracle) on premise vers le cloud AWS : Déploiement des instances RDS dans le cloud AWS. Réalisation de l’industrialisation et automatisation des tâches d’exploitation avec des scripts shell. Migration des bases des serveurs on premise vers le cloud AWS. Maintien en condition opérationnelle des bases de données hébergées dans le cloud AWS et sur le datacenter de l’entreprise. Mise à jour des référentiels de production : CMDB et inventaires internes, documentation. Résolution des incidents de niveau 1, 2 et 3 sur les bases. Support aux équipes de développement. Analyse des performances
Offre d'emploi
Ingénieur DevOps Azure - Lille (H/F)
STORM GROUP
Publiée le
Azure DevOps
Bash
CI/CD
3 ans
40k-45k €
330-350 €
Lille, Hauts-de-France
Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Offre d'emploi
Solution Owner ERP JD Edwards
LIANEO
Publiée le
ERP
JD Edwards
Migration
12 mois
70k-75k €
650-700 €
Suresnes, Île-de-France
Objectifs et missions principales: Votre mission principale sera d'organiser les étapes de contrôle de la démarche de migration de l'ERP. Cela inclut : Organiser et piloter les phases de tests préliminaires. Participer à l'organisation de la migration. Valider le résultat de la migration en production. Superviser la démarche du fournisseur et s'assurer de la conformité des livrables. Apporter une expertise fonctionnelle et technique sur les modules Finance, Facturation et Supply Chain. Livrables attendus: Plans et rapports de tests préliminaires. Stratégies et plans de validation de la migration. Rapports de validation du résultat en production. Analyses de conformité de la démarche et des livrables du fournisseur. Documentation des processus de contrôle et de validation.
Mission freelance
DBA PostgreSQL & MongoDB Senior – Étude & Production (HA / Patroni / Réplication / Multi-DC)
5COM Consulting
Publiée le
Mongodb
PostgreSQL
2 ans
700 €
Neuilly-sur-Seine, Île-de-France
DBA PostgreSQL & MongoDB Senior – Étude & Production (HA / Patroni / Réplication / Multi-DC) Contexte Dans le cadre du renforcement de sa plateforme Data, notre client recherche un DBA PostgreSQL & MongoDB Senior , capable d’intervenir à la fois sur des projets d’architecture (Étude/Build) et sur l’ exploitation en production (Run/N3) . Le rôle est centré avant tout sur l’expertise DBA : conception d’architectures robustes, choix de solutions adaptées (actif/actif, actif/passif, multi-DC), maîtrise des mécanismes de haute disponibilité, réplication et gestion des incidents critiques. Une appétence pour l’automatisation (Shell, puis Ansible/Terraform) est appréciée, mais n’est pas un prérequis : la priorité est un très bon DBA Étude & Prod . Missions principales Étude / Architecture (Build) Concevoir des architectures PostgreSQL et MongoDB adaptées aux contraintes métier et techniques : Choix entre Actif/Actif et Actif/Passif Design de clusters multi-datacenter Stratégies de réplication synchrone / asynchrone Définition des RPO/RTO et scénarios de bascule Définir des architectures Haute Disponibilité PostgreSQL basées sur : Patroni + etcd (quorum, leader election, failover automatique) Streaming replication et gestion du WAL Solutions de connexion et de bascule (HAProxy / PgBouncer / PgPool) Étudier et proposer des architectures MongoDB : Replica Set (primary/secondary) Sharding (si nécessaire) Stratégies de backup/restore et HA Rédiger des dossiers d’architecture (HLD/LLD), DEX et procédures d’exploitation. Collaborer avec les équipes applicatives, infra et sécurité pour valider les designs. Production / Exploitation (Run N3) Assurer le MCO des plateformes PostgreSQL et MongoDB en environnement critique. Gérer les incidents complexes (N3), analyser les causes racines (RCA) et proposer des plans d’actions. Superviser la disponibilité des clusters et lever des alertes pertinentes en cas de risque. Piloter et exécuter des bascules (switchover/failover) planifiées ou en situation de crise. Gérer et optimiser : Paramétrage PostgreSQL (shared_buffers, work_mem, autovacuum, checkpoints…) Bloat, VACUUM, ANALYZE, REINDEX Indexation et performances des requêtes (EXPLAIN/EXPLAIN ANALYZE) Administrer la sécurité : pg_hba.conf, rôles, privilèges SSL/TLS, intégration LDAP/SSO (si applicable) Haute Disponibilité & Réplication (Cœur du poste) Le candidat devra démontrer une maîtrise opérationnelle de : PostgreSQL : Patroni (TCD Patroni) Compréhension du quorum (etcd) Protection contre le split-brain Mécanismes de failover automatique et manuel Gestion des rôles leader/follower Réplication : Streaming replication Réplication logique (si pertinente) Monitoring du lag et gestion des WAL Scénarios HA : Actif/Passif (usage classique avec standby) Actif/Actif (cas d’usage, contraintes, limites) Réplication inter-datacenter (latence, résilience réseau) Load balancing / connexion : HAProxy, PgBouncer, PgPool (cas d’usage et limites) MongoDB : Replica Set : Élection du primary Gestion des secondaries Résilience et bascule Sharding (notions solides) : Clé de partitionnement Impact sur la performance et la cohérence Sauvegarde, restauration et PRA/PCA Définir et mettre en œuvre des stratégies de backup PostgreSQL : Backups physiques (pgBackRest / Barman / WAL archiving) Backups logiques (pg_dump / pg_restore) PITR (Point-In-Time Recovery) Tester régulièrement les restaurations et documenter les procédures. Participer à la définition et aux tests des plans de reprise d’activité (PRA/PCA). Automatisation (Bonus apprécié) Si appétence : Automatiser les tâches récurrentes via Shell/Bash . Participer à l’industrialisation progressive via : Ansible (installation, configuration, backups, HA) Terraform (provisionnement d’infra data, si pertinent) Travailler avec Git pour versionner scripts et configurations. Profil recherché Compétences clés (indispensables) Solide expérience en DBA PostgreSQL (Étude + Production) Bonne maîtrise de MongoDB (Replica Set, HA) Expertise en Haute Disponibilité PostgreSQL (Patroni, réplication, etcd) Capacité à concevoir des architectures (Actif/Actif vs Actif/Passif, multi-DC) Excellente capacité d’analyse, esprit critique et recul technique Aptitude à travailler sous pression et gérer des incidents critiques Compétences appréciées Connaissance de PgBackRest / Barman Expérience avec HAProxy / PgBouncer / PgPool Notions Cloud (AWS RDS/Aurora, GCP CloudSQL) – bonus Appétence pour l’automatisation (Shell → Ansible/Terraform) Environnement technique (indicatif) PostgreSQL (clusters HA, Patroni, réplication) MongoDB (Replica Set, sharding) Linux (RedHat/Ubuntu) HAProxy / PgBouncer / PgPool Outils de monitoring (Prometheus, Grafana, pgbadger…) Git, Shell/Bash (Bonus) Ansible, Terraform Soft skills attendus Esprit d’analyse et prise de recul Capacité à alerter et proposer des solutions Communication claire avec équipes Dev, Infra, Sécu, Run Rigueur et sens des responsabilités Modalités Localisation : Neuilly Type de contrat : (CDI / Freelance / Mission – à préciser) Démarrage : asap Rémunération : (selon profil)
Mission freelance
PO SMFC Confirmé
Byrongroup
Publiée le
Marketing
Product management
1 an
400-550 €
Paris, France
Responsabilités principales • Définir, prioriser et piloter la roadmap Customer Activation en cohérence avec la stratégie de l’entreprise. • Animer des ateliers métiers et des sessions de refinement pour recueillir les besoins, arbitrer et alimenter le backlog. • Garantir des livraisons de qualité, dans les délais et le budget, sur les sujets à forte valeur (personnalisation, notifications, campagnes d’activation). • Apporter un support fonctionnel aux équipes internes et aux utilisateurs sur les fonctionnalités liées à l’activation client. • Concevoir et optimiser des parcours clients digitaux robustes, conformes aux contraintes légales des différents pays et aux bonnes pratiques UX/UI. • Travailler en transverse avec les équipes Marketing, Data, Produit et Tech pour transformer les irritants clients en user stories actionnables. • Communiquer régulièrement sur l’avancement de la roadmap et les livraisons auprès des parties prenantes. • Collaborer avec les autres Product Owners (web, mobile, data, PMS) pour gérer les dépendances et aligner les plans de delivery. • Contribuer à la gestion des assets digitaux et à la définition de stratégies de communication efficaces avec l’équipe Marketing.
Mission freelance
Dev Fullstack React / Python
SEDONA SVP
Publiée le
Python
React
1 an
400-550 €
Clichy, Île-de-France
Présentation de la mission En tant que Développeur Web Full Stack Senior, vous rejoindrez l’équipe de Transformation Finance Groupe afin d’intégrer l’équipe de développement en charge de nos applications web data sur mesure. Il s’agit d’un poste à fort impact, centré sur le développement, destiné à un expert spécialisé dans la conception de la « couche interface » de produits data complexes. Vous serez responsable de la transformation de besoins financiers complexes en applications et interfaces web performantes, scalables et sécurisées. Vous ferez le lien entre les données brutes stockées dans BigQuery et l’expérience utilisateur finale, en intégrant des analyses Looker (et Power BI) et en développant des fonctionnalités interactives personnalisées. Vous n’êtes pas simplement un « développeur web » : vous êtes un ingénieur logiciel conscient que la donnée est au cœur de l’application. 80 % DE FRONT à faire Responsabilités principales Développement d’applications web sur mesure : Concevoir et développer des applications web responsives et fortement orientées données en utilisant React et Python. Concevoir des filtres avancés et des composants UI personnalisés interagissant dynamiquement avec les couches de données. Analytique embarquée & orchestration d’API : Piloter l’intégration de Looker dans les applications web via les SDK et API Looker. Être garant d’une expérience « Looker-as-a-Service » fluide, en assurant une communication parfaite entre l’interface utilisateur et la couche analytique. Backend & intégration des données : Développer des services backend robustes en Python pour gérer l’orchestration des données, l’authentification des utilisateurs et la gestion des API. Optimiser les échanges entre le frontend et Google BigQuery. Infrastructure cloud & déploiement : Gérer le cycle de vie des applications sur Google Cloud Platform (GCP), en assurant des déploiements conformes aux bonnes pratiques en matière de performance, sécurité et scalabilité (Cloud Run, App Engine, etc.). Sécurité & gouvernance : Mettre en œuvre des protocoles de sécurité stricts (SSO, OAuth, IAM) pour le traitement de données financières sensibles du groupe, en garantissant la persistance de la sécurité au niveau des lignes (Row Level Security – RLS) de la couche data jusqu’à l’interface web. Philosophie « Software First » : Maîtriser le contrôle de version (Git) et les principes CI/CD. Appliquer les principes DRY (Don’t Repeat Yourself) et d’architecture atomique pour les composants frontend. Privilégier la maintenabilité et une architecture propre plutôt que des solutions rapides et peu robustes. Esprit d’innovation : Agir en tant qu’ambassadeur de l’IA. Utiliser de manière proactive des outils GenAI (ex. : Cursor, Claude Code, Gemini, Copilot, Figma Make, etc.) pour accélérer le développement, optimiser le code et explorer l’intégration future des LLM dans les interfaces data. Profil et compétences requis Formation : Diplôme de niveau Master en informatique, génie logiciel ou domaine technique équivalent. Une base solide de développeur est indispensable. Expérience professionnelle : Minimum 5 ans d’expérience en développement Full Stack, avec des réalisations avérées dans la conception d’applications data-driven en environnement grand compte. Stack technique principale : Frontend : Maîtrise experte de React.js et JavaScript/TypeScript. Excellente compréhension de la gestion d’état et du développement de composants UI personnalisés. Backend : Très forte expertise en Python pour la création d’API scalables. GCP / BigQuery / SQL : Maîtrise avancée de SQL pour interagir efficacement avec BigQuery en tant que source de données. Compétences comportementales : Communication : Capacité à expliquer des choix techniques et architecturaux à des interlocuteurs métiers, en français et en anglais. Autonomie : Excellente gestion du temps pour piloter plusieurs projets et parties prenantes simultanément. Exigence qualité : Approche rigoureuse des tests, de la documentation et du code propre. Présence & collaboration Localisation : Basé à Clichy. Rythme hybride : 3 jours par semaine sur site afin de favoriser une collaboration étroite avec les équipes métiers et le core team Analytics & IA Engineering.
Mission freelance
Profile LOOKER LOOKML Anglais
SEDONA SVP
Publiée le
Looker Studio
1 an
400-600 €
Clichy, Île-de-France
En tant que Senior Analytics Engineer , vous rejoindrez l’équipe de transformation financière du groupe afin de piloter le développement de la « dernière étape » des produits data. Il s’agit d’un poste hautement technique, orienté développement, conçu pour un expert qui considère la donnée comme du code. Vous serez responsable de transformer des conceptions financières complexes, définies par les Business Product Owners, en produits performants, scalables et sécurisés. Vous évoluerez dans un environnement multi-projets, nécessitant une grande rigueur technique ainsi qu’une capacité à communiquer efficacement avec les équipes data engineering et les parties prenantes métiers dans un contexte corporate finance à l’échelle du groupe. Vous n’êtes pas simplement une personne « data » qui construit des dashboards : vous êtes un Software Engineer dont l’application principale est la donnée. Responsabilités principales Analytics Engineering avancé : Construire et optimiser la couche sémantique en utilisant LookML à un niveau expert. Concevoir des modèles BigQuery comme sources de données Looker en appliquant les principes du Software Engineering : modularité, réutilisabilité et maintenabilité. Exécution & qualité : Transformer les spécifications en produits data robustes, garantissant des performances élevées, une optimisation des coûts et le respect des meilleures pratiques architecturales à long terme. Solutions embarquées & API : Concevoir l’intégration de Looker dans des applications web via les API/SDK Looker, en faisant le lien entre la donnée et des interfaces UI personnalisées. Sécurité & gouvernance : Comprendre les protocoles et concepts de sécurité (RLS, OLS, mapping des attributs utilisateurs) afin de traiter des données financières sensibles sur différents périmètres. Gestion multi-projets : Piloter plusieurs flux de travail simultanément en assurant des livraisons dans les délais et une communication proactive sur les blocages techniques ou choix architecturaux. Expérience Full-Stack (bonus) : Supporter le modèle « Analytics-as-a-Service » en utilisant Python pour la logique backend et React/HTML/CSS pour des expériences analytiques front-end sur mesure. Philosophie “Software First” : Comprendre le contrôle de version, ne pas seulement utiliser Git. Maîtriser les principes CI/CD, DRY, l’approche atomic design. Prioriser la maintenabilité plutôt que les « quick wins ». Savoir dire non aux solutions rapides mais non durables. Concevoir avec une vision long terme. Esprit innovant : Être un ambassadeur de l’IA et améliorer l’efficacité. Utiliser de manière proactive des outils GenAI (ex : Claude Code/Gemini, Copilot) pour accélérer l’écriture de code, l’optimisation SQL et la documentation automatisée, tout en gardant à l’esprit comment les LLMs pourront être intégrés dans les futurs produits data. Profil et compétences requises Formation : Diplôme de niveau Master en informatique, Data Engineering ou domaine technique équivalent. Une base solide orientée développement est indispensable. Expérience professionnelle : Minimum 5 ans d’expérience en Analytics Engineering ou Data Development, idéalement dans des environnements grands groupes avec des écosystèmes data complexes. Stack technique principal Looker : Maîtrise experte de LookML (approche modulaire via refinements et extends), connaissance des API Looker, maîtrise des architectures sémantiques. GCP / BigQuery : Expertise SQL avancée, optimisation performance/coûts et principes de modélisation des données. Les “plus” Développement web : Bonne maîtrise de Python et React fortement appréciée. Des bases solides en HTML/CSS sont requises pour des dashboards personnalisés et intégrations web. PowerBI : Expérience PowerBI est un atout important. Soft skills Communication : Capacité à expliquer des concepts techniques à des partenaires métiers en anglais et en français. Autonomie : Excellentes compétences en gestion du temps pour mener plusieurs projets et gérer différents interlocuteurs. Exigence qualité : Approche rigoureuse sur Git, les tests et la documentation. Présence & collaboration Localisation : Poste basé à Clichy. Rythme hybride : 3 jours par semaine sur site afin d’assurer une collaboration étroite avec les équipes métier ainsi que l’équipe centrale Analytics & AI Engineering.
Mission freelance
Consultant SAP GRC - Transport Aérien
INFOTEL CONSEIL
Publiée le
SAP
6 mois
400-600 €
Roissy-en-France, Île-de-France
1. Mission Générale Gérer et optimiser l’ensemble du cycle de vie des accès et des identités sur l’environnement SAP, au travers de la solution SAP GRC (Access Control et/ou Process Control). Garantir la conformité des droits d’accès avec la politique de sécurité, la réglementation en vigueur et les exigences métiers, tout en minimisant les risques de fraude et d’erreur. 2. Responsabilités Principales Gestion des Accès & Sécurité : · Administrer, configurer et faire évoluer les modules SAP GRC Access Control (notamment ARA - Access Risk Analysis, EAM - Emergency Access Management, ARM - Access Request Management). · Gérer le processus complet des demandes d’accès (workflows de validation, création/modification/suppression de rôles et profils utilisateurs). · Exécuter et analyser les revues de conformité périodiques (SoD - Séparation des Droits, Revues utilisateurs) et assurer le suivi des actions correctives. · Identifier, analyser et traiter les risques liés aux accès (violations SoD, droits critiques) en collaboration avec les contrôleurs internes et les responsables métiers. · Gérer les accès d’urgence et en assurer le suivi et l’audit. Support & Exploitation : · Être le point de contact technique et fonctionnel de niveau 2/3 pour les problèmes liés aux accès SAP et à l’outil GRC. · Former et accompagner les utilisateurs finaux, les gestionnaires de proximité et les équipes support sur les processus GRC. · Participer aux tests et à la mise en production lors des évolutions ou projets d’intégration (nouveaux modules SAP, fusions-acquisitions, etc.). · Assurer le support des interfaces entre GRC et les autres systèmes (central utilisateurs, SAP ERP, S/4HANA, SuccessFactors, etc.). · Revue Radar Conformité & Amélioration Continue : · Maintenir à jour la cartographie des risques d’accès et la bibliothèque des rôles. · Rédiger et mettre à jour la documentation technique et procédurale (matrices de risques, procédures de gestion des accès, guides utilisateurs). · Contribuer aux audits internes et externes en fournissant les preuves et rapports nécessaires. · Proposer et mettre en œuvre des améliorations pour optimiser les processus, automatiser les tâches et renforcer l’efficacité de la gouvernance.
Mission freelance
SAP Data Migration Cockpit - Consultant technico fonctionnel
EBMC
Publiée le
SAP
6 mois
400-740 €
Île-de-France, France
Dans le cadre d’un projet de transformation SAP S/4HANA de type Greenfield, nous recherchons un consultant technico-fonctionnel freelance pour intervenir sur les activités de migration de données via SAP Data Migration Cockpit. La mission porte sur un périmètre fonctionnel large incluant les modules FI, CO, MM, SD et PS, avec un rôle central dans la préparation, le pilotage et la sécurisation des flux de données vers le nouvel environnement S/4. Le consultant interviendra en lien étroit avec les équipes projet afin de garantir la qualité, la cohérence et la fiabilité des données migrées, depuis les phases de cadrage jusqu’aux chargements finaux. Il participera activement aux ateliers de définition, aux tests de migration et à la résolution des anomalies, dans un contexte exigeant propre aux projets Greenfield.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
10795 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois