Trouvez votre prochaine offre d’emploi ou de mission freelance Xano
Votre recherche renvoie 658 résultats.
Offre d'emploi
Agile Master H/F
Le Groupe SYD
Publiée le
6 mois
35k-40k €
375-450 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Nantes (44), un Agile Master H/F . Démarrage : ASAP Lieu : Nantes (44) Télétravail : 2 jours / semaine possibles (non-négo) Contrats : Ouvert à tous types de contrats (indep, portage, CDI) 👉 Chez notre client, en tant qu’ Agile Master H/F , vous accompagnerez simultanément deux équipes. À ce titre, vos missions seront : Accompagner les équipes au quotidien Soutenir les démarches de transformation Améliorer l’efficacité du delivery Dégager du temps aux PO et PM Mener un audit de maturité Améliorer les rituels existants
Offre d'emploi
LEAD DEV technico-fonctionnel expert Retail SAP S/4 HANA & CAR
IT CONSULTANTS
Publiée le
SAP ABAP
SAP S/4HANA
8 mois
Île-de-France, France
Contexte de la mission : Dans le cadre de la stabilisation du système SAP S/4HANA, nous recherchons un Lead DEV technico-fonctionnel expert SAP S/4 HANA disposant d’une expertise affirmée sur les modules SAP. A ce titre vous intégrez le train Safe SAP pour l’Equipement de la Maison Vos responsabilités : Au niveau technico/fonctionnel : • Aligner les développements avec les priorités Business o Planifier les corrections techniques en phase avec les produits (performance, revue de code, optimisation, bug technique) o Contribution à la « conformité » par la mise en place de pattern avec les produits tiers o S’assurer avec le consultant autorisation que les règles de SOD et de prévention de risques de sécurité sont bien respectées • Accompagner la Core Team o Accompagnement du release manager pour automatiser les livraisons (OT, batch, boomi etc.) et la mise en place de Cloud ALM o Garant de la tenue du backlog des OT o Garant des interventions en Production des développeurs et des paramétrages effectués par les consultants. o Montée de version/Patches : Cadrage, analyse d’impact, revue de code des développements impactés, support Oxya o Etude et accompagnement dans les montées de version majeur SAP et le move to Cloud (Rise), avec maitrise des bonnes pratiques SAP d'extensibilité et du modèle Clean Core (on-stack vs side-by-side BTP). o Connaissance de la BTP et des extensions side-by-side (RAP, CAP, UI5, Integration Suite) o Coordonner la migration des interfaces vers les APIs S/4HANA Cloud (OData V4, Event Mesh) • Assister les produits fonctionnels o Dépendances/Adhérences inter-produits (OT, process, flux/interface) o Coordination avec les architectes ou la DA (Design Authority) o Best practices, performances, optimisations Au niveau de l’animation et support des équipes • Animer la communauté des développeurs SAP, poser le cadre de bonnes pratiques et le mettre en œuvre. o Parcourir les sujets en cours et aider à réduire les blocages de chaque développeur o Réaliser des échanges de connaissance, rappel de best practices, démo ou autre présentation technique. o Définir et suivre le plan d’action à mettre en œuvre pour donner suite aux résultats de la revue de code. • Support technique aux équipes opérationnelles dans le train NOE, les projets, et les évolutions au sens large en intégrant les différentes comitologies du programme. o Assistance aux équipes produits (renfort technique, performance, aide au développement) o Support sur les MEP : analyse des dépendances (RACI avec le release manager, au global sur les dépendances), support avec l’infogérant pre-MEP et pendant les MEP, support des autres produits o Optimiser les performances ABAP/Fiori (programmes, tuiles, process internes) o Enrichissement par l’étude d’autres outils SAP en coordination avec l’architecte SAP : Personas, Cloud ALM (charm), Tricentis, BTP, Integration Suite, Archivage Au niveau de la Réalisation • Développement de nouvelles fonctionnalités métiers o Ajout/Modification de tuiles standards ou spécifiques o Ajout/modification de fonctionnalités ABAP/Java o Elaboration/Modification d’interfaces (API, idocs, WebServices, OData) • Analyses technico-fonctionnelles de l’état de santé de la plateforme o Analyse des dumps SAP (st22) o Analyse des mises à jour SAP (sm13) o Evaluation du capacitaire (analyse de l’utilisation de la mémoire HANA) o Suivi et Analyse de l’Advanced Sizing, du DVM Check et des EWA en coordination avec le lead Basis Vos atouts pour réussir : • Expérience confirmée (au moins 10 ans) en tant que Lead Dév expert Retail SAP S4/HANA & CAR • Expert ABAP/FIORI/BTP • Capacité à travailler en environnement multi-projets et à coordonner les équipes techniques et fonctionnelles. • Excellentes compétences en communication et documentation. • Resistance aux pressions externes • Votre vision de bout, votre sens de l’organisation sont des atouts de réussite pour ce poste. Français courant indispensable. Modalités Mission longue Démarrage: Dès que possible Télétravail 2 jours par semaine Mission dans le 92 avec quelques déplacements dans le 91
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Ingénieur(e) Sécurité – Réseau & Cloud (Junior)
Syneam
Publiée le
Cybersécurité
Palo Alto
sentinelone
3 mois
Hauts-de-Seine, France
Dans le cadre du renforcement de ses dispositifs de cybersécurité, un grand acteur international du secteur du luxe recherche un ingénieur sécurité pour accompagner ses équipes opérationnelles sur des sujets réseau et cloud. La mission s'inscrit dans un environnement exigeant, avec des enjeux forts de sécurisation des accès et des flux à l'échelle mondiale. Descriptif de la mission : Exploitation et amélioration des dispositifs de sécurité réseau (proxy, firewall, EDR) Administration et optimisation des solutions de proxy sécurisé (Zscaler) Gestion et tuning des outils EDR (SentinelOne) Gestion des règles de filtrage firewall (Palo Alto Networks) et gouvernance via Tufin Analyse des incidents de sécurité et participation à leur remédiation Collaboration avec les équipes infrastructure et cloud pour renforcer la posture de sécurité Documentation et amélioration continue des processus
Offre d'emploi
Expert Réseau WAN/SDWAN H-F
iDNA
Publiée le
BGP (Border Gateway Protocol)
Routing & Switching (R&S)
SD-WAN
12 mois
62k-67k €
490-500 €
Toulouse, Occitanie
Nous Connaitre :Créé en 2011, iDNA est un cabinet de conseil indépendant qui accompagne ses clients sur les domaines clés de l’IT et les aide à créer de la valeur grâce à leur système d’information. Nous intervenons auprès des plus grandes entreprises françaises. Après 15 années de développement dans la cybersécurité des environnements IT et OT, iDNA devient une filiale de NXO France tout en conservant son identité, son autonomie opérationnelle et ses équipes. Une alliance fondée sur des valeurs communes, la complémentarité des expertises et une ambition partagée : créer toujours plus de valeur pour nos clients. Contexte :Pour l’un de nos clients (secteur bancaire), nous recherchons un(e) Expert (e) réseau WAN/SDWAN chargé(e) d’intervenir sur des environnements critiques du Département Réseau. Principales missions : · Intervention sur du SD-WAN Fortinet · Intervention sur du Versa Networks · Connaissance des backbones opérateurs · Intégration des architectures réseaux WAN/SDWAN · Troubleshoot niveau 3 des solutions · Automatiser le build et le run via du développement Python Vous aurez la responsabilité de : - Prendre en charge le maintien en conditions opérationnelles des infrastructures matérielles et logicielles relatives à son domaine de responsabilité, traiter les incidents et problèmes pouvant survenir sur les plates-formes - Participer aux études d'évolution de l'infrastructure (Design) - Assurer l'ingénierie, lors de la construction/installation/paramétrage des plates-formes techniques dans le cadre des projets (BUILD) - Réaliser l'installation des infrastructures, le paramétrage et la validation des composants de l'infrastructure - Coordonner le cas échéant les différents intervenants techniques qui interviennent dans le processus d'installation - Intervenir directement sur la qualification des plates-formes informatiques avant la phase de mise en production - Assurer le bon fonctionnement des plates-formes techniques (RUN) - Garantir la disponibilité des ressources techniques - Analyser et corriger les incidents en niveaux 2 et 3 - Assurer l'exploitation des composants techniques et participer à la gestion de leurs capacity planning - Réaliser des diagnostics pour identifier les causes de dysfonctionnement et proposer des corrections et des solutions de contournement - Maintenir en condition opérationnelle les infrastructures dans un objectif de qualité, de productivité et de sécurité - Assurer un rôle de conseil, d'assistance, d'information, de formation et d'alerte sur son domaine d'activité - Piloter la démarche de progrès et d'amélioration continue - Proposer des solutions innovantes pour améliorer la fiabilisation, la sécurisation et l'optimisation de son domaine d'activité - Participer activement à la démarche d'industrialisation - Définir et mettre en œuvre les règles de bonne gestion et d'exploitabilité des systèmes ou produits - Garantir le bon niveau de qualité de service en cohérence avec les exigences des contrats de services (SLA) sur son domaine de responsabilité Avantages & Perspectives Localisation : Toulouse Rythme de Télétravail : 10 jours par mois Démarrage : dès que possible TJM : +/-500 euros selon profil Des astreintes et HNO sont prévues les soirs et week end.
Offre d'emploi
Ingénieur DevOps - secteur du transport H/F
VIVERIS
Publiée le
45k-50k €
Chambéry, Auvergne-Rhône-Alpes
Contexte de la mission : La mission s'inscrit au sein d'un grand groupe international du secteur du transport et de la logistique, engagé dans une démarche de transformation et de modernisation de ses infrastructures IT. Vous intervenez sur la mise en oeuvre, l'évolution et la gouvernance des environnements Cloud public, dans un contexte hybride Cloud / On-Premise, avec de forts enjeux de sécurité, conformité et optimisation des coûts. Vous travaillez en étroite collaboration avec les équipes Sécurité, Réseau et Projets applicatifs, et contribuez à la définition et à l'application des standards de gouvernance Cloud à l'échelle de l'organisation. Responsabilités : - Définir, maintenir et faire évoluer les standards de gouvernance Cloud (Landing Zones, RBAC, policies, tagging, conformité) ; - Mettre en place et administrer les mécanismes de contrôle et de conformité sur les environnements Cloud ; - Assurer la cohérence entre les politiques Cloud et les contraintes On-Premise, dans une logique d'architecture hybride ; - Contribuer aux projets Cloud & Datacenter, notamment sur les workloads containers et les patterns de migration ; - Automatiser la création et la gouvernance des environnements via des approches Infrastructure as Code ; - Participer activement à la maîtrise et à l'optimisation des coûts Cloud (FinOps) ; - Produire et maintenir la documentation technique et les standards associés à la gouvernance.
Mission freelance
Chef de projet confirmé Scrum-Data-DataCloud Nantes/pa
WorldWide People
Publiée le
Scrum
12 mois
Nantes, Pays de la Loire
Chef de projet confirmé Scrum-Data-DataCloud Nantes- Compétences : •Maitrise dans la gestion de projet et portefeuille de projets. •Maitrise dans la prise en compte des besoins, de leurs évolutions et dans la capacité à mobiliser/exploiter un large éventail d'expertises pour répondre aux besoins du client •Maitrise Scrum et du rôle de Scrummaster •Maitrise de la gestion de la relation client •Maitrise du management de la qualité et de la sécurité informatique (normes, bonnes pratiques, gestion de la connaissance, réglementation,...). •Très bonne connaissance de la gestion des compétences sur le projet •Capacité à intégrer le contexte et le SI client concerné par le projet •Bonnes connaissance de l'intégration des systèmes, des tests, de la gestion de projet, de la gestion de la qualité et de l'amélioration des processus •Bonnes connaissance du domaine de la Data et DataCloud L’objectif de cette prestation est d’accompagner les projets de développement de cas d’usage dans le domaine dataCloud ; et également suivant les besoins de participer au MCO, à la supervision et au support des cas d’usage développés. le poste combine un rôle gestion de projet et un rôle de Scrummaster Mission Instruire le projet : •Réaliser les études d'opportunités/faisabilité •Participer à la définition fonctionnelle et technique du projet Conduire le projet en garantissant le respect du cahier des charges, des délais et des coûts tout en minimisant les risques : •Organiser, coordonner et animer l'ensemble de l’équipe projet •Gérer les changements •Planifier et suivre l'avancement, les écarts et les risques •Arbitrer les éventuels différends/écarts entre les parties prenantes •Communiquer sur l'avancement du projet •Gérer la relation avec les parties prenantes (internes/externes). •Contrôler la production des spécifications et de leur réalisation (développements, intégration,...) •Préparer et piloter la phase de tests (qualification et d'intégration •Coordonner, synthétiser, et assurer la qualité des validations prononcées •Déployer l'objet du projet (application, technologie, équipements,...) •Participer à la conduite du changement et la formation des utilisateurs •Organiser le support utilisateur Assurer le rôle de Scrummaster avec comme principale mission : •Accompagner l'équipe dans son adoption et application de Scrum •Aider l’équipe de développement à créer des produits de grande valeur •Éliminer les obstacles au progrès de l’équipe de développement Compétences : •Maitrise dans la gestion de projet et portefeuille de projets. •Maitrise dans la prise en compte des besoins, de leurs évolutions et dans la capacité à mobiliser/exploiter un large éventail d'expertises pour répondre aux besoins du client •Maitrise Scrum et du rôle de Scrummaster •Maitrise de la gestion de la relation client •Maitrise du management de la qualité et de la sécurité informatique (normes, bonnes pratiques, gestion de la connaissance, réglementation,...). •Très bonne connaissance de la gestion des compétences sur le projet •Capacité à intégrer le contexte et le SI client concerné par le projet •Bonnes connaissance de l'intégration des systèmes, des tests, de la gestion de projet, de la gestion de la qualité et de l'amélioration des processus •Bonnes connaissance du domaine de la Data et DataCloud
Mission freelance
Data Architect Databricks Nantes/pa
WorldWide People
Publiée le
Databricks
12 mois
Nantes, Pays de la Loire
Data Architect Databricks Nantes Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…). Prestation de Data Architect •Il définit l’architecture Data pour son périmètre, en fonction des besoins métier, en tenant compte de l’architecture du SI, des règles de gouvernance Data et plus globalement des standards et des communs définis au niveau de son organisation. •Sur la partie Data, il définit les normes et standards en matière de disponibilité, d’intégrité, de confidentialité et de traçabilité dans l'objectif de maximiser la valeur que l’organisation tire de ces données. •C’est lui qui pilote la mise en oeuvre des principes d’architecture Data dans le SI et garantit sa conformité, sa performance, sa pérennité, son adéquation aux besoins métier ainsi que l’optimisation du cycle de vie de la donnée. •Le Data Architect préconise et valide les principes de modélisation des données pour qu’ils soient adaptés aux usages de façon durable. •Il organise la gestion des référentiels Data et facilite leur maintenance. Tâches : •Contribue à l’élaboration de la stratégie Data de la donnée alignée avec la stratégie business et en cohérence avec la roadmap de l’Architecte d’entreprise. •Contribue aux choix technologiques qui portent le cycle de vie de la donnée. •Assure une veille technologique active sur les solutions innovantes et particulièrement en matière de Data et d’IA. •Définit les règles, normes et standards en matière de stockage et de traitement de la donnée. •Coordonne les travaux d’architecture Data et en assure la gouvernance. •Assure la cohérence du modèle Data tout au long du cycle de vie des projets. •Répond aux exigences réglementaires liées à la Data. Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…).
Mission freelance
Administrateur de Bases de Données Oracle, Postgre, Linux Red Hat Nantes/pa
WorldWide People
Publiée le
Oracle
PostgreSQL
12 mois
400-450 €
Nantes, Pays de la Loire
Administrateur de Bases de Données Oracle, Postgre, Linux Red Hat Nantes. La mission autorise le télétravail à hauteur de 2j et implique une domiciliation autour de Nantes (moins de 1h) pour assurer les astreintes et interventions 1semaine/mois. Le démarrage sur la mission nécessitera une habilitation. Compétences requises : Afin d’assurer la fonction, nous attendons un profil confirmé qui devra disposer des compétences suivantes : • Bases de Données : Postgre, Oracle (RAC et Dataguard). • OS : Linux RedHat, Windows server • Environnement VMware Mission : Au sein d'un projet en charge de l'infrastructure d'un client, nous renforçons l'équipe de DBA. La mission consiste à • Administrer, optimiser les environnements BDD et assurer le maintien en condition opérationnelle (Oracle 19c, PostgreSQL, SQLServer, MariaDB/MySQL) • Concevoir et mettre en œuvre les infrastructures de système de gestion des BDD (Oracle Clusterware, environnements mutualisés) • Mettre en Œuvre les solutions de réplication de BDD (Oracle : Dataguard, PostgreSQL/MariaDB/MySQL : réplication stream, standby & logique, SQL Server : Always-On) • Assurer le traitement des demandes de services et des incidents de Niveau 2 et interface avec les équipes N3 du client lorsque nécessaire • Participer à la mise en en production • Analyser et suivre les incidents de mise en production • Maintenir les conditions générales de production de service (résolution d’incidents sur son domaine technique et propositions d’amélioration) • Réaliser l’enrichissement des référentiels d’exploitation ; • Participer à l’automatisation & à l’amélioration des activités • Réaliser l’intégration technique des composants dans le respect des normes d’exploitabilité Compétences requises : Afin d’assurer la fonction, nous attendons un profil confirmé qui devra disposer des compétences suivantes : • Bases de Données : Postgre, Oracle (RAC et Dataguard). • OS : Linux RedHat, Windows server • Environnement VMware Modalités : - Cette mission implique des astreintes à hauteur d'1 semaine / mois. - Lieu mission : Locaux client - Nantes-Est - Durée : Longue - Temps partiel possible : Non - Possible à distance : Télétravail à Hauteur Max de 2j/semaine (après période de montée en compétence)
Mission freelance
246974/Coach Agile - Nantes
WorldWide People
Publiée le
Méthode Agile
6 mois
400-550 €
Nantes, Pays de la Loire
Coach Agile - Nantes Synchronisation & Pilotage: - Animation des ART Sync. - Gestion des risques et dépendances - Arbitrages tactiques Excellence Opérationnelle: - Coaching méthodologique des rôles clés (PM/PO/Archi) - Facilitation des ateliers d'affinage (Backlog Refinement) - Acculturation des Métiers à Diapason Support outillage: - Administration fonctionnelle JIRA - Alignement du paramétrage avec le framework Diapason - Support utilisateurs Objectifs et livrables Synchronisation & Pilotage: - CR des ART Sync (Points de blocage / Décisions) - Tableaux de bord JIRA à jour (Vélocité, Burn-up) Excellence Opérationnelle: - Backlog priorisé et estimé (Definition of Ready validée) - Supports d'ateliers (Story Mapping, Cadrage) - Plan d’accompagnement métier Support outillage: - Spécifications de configuration JIRA - Plan d’amélioration de l’outillage Compétences demandées Compétences Niveau de compétence AGILE Expert JIRA Expert Support utilisateur Expert
Mission freelance
Consultant Informatica (Run) Nantes (3 jours de télétravail)/du
WorldWide People
Publiée le
Informatica
12 mois
350-370 €
Nantes, Pays de la Loire
Consultant Informatica (Run) Nantes (3 jours de télétravail) Début avril 1 an 4 ans d'expérience minimum sur informatica Nantes (3 jours de télétravail) Informatica, SQL, Oracle,Exadata La prestation consiste à accompagner l'équipe interne (2 ETP) sur les activités run informatica: -assurer le suivi de production -analyser les incidents -pointer les traitements qui ont tourné et ceux manquants et pourquoi -bilan et recherche d'amélioration La prestation nécessite d'avoir 4 ans d'expérience minimum sur informatica
Offre d'emploi
LEAD DEV technico-fonctionnel expert Retail SAP S/4 HANA & CAR
IT CONSULTANTS
Publiée le
SAP ABAP
SAP S/4HANA
8 mois
Île-de-France, France
Contexte de la mission : Dans le cadre de la stabilisation du système SAP S/4HANA, nous recherchons un Lead DEV technico-fonctionnel expert SAP S/4 HANA disposant d’une expertise affirmée sur les modules SAP. A ce titre vous intégrez le train Safe SAP pour l’Equipement de la Maison Vos responsabilités : Au niveau technico/fonctionnel : • Aligner les développements avec les priorités Business o Planifier les corrections techniques en phase avec les produits (performance, revue de code, optimisation, bug technique) o Contribution à la « conformité » par la mise en place de pattern avec les produits tiers o S’assurer avec le consultant autorisation que les règles de SOD et de prévention de risques de sécurité sont bien respectées • Accompagner la Core Team o Accompagnement du release manager pour automatiser les livraisons (OT, batch, boomi etc.) et la mise en place de Cloud ALM o Garant de la tenue du backlog des OT o Garant des interventions en Production des développeurs et des paramétrages effectués par les consultants. o Montée de version/Patches : Cadrage, analyse d’impact, revue de code des développements impactés, support Oxya o Etude et accompagnement dans les montées de version majeur SAP et le move to Cloud (Rise), avec maitrise des bonnes pratiques SAP d'extensibilité et du modèle Clean Core (on-stack vs side-by-side BTP). o Connaissance de la BTP et des extensions side-by-side (RAP, CAP, UI5, Integration Suite) o Coordonner la migration des interfaces vers les APIs S/4HANA Cloud (OData V4, Event Mesh) • Assister les produits fonctionnels o Dépendances/Adhérences inter-produits (OT, process, flux/interface) o Coordination avec les architectes ou la DA (Design Authority) o Best practices, performances, optimisations Au niveau de l’animation et support des équipes • Animer la communauté des développeurs SAP, poser le cadre de bonnes pratiques et le mettre en œuvre. o Parcourir les sujets en cours et aider à réduire les blocages de chaque développeur o Réaliser des échanges de connaissance, rappel de best practices, démo ou autre présentation technique. o Définir et suivre le plan d’action à mettre en œuvre pour donner suite aux résultats de la revue de code. • Support technique aux équipes opérationnelles dans le train NOE, les projets, et les évolutions au sens large en intégrant les différentes comitologies du programme. o Assistance aux équipes produits (renfort technique, performance, aide au développement) o Support sur les MEP : analyse des dépendances (RACI avec le release manager, au global sur les dépendances), support avec l’infogérant pre-MEP et pendant les MEP, support des autres produits o Optimiser les performances ABAP/Fiori (programmes, tuiles, process internes) o Enrichissement par l’étude d’autres outils SAP en coordination avec l’architecte SAP : Personas, Cloud ALM (charm), Tricentis, BTP, Integration Suite, Archivage Au niveau de la Réalisation • Développement de nouvelles fonctionnalités métiers o Ajout/Modification de tuiles standards ou spécifiques o Ajout/modification de fonctionnalités ABAP/Java o Elaboration/Modification d’interfaces (API, idocs, WebServices, OData) • Analyses technico-fonctionnelles de l’état de santé de la plateforme o Analyse des dumps SAP (st22) o Analyse des mises à jour SAP (sm13) o Evaluation du capacitaire (analyse de l’utilisation de la mémoire HANA) o Suivi et Analyse de l’Advanced Sizing, du DVM Check et des EWA en coordination avec le lead Basis Vos atouts pour réussir : • Expérience confirmée (au moins 10 ans) en tant que Lead Dév expert Retail SAP S4/HANA & CAR • Expert ABAP/FIORI/BTP • Capacité à travailler en environnement multi-projets et à coordonner les équipes techniques et fonctionnelles. • Excellentes compétences en communication et documentation. • Resistance aux pressions externes • Votre vision de bout, votre sens de l’organisation sont des atouts de réussite pour ce poste. Français courant indispensable. Modalités Mission longue Démarrage: Dès que possible Télétravail 2 jours par semaine Mission dans le 92 avec quelques déplacements dans le 91
Mission freelance
Data Scientist Python, Tensorflow Nantes/st
WorldWide People
Publiée le
Python
12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Mission freelance
247662/Product Owner Technique Nantes Backlog Gitlab
WorldWide People
Publiée le
Backlog management
6 mois
350-400 €
Nantes, Pays de la Loire
Product Owner Technique Nantes Backlog Gitlab Contexte de la mission En tant que Product Owner vous intègrerez une équipe de 20 personnes et vous aurez tout particulièrement à moderniser l’offre de services autour des outils GITLAB, Artifactory et Mattermost, outils socles du cycle de développement afin d’améliorer et optimiser les services mis à disposition de toutes les équipes de développement de la direction. Priorisation de la backlog Rédaction de users stories Participation à la définition des feuilles de route Communication auprès des utilisateurs Identification des mesures d’impacts Coordonner les travaux internes et externes au département Objectifs et livrables Rédaction de User Story Evaluer les hypothèses fonctionnelles Rédaction de critères d’acceptation Analyse statistique Compétences demandées Compétences Niveau de compétence rédaction user stories Confirmé Connaissance DE Scrum et DE la méthodologie Agile Expert backlog Confirmé GITLAB Confirmé
Mission freelance
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN
Signe +
Publiée le
Qlik Sense
Qlikview
Snowflake
6 mois
Bretagne, France
Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles
Mission freelance
CONSULTANT SENIOR SAP BW/DATASPHERE H/F
AXONE BY SYNAPSE
Publiée le
BigQuery
Data Lake
Microsoft Power BI
3 mois
Auvergne-Rhône-Alpes, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Consultant Senior SAP BW / Datasphere H/F afin d’accompagner un programme stratégique de transformation du reporting financier. Dans un contexte hautement confidentiel lié à des enjeux stratégiques et financiers majeurs, le client souhaite remplacer son environnement SAP BW en fin de support (BEX/BIA) par une solution moderne orientée DataLake et BI. Le consultant interviendra dans un cadre sécurisé nécessitant discrétion et rigueur, avec une exposition directe à des décisions structurantes. La mission comprend une phase d’étude, de cadrage, d’avant-vente ainsi que la mise en œuvre opérationnelle. Le consultant agira comme référent technique et stratégique, en contribuant activement aux choix d’architecture et aux orientations data à long terme. Objectif et livrable: Étude de cadrage complète Analyse de l’existant SAP BW Cartographie des données et processus métiers Benchmark des solutions (Datasphere, Snowflake, BigQuery) Recommandations d’architecture cible Plan de migration détaillé Chiffrage global projet + RUN Support avant-vente et construction de proposition Compétences attendues: Expertise SAP BW (modélisation, extraction, reporting) Connaissance SAP Datasphere Expérience DataLake (Snowflake, BigQuery) Architecture data & BI Outils de reporting (SAC, Power BI, MicroStrategy, Jedox) Cadrage projet et recueil des besoins métiers Estimation budgétaire et chiffrage projet Migration SI décisionnel
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
658 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois