Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Mission Consultant Cybersécurité – Data Security & Gouvernance
Dans le cadre de l’évolution de sa stratégie de sécurité des données, un grand groupe international recherche un consultant expérimenté pour accompagner la fonction Group Data CISO et jouer un rôle clé en tant qu’interlocuteur privilégié des différentes parties prenantes ayant des responsabilités liées à la Data. Objectifs de la mission Contribuer à la définition et à la mise en œuvre de la stratégie de sécurité de la Data. Assurer la coordination entre les différentes fonctions (Cybersécurité, Data Privacy, Data Management, etc.). Participer activement à la préparation et à l’organisation des Group Data Security Steering Committees .Principales activités Interagir avec l’ensemble des parties prenantes afin de définir les priorités en matière d’exigences cybersécurité autour de la Data. Garantir la faisabilité du déploiement de ces exigences (incluant la disponibilité des outils nécessaires). Jouer un rôle de conciliateur avec les équipes GDPO (Group Data Privacy Officer) et proposer les évolutions liées à la sécurité des données personnelles à instruire dans la matrice cyber. Participer à l’amélioration continue de la gouvernance de la sécurité de la Data. Contribuer à la préparation et au suivi des Group DataSec Steering Committees .
Mission freelance
Consultant SAP PDM/GTS
Contexte Nous recherchons un Consultant SAP GTS/PDM expérimenté pour rejoindre une équipe projet et accompagner le déploiement international des modules Global Trade Services et Product Data Management . Vous aurez un rôle clé dans la mise en œuvre des solutions liées à la conformité douanière et réglementaire ainsi qu’à la gestion des données produit . Déplacement en Europe à prévoir sur la durée de la mission. Missions Contribuer au design et à l’implémentation des modules SAP GTS et PDM. Paramétrer et activer les fonctionnalités SAP liées aux flux import/export et données produit . Analyser les besoins réglementaires, de conformité et de gestion de données. Rédiger les spécifications fonctionnelles et techniques . Encadrer les tests, recettes et déploiements . Assurer l’ accompagnement au changement et la documentation des process.
Offre d'emploi
Architecte Solutions Cloud GCP – Expertise Data & Architecture Résiliente
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, fondé en 2023. Nous accompagnons nos clients grands comptes dans leurs transformations technologiques et organisationnelles, avec une expertise forte en DevOps, Data, Craft, sécurité et numérique responsable . Nous intervenons dans des secteurs variés : finance, télécommunications, IT et nucléaire . Votre rôle Dans le cadre d’un projet stratégique de modernisation des plateformes Cloud et Data, nous recherchons un(e) Architecte Solutions Cloud GCP expérimenté(e). Vous interviendrez sur des sujets d’ architecture hybride, de Data Management et d’optimisation cloud , tout en accompagnant les équipes techniques et métiers dans l’adoption des meilleures pratiques Cloud. Votre rôle combinera expertise technique, conception d’architectures sécurisées et évolutives , et accompagnement au changement auprès des équipes internes. Vos missions principales Concevoir et faire évoluer des architectures Cloud GCP sécurisées, performantes et résilientes. Participer à la conception de solutions hybrides assurant la réversibilité et la consommation de données entre le cloud et l’on-premise. Contribuer à la mise en œuvre de solutions Data Management sur GCP (BigQuery, Starburst, Minio, Apache Spark). Fournir conseil et expertise sur les bonnes pratiques GCP, la gouvernance et l’optimisation des coûts. Réaliser et présenter les dossiers d’architecture auprès des équipes techniques et des instances de gouvernance. Acculturer et former les équipes d’architectes internes sur les fondamentaux et les services Cloud GCP (présentations, ateliers, documentation). Participer à l’ implémentation et au déploiement des solutions conçues. Promouvoir les principes d’ architecture résiliente et les pratiques Agile & DevOps .
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
Scrum Master - Salesforce Platform Developer
Concepteur et Développeur Salesforce – Scrum Master (Double rôle) Contexte : Notre client en assurance gère son patrimoine Salesforce à travers 4 entités Factory : Chartres Paris – porte la structure transverse Design Authority , Product Owner, Data Management Niort – porte l’équipe transverse Maintien en Condition Opérationnelle (MCO) Le Mans – porte la structure transverse System Team La Factory Salesforce participe au programme ECLA , visant à déployer le CRM sur toutes les marques du Groupe. Le programme est mené selon le framework SAFe , avec des équipes Agiles et transverses (Design Authority, System Team) intervenant sur les ORG1 et ORG2 . Missions principales : Concevoir et développer des solutions Salesforce sur Sales Cloud, Service Cloud, Community, Analytics, etc. Participer aux cérémonies Scrum et assurer le rôle de développeur et de Scrum team member. Collaborer avec les équipes transverses (Design Authority, System Team). Contribuer à l’évolution et au Maintien en Condition Opérationnelle des ORG Salesforce. Réaliser les développements et configurations conformément aux user stories et exigences métier. Profil recherché : Compétences techniques : Maîtrise APEX Maîtrise LWC (Lightning Web Components) Maîtrise Git / Copado Connaissance des intégrations, Flows, Workflows, OmniStudio (souhaitable) Expérience professionnelle : Minimum 5 ans d’expérience Salesforce Expérience dans le domaine assurance et grand compte Expérience en agilité à l’échelle (SAFe) et travail dans des équipes Agiles Compétences fonctionnelles : Analyse des besoins métiers et rédaction des spécifications techniques Capacité à proposer des solutions évolutives et performantes Bonnes aptitudes à la communication et au travail en équipe Certifications souhaitées : Salesforce Certified Platform Developer Salesforce Certified App Builder Salesforce Certified Administrator Salesforce Certified OmniStudio Developer (optionnel) Langues : Français courant Anglais opérationnel
Mission freelance
Développeur Big Data
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Développeur Big Data Spécialités technologiques : Big Data Au sein du chapitre DATA, entité transverse au service des différentes tribus métiers, vous interviendrez dans un environnement stimulant où la donnée est au cœur des réflexions stratégiques. Votre rôle consistera à accompagner les équipes métiers dans la conception et l’industrialisation des solutions DATA, notamment autour de problématiques d’analyse de risque dans le cadre d’investissements et d’accords de prêt aux professionnels. MISSIONS Vous serez un référent technique et méthodologique, garant de la qualité, de la cohérence et de la performance des solutions Big Data déployées sur les plateformes SPARK et CLOUDERA. Missions principales - Intervenir en appui des équipes métiers pour les aider à formaliser et concevoir des solutions DATA robustes et évolutives. - Participer à la construction de pipelines de données performants et scalables (traitement, transformation, ingestion, qualité). - Assurer la mise en œuvre technique des projets sur l’écosystème Big Data (SPARK, CLOUDERA, HADOOP). - Challenger les besoins métiers pour garantir la pertinence et la faisabilité des solutions. - Promouvoir les bonnes pratiques de développement et d’architecture DATA au sein des équipes. - Contribuer à la maturité data globale de l’organisation, en accompagnant les équipes vers plus d’autonomie et de rigueur dans la manipulation des données. Expertise souhaitée Compétences techniques - Solide maîtrise des environnements SPARK, CLOUDERA, HADOOP. - Bonnes connaissances de Hive et Java (BONUS). Soft skills et posture - Capacité à prendre du recul et à aborder les sujets sous un angle global et critique. - Aisance dans la communication transverse et l’interaction avec des interlocuteurs non techniques. - Esprit de leadership intellectuel : savoir challenger, convaincre, faire réfléchir les équipes métiers. - Autonomie, curiosité et sens du collectif. - Goût pour la pédagogie technique et l’accompagnement au changement.
Offre d'emploi
Responsable ERP (Dynamics NAV / BC) - Client final - Lausanne
Responsable ERP (MS Dynamics NAV / BC) - Client final - Lausanne Nous recrutons aujourd'hui en CDI un Responsable ERP (MS Dynamics NAV / BC) pour rejoindre cette société basée à Lausanne et faisant figure d'acteur international dans son domaine d'activité. En intégrant cette structure vous serez responsable de : Piloter le portefeuille de projets SI (ERP et aussi DATA) Manager une équipe de 2 personnes Mener la migration de MS Dynamics NAV vers Business Central Accompagner les métiers, comprendre et formaliser leurs besoins (finance, supply, production, achats, ventes). Assurer le lien avec les autres pôles IT (Développement & Infrastructure) Garantir la qualité des livrables Proposer des solutions innovantes et conduire la digitalisation des processus Apporter un cadre méthodologique Il s'agit d'une excellente opportunité de rejoindre, sur un poste à responsabilités, un client final en interne proposant un cadre de travail attractif en Suisse Romande. Une présence de 4 jours par semaine sur site est demandée (1 jour de télétravail par semaine).
Mission freelance
Data Engineer
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte Dans le cadre du programme de transformation digitale, l’équipe, basée à Pau, se renforce. Objectif : améliorer la qualité, l’accessibilité et l’exploitation des données opérationnelles via des pipelines robustes, de la gouvernance et des cas d’usage innovants en IA / IA Générative. 🛠️ Missions principales Data Engineering : Définir les processus de gestion de données et d’information des outils digitaux. Développer et maintenir des pipelines robustes (ETL temps réel & batch). Automatiser les traitements (Python ou équivalent). Participer à la modélisation et standardisation des données. Qualité & Gouvernance des données : Développer et maintenir des outils de contrôle qualité (dashboards, alerting, audits). Mettre en place le processus de data management pour les données temps réel (WITSML, WellView). Représenter le groupe dans les forums OSDU / WITSML / RTSC. Data Science & IA : Contribuer à l’intégration de solutions IA et IA Générative pour les cas d’usage métier. Expérimenter, customiser et superviser des modèles ou solutions IA. Accompagnement & Support : Support utilisateurs et animation de la conduite du changement. Supervision des tâches administratives liées aux outils digitaux.
Offre d'emploi
QA Data Engineer (salarié uniquement )
Construction du référentiel de tests Détection et remontées des défauts Elaboration PV de recette SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé - Important Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Expérience de5 à 10 ans dans un rôle QA, Data Analyst ou Data Engineer orienté qualité Une certification en QA ou Data (ISTQB, Data Management, etc.) est un plus
Mission freelance
Ingénieur Data - BI & ETL
CONTEXTE : Experience : 4 ans et plus Métiers Fonctions : Data Management, Ingenieur data Spécialités technologiques : BI Vous intégrerez l’équipe BI Entreprise afin de répondre aux nouveaux besoins des métiers (Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux). Votre rôle sera central dans l’évolution de notre architecture décisionnelle et dans la modernisation de nos flux de données, avec un accent particulier sur la migration des packages SSIS vers Azure Data Factory (ADF) et le développement de pipelines cloud. MISSIONS Assurer la migration des traitements SSIS existants vers Azure Data Factory, en garantissant performance, robustesse et conformité. Concevoir et développer des pipelines ADF complets, depuis la collecte des données jusqu’à leur intégration dans l’entrepôt (SQL Managed Instance / Snowflake). Créer et maintenir des Data Flows ADF (nettoyage, enrichissement, transformation). Mettre en place et gérer des triggers conditionnels permettant d’orchestrer des traitements complexes. Participer à l’optimisation des coûts et des performances des modèles BI (Power BI, modèles sémantiques, DAX). Documenter les développements et assurer la MCO (Maintien en Condition Opérationnelle) de l’existant. Expertise souhaitée Diplômé(e) d’un Master 2 ou d’une école d’ingénieur en décisionnel, vous justifiez d’une expérience significative en ingénierie de données et êtes à l’aise dans un environnement mixte on-premise et cloud Azure. Vous savez combiner expertise technique, autonomie et relationnel métier. BI & ETL : maîtrise de SSIS, SQL Server (2017+), expérience confirmée en migration de packages SSIS vers ADF. Azure Data Factory : - Développement de pipelines de bout en bout - Conception de Data Flows complexes - Gestion de triggers conditionnels et orchestrations Cloud & Bases de données : SQL Managed Instance, Snowflake (migration, intégration).
Mission freelance
LEAD SECOPS SAP BASIS BTP
Animer l’activité SAP avec notre partenaire intégrateur SAP Basis, poser le cadre de bonnes pratiques SAP et le mettre en œuvre avec lui • Assurer le respect de nos process de gestion des droits et autorisations et plus spécifiquement sur la gestion des droits étendus (firefighter) • Organiser la revue des comptes et la recertification des comptes SAP • Garantir la sécurité des données et prévenir des risques d’accès (séparation des tâches) • Être le point de contact privilégié de nos auditeurs internes et externes en tout ce qui concerne la sécurité de l’accès à l’information • Mettre en œuvre et coordonner les plans d’action et de remédiation issues des audits • Vous coordonner avec le lead DevOps SAP, le release manager et le test manager pour insuffler une dynamique sereine permettant aux développeurs et consultants fonctionnels de livrer les releases dans de bonnes conditions • Avec nos outils de supervision, veiller à la disponibilité des applications SAP et à la remontée des bons indicateurs techniques et fonctionnels • Participer au retour d'expérience (retex) des incidents majeurs • Participer aux opérations techniques en heures non ouvrés en apportant votre savoir faire SAP pour réaliser les opérations de maintenance avec les équipes techniques et fonctionnelles • Définir, communiquer et faire appliquer les prérogatives de sécurité en coordination avec notre département Cyber-Sécurité adapter à nos environnements SAP • Être garant de la planification et du bon déroulement de nos refreshs des environnements hors-production avec notre solution automatisée • Suivre et faire appliquer les recommandations pertinentes pour nos environnements émanant des rapports Early Watch Alert et Data Volume Manager • Gérer notre vaste parc d’imprimantes en accompagnant les déploiements, les paramétrages et les tests • Vous êtes à l’aise pour décrocher votre téléphone et apporter du support SAP sur le GUI ou le Business Client et les impressions à nos utilisateurs finaux qui peuvent être des directeurs de magasin, jusqu’au responsable de rayon en passant par un responsable supply chain ou une comptable • Une attention particulière sera nécessaire sur la gestion des paramètres utilisateurs notamment lors de déploiement de nouveaux points de vente Ceux-ci sont gérés dans SAP mais aussi dans Gaïa et des traitements de synchronisation peuvent en écraser certains rendant l'accès utilisateur impossible. service client. Informations supplémentaires
Mission freelance
Développeur ServiceNow – Module TDM 400 e par jour
Développeur ServiceNow – Module TDM 400 e par jour Missions principales Concevoir, développer et maintenir les applications ServiceNow liées au module Test Data Management (TDM) . Configurer et personnaliser les workflows, formulaires, scripts et intégrations nécessaires au bon fonctionnement du module. Assurer la qualité du code, la gestion des versions et la documentation technique. Collaborer avec les équipes QA, DevOps et métiers pour comprendre les besoins en gestion de données de test. Diagnostiquer et résoudre les incidents ou anomalies liés au TDM. Participer aux phases de test, de déploiement et d’optimisation continue de la plateforme ServiceNow. Profil recherché Expérience confirmée en développement ServiceNow (JavaScript, Glide, API REST/SOAP). Maîtrise du module Test Data Management ou d’autres modules ServiceNow ITSM/ITOM/ITBM, avec une capacité d’apprentissage rapide sur TDM. 400 e par jour
Mission freelance
Developpeur RPA .NET Fullstack
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Back-End, Fullstack, Applications Web, RPA Data management MISSIONS Pour l'un de nos client nous recherchons un développeur RPA et .NET fullstack pour rejoindre l’équipe en charge des applications internes. Au sein d’une équipe d’une dizaine de personnes, vous participerez à la réalisation, à la maintenance évolutive et corrective des différentes applications du parc applicatif. Ces solutions incluent notamment des applications développées en Blazor connectées à des bases SQL Server et les outils PowerPlatform (PowerAutomate, PowerApps). Les demandes seront formulées par le Product Owner et suivies par le Responsable Applicatif. Le développeur devra estimer, développer, tester et livrer les fonctionnalités demandées. L’objectif est de renforcer les projets en cours, répondre aux demandes croissantes des utilisateurs, et sécuriser l’évolution des applications existantes. Parmi les projets principaux : Application d’inspection pour la gestion de certificats, Solution digitalisant les dossiers d’inspection avec intégration de robots RPA, Solution PowerPlatform pour la transmission de plans de prévention, Application de digitalisation des études d’analyse en laboratoire.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.