Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris
Offre d'emploi
Développeur IA / NLP — POC Chatbot et IA métier
Organisation européenne de référence dans le domaine des normes techniques et de la veille scientifique (secteur réglementaire / phytosanitaire), nous lançons un projet d'exploration IA. L'objectif : concevoir un Proof of Concept (POC) de chatbot conversationnel s'appuyant sur nos ressources internes (bases de données, corpus normatifs, documents techniques, littérature scientifique) Missions - Cartographier & préparer les données o Identifier les sources internes (BDD visibles et non exposées), corpus normatifs internationaux et documents non structurés. o Définir la stratégie d'ingestion, de normalisation et de gouvernance (qualité, traçabilité, métadonnées, RGPD). - Concevoir le POC de chatbot conversationnel o Évaluer des approches LLM (RAG, fine-tuning léger, réécriture de requêtes) adaptées aux cas d'usage. o Prototyper une interface (CLI/terminal et/ou web minimaliste) avec recherche sémantique, citations et vérifiabilité. - Proposer l'architecture cible o Définir l'architecture technique (orchestration, vector store, pipelines ETL/ELT, observabilité, sécurité). o Établir les prérequis d'industrialisation (coûts, MLOps, monitoring qualité, lifecycles des modèles). - Développer \"GPT métier\" o Concevoir un outil en ligne de commande (IAmétier\") pour retrouver rapidement les occurrences historiques d'événements similaires à des phénomènes actuels, en interrogeant directement les données structurées (PostgreSQL et BDD internes) et non structurées (normes internationales, PDF, docs). - Contrôle qualité assisté par IA o Mettre en place des vérifications automatiques (cohérence, complétude, détection d'anomalies textuelles ou de champs). o Génération de résumés factuels et analyses automatiques dans les workflows de recherche. Livrables attendus - Cartographie des données + plan de remédiation qualité. - Prototype fonctionnel (chatbot + CLI \"GPT métier\") avec journal de sources et évaluation. - Dossier d'architecture (schémas, choix techno, sécurité, coûts) + plan d'industrialisation. - Kit de présentation (démo, métriques, ROI attendu) pour parties prenantes.
Offre d'emploi
Tech Lead Data
Mission Freelance – Tech Lead Data Client : secteur Minéraux / Industrie Localisation : Paris 16ᵉ Télétravail : 1 à 2 jours par semaine Équipe : environ 10 collaborateurs Durée : 6 mois minimum Contexte et enjeux Le client engage une transformation data ambitieuse avec la mise en place d’une Data Factory moderne et scalable basée sur Microsoft Fabric . Le dispositif repose sur trois volets complémentaires : Program Management – pilotage global et coordination. Tech Enablers – construction des fondations techniques de la plateforme. Data Use Cases – livraison de cas d’usage métiers à fort impact (supply chain, finance, production, etc.). L’objectif est double : livrer rapidement 2 à 3 cas d’usage prioritaires et structurer une organisation agile et durable , intégrée à l’écosystème Azure. Rôle : Tech Lead Data En tant que référent technique , vous jouerez un rôle clé dans la conception, la structuration et la mise en œuvre de la Data Factory. Vous serez le garant de la cohérence technique et du bon niveau d’exécution des équipes. Missions principales : Piloter la mise en œuvre technique des cas d’usage et assurer leur intégration dans la plateforme cible. Encadrer et accompagner une équipe de 2 Data Engineers et 1 Analytical Engineer. Définir les standards d’architecture, bonnes pratiques et guidelines techniques. Garantir la qualité du code, des pipelines et des livrables. Participer activement aux décisions d’architecture et aux revues techniques. Contribuer à la mise en place d’une gouvernance agile structurée (PI Planning, rituels d’équipe). Environnement technique Cloud & Data Platform : Microsoft Fabric, Azure Traitement & Intégration : Spark, Data Factory, Synapse Langages : Python, SQL, Scala CI/CD & Infrastructure as Code : Git, Terraform Méthodologie : Agile SAFe / Scrum Profil recherché Expérience confirmée en tant que Tech Lead ou Architecte Data (5+ ans) , idéalement dans un environnement Microsoft. Maîtrise des architectures cloud Azure et des pipelines de données (ETL/ELT). Leadership technique, sens du collectif et goût du mentoring. Bonne compréhension des enjeux d’intégration et de gouvernance data. Anglais courant, environnement international. Atouts de la mission Projet stratégique et structurant : construction d’une Data Factory from scratch. Rôle clé dans la définition de l’architecture et des standards techniques. Environnement de travail moderne et exigeant, favorisant l’excellence technique.
Mission freelance
SAP BFC (Magnitude)
Télétravail : 2 jours par semaine Technologie : SAP BFC (Magnitude) Démarrage : ASAP Langue : Anglais courant Nous recherchons un Senior Support Expert SAP BFC (Magnitude) pour renforcer le support sur l’application de consolidation financière du groupe. Le rôle combine gestion d’application, administration technique et expertise en traitement des données pour garantir la fiabilité des processus de consolidation et faciliter les besoins en BI et reporting. Responsabilités principales : Gestion de l’application Magnitude : administration, mises à jour, correctifs, performance et disponibilité du système. Infrastructure et support technique : maintenance sur Windows Server, support des intégrations .NET, collaboration avec les équipes IT infrastructure. Data Warehouse et intégration : support du data warehouse SQL Server, développement ETL avec SSIS, intégration avec Snowflake (souhaitable). Collaboration et amélioration continue : travail avec le département Finance Groupe et équipes IT transverses, documentation et amélioration proactive des processus.
Mission freelance
DEVELOPPEUR SSIS CONFIRME
Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.
Mission freelance
Consultant BI
Nous recherchons actuellement un Consultant BI pour accompagner les équipes métiers et IT dans des projets de valorisation et de mise à disposition de la donnée, de la collecte jusqu’à la restitution sous forme de tableaux de bord et de rapports décisionnels Identifier et comprendre les besoins métiers, assurer le dialogue avec les utilisateurs pour traduire leurs attentes en solutions BI. Vérifier et garantir la bonne alimentation des données dans les systèmes décisionnels, en collaboration avec les équipes en charge des systèmes sources. Concevoir et modéliser les solutions adaptées, en tenant compte de l’existant, des normes de développement et des bonnes pratiques BI. Développer les flux ETL avec SSIS et Oracle Data Integration , modéliser les données et produire des restitutions avec SSRS et Power BI . Entamer une démarche d’optimisation et de rationalisation des indicateurs et rapports existants (nettoyage des doublons, suppression des obsolètes, harmonisation). Réaliser la mise en œuvre technique (développements, tests unitaires) et assister les métiers lors des phases de recette
Mission freelance
Expert technique Cognos h/f
Objectif global du projet : Améliorer l'offre infra COGNOS Compétences techniques obligatoires . Cognos - Expert - Impératif . iis - Confirmé - Important . devops - Confirmé - Souhaitable . linux - Junior - Important Description détaillée Gère et administre les systèmes de l’application Cognos de l'entreprise, en assure la cohérence, la qualité et la sécurité. Participe à la définition et à la mise en œuvre des environnement retenus par les projets : - Prend en charge le maintien en conditions opérationnelles des offres relatives aux technologies Cognos. - Traite les incidents et problèmes pouvant survenir sur les plates-formes. - Fiabilise et optimise le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance. - Contribue à la mise en œuvre des solutions de continuité et participe aux tests de back up. - Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2. - Réalise les déploiements des bases de données dans le cadre des projets techniques et métier. - Travaille en relation étroite et permanente avec les équipes de production et Infrastructures et Sécurité. - Contribue aux projets d'évolution des environnements lié aux offres Cognos. - Administrer les systèmes de gestion de données/référentiel de l'entreprise. - Exploite les environnements notamment en assurant leur intégrité, en réglant leurs paramètres et en mettant en œuvre les outils de surveillance - Effectue un support technique. - Effectue l'adaptation, l'administration et la maintenance des logiciels lié aux offres Cognos. - Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation. - Assure l'intégrité des offres existants en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incident ?) et logique (confidentialité, accès). - Met en œuvre les outils de surveillance. - Règle les paramètres des applications Cognos pour une utilisation optimale. - Suit et contrôle les évolutions de versions retenues par l'entreprise. - Définit les normes et standards d'utilisation et d'exploitation des offres Cognos. - Astreinte du domaine : Assure une astreinte sur le périmètre ETL / BI (windows/linux) Définition du profil Intervient sur des projets IT en tant qu'expert Middleware et Progiciels sur les produits et technologies recherchées, notamment dans le cadre de définition d'architectures. - Intervient en production pour des actions à forte valeur ajoutée technique dans le cadre d'incidents, problèmes et changements. - L'expertise améliore le fonctionnement du SI, dans le respect du niveau de qualité et de coût attendu et en assurant une bonne maîtrise des risques. - Intervient sur des études d'opportunité en lien avec son domaine d'expertise technologique (analyse détaillée) et apporte sa connaissance des produits dans l'élaboration des projets associés
Offre d'emploi
EXPERT MIDDLEWARE - COGNOS
EXPERT MIDDLEWARE - COGNOS Démarrage : ASAP Durée : 2 ans Localisation : Paris 13eme Télétravail : 50% Participe à la définition et à la mise en œuvre des environnement retenus par les projets : - Prend en charge le maintien en conditions opérationnelles des offres relatives aux technologies Cognos. - Traite les incidents et problèmes pouvant survenir sur les plates-formes. - Fiabilise et optimise le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance. - Contribue à la mise en œuvre des solutions de continuité et participe aux tests de back up. - Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2. - Réalise les déploiements des bases de données dans le cadre des projets techniques et métier. - Travaille en relation étroite et permanente avec les équipes de production et Infrastructures et Sécurité. - Contribue aux projets d'évolution des environnements lié aux offres Cognos. - Administrer les systèmes de gestion de données/référentiel de l'entreprise. - Exploite les environnements notamment en assurant leur intégrité, en réglant leurs paramètres et en mettant en œuvre les outils de surveillance - Effectue un support technique. - Effectue l'adaptation, l'administration et la maintenance des logiciels lié aux offres Cognos. - Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation. - Assure l'intégrité des offres existants en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incident ?) et logique (confidentialité, accès). - Met en œuvre les outils de surveillance. - Règle les paramètres des applications Cognos pour une utilisation optimale. - Suit et contrôle les évolutions de versions retenues par l'entreprise. - Définit les normes et standards d'utilisation et d'exploitation des offres Cognos. Astreinte du domaine : - Assure une astreinte sur le périmètre ETL / BI (windows/linux) Définition du profil Intervient sur des projets IT en tant qu'expert Middleware et Progiciels sur les produits et technologies recherchées, notamment dans le cadre de définition d'architectures. - Intervient en production pour des actions à forte valeur ajoutée technique dans le cadre d'incidents, problèmes et changements. - L'expertise améliore le fonctionnement du SI, dans le respect du niveau de qualité et de coût attendu et en assurant une bonne maîtrise des risques. - Intervient sur des études d'opportunité en lien avec son domaine d'expertise technologique (analyse détaillée) et apporte sa connaissance des produits dans l'élaboration des projets associés.
Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO
Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Mission freelance
Chef de projet Industrie
Contexte : Dans le cadre d’un programme de transformation digitale et d’internationalisation, nous recherchons un Chef de projet Industrie pour accompagner la roadmap industrielle, notamment sur les projets liés à l’innovation, la maintenance et la performance industrielle. Missions principales Piloter et coordonner les projets attribués. Recenser, exprimer et formaliser les besoins fonctionnels avec les utilisateurs. Rédiger les cahiers des charges (fonctionnels, techniques, sécurité, performances, data, architecture). Animer les groupes projets et coordonner les différents intervenants. Suivre les phases de tests, organiser les recettes et rédiger la documentation associée. Anticiper les risques, proposer des solutions et garantir les objectifs de coûts, délais, qualité. Animer les comités projet et de pilotage. Assurer le reporting régulier des projets. Préparer la bascule en mode support (TMA, support interne). Effectuer une veille technologique sur les solutions et applications liées aux domaines industriels. Projets à piloter Déploiement d’une GMAO sur un site international (Go live prévu prochainement), incluant : L’intégration avec l’ERP local. La maîtrise du processus achats (demande d’achat jusqu’à facturation). L’orchestration des flux d’échange (API, mapping, tests). Déploiements d’une solution digitale de management de la performance industrielle : Accompagnement des usines dans la préparation des prérequis techniques. Mise en place et suivi de la solution en lien avec les équipes locales et la direction industrielle. Profil recherché Formation & expérience : Bac +5 en école d’ingénieur, systèmes d’information ou management industriel. Minimum 3 ans d’expérience en gestion de projet SI industriel. Compétences techniques : Connaissance des technologies d’intégration (API, Webservices, ETL). Expérience en pilotage de projets transverses SI/industriels. Qualités personnelles : Rigueur, méthode et autonomie. Excellentes compétences rédactionnelles, pédagogiques et de communication. Très bon relationnel et esprit d’équipe. Dynamisme et capacité à travailler en environnement pluridisciplinaire. Langues & mobilité : Anglais professionnel courant impératif. Déplacements internationaux réguliers à prévoir.
Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)
Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.
Mission freelance
Ingénierie et Pilotage de Projets de Transformation Data (Assurance)
Ingénierie et Pilotage de Projets de Transformation Data (Assurance) Nous recherchons des consultants (Ingénieur Data, Analyste Fonctionnel Data ou Directeur de Programme Data) pour le compte d’un de nos clients assurance dans le cadre d’un projet de transformation et de modernisation de son écosystème Data. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un programme stratégique visant à moderniser son paysage applicatif analytique et à optimiser son infrastructure Data. Ce programme inclut l'intégration de données au sein de son datalakehouse et la refonte d'applications orientées client. Dans ce cadre, nous recherchons plusieurs profils Experts et Seniors pour garantir le succès de cette transformation Data. Rôles et Responsabilités Selon votre expertise, vous interviendrez sur l'une des missions suivantes : Pilotage de Programme Data : Diriger la modernisation d'applications analytiques ou assurer la gestion de projet Agile/Product Management pour des applications client. Ingénierie Data & Développement : Assurer la conception, la maintenance et l'industrialisation des applications web et applications orientées client, y compris le développement spécifique. Analyse Fonctionnelle Data : Prendre en charge l'analyse fonctionnelle des besoins en intégration de données vers le datalakehouse ou pour la maintenance d'applications web. Compétences Clés & Techniques Une expertise de niveau Expert ou Senior est exigée sur les points suivants : Expertise Métier : Solide connaissance du secteur de l'Assurance (ou Banque/Finance) et des problématiques de données associées. Compétences Data : Maîtrise des concepts de Data Integration, Data Lakehouse, et des outils ETL (Informatica IDQ, Data Stage, etc.). Technologies : Cloud & DevOps : AWS Cloud (EKS, ArgoCD), Azure, GIT. Langages & Frameworks : JAVA (8, 11, 17), Springboot, NodeJS, ANGULAR, API, REST, SOAP. Bases de Données : DB2, Oracle, Mainframe, NDBX. Outils Complémentaires : IBM WAS, SAS, Microstrategy, OneBI, Power BI, Cobol, JCL, PL/SQL (selon le poste visé). Anglais : Capacité à travailler dans un environnement international, la maîtrise de l'anglais technique étant un prérequis. Détails de la Mission Localisation : Paris (Île-de-France). Date de Démarrage : ASAP. Durée : 12 mois. Taux Journalier Cible (TJM) : Les TJM cibles varient en fonction du rôle et de l'expertise (e.g., Program Director <850€, Data Engineer <950€, Functional Analyst <450€, etc.).
Mission freelance
Data Engineer AWS
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).
Mission freelance
Consultant interne & intégrateur Sage 100 V10 /// Non maitrise de SAGE 100 s'abstenir svp
Rattaché(e) à la Direction Financière et en lien direct avec les équipes métiers (ADV, logistique, comptabilité, facturation), vous aurez pour mission de piloter et d'optimiser l'utilisation de SAGE 100 V10 au sein de l'entreprise. Missions et Activités du Poste Pilotage fonctionnel et technique de SAGE 100 V10 : paramétrage, administration, développements, support utilisateurs Structuration de la data et sécurisation de la qualité de la data Interfaçage entre la fonction Finance et les Opérations et le Commerce Votre rôle couvre : Recueil et analyse des besoins fonctionnels des différents départements (ADV, gestion des stocks, facturation) Paramétrage, développement et intégration de nouvelles fonctionnalités dans SAGE V10 afin de répondre aux besoins métiers Gestion des interfaces et interconnexions entre SAGE et les autres outils de l'écosystème (CRM, BI Klik, outils logistiques, comptabilité, etc.) Suivi des évolutions et des mises à jour de la solution (versions, correctifs, nouvelles fonctionnalités) Support de niveau 2 auprès des utilisateurs internes : assistance, résolution d'incidents, accompagnement sur les bonnes pratiques Formation et accompagnement des utilisateurs dans l'adoption des nouvelles fonctionnalités Documentation fonctionnelle et technique des paramétrages, évolutions et procédures mises en place Interface avec les différents prestataires informatiques : hébergeur, prestataire intégrateur Sage, les éditeurs des autres solutions de l’écosystème Profil 8-10 ans expérience minimum Expériences en PMI / PME (ou filiale de groupe de taille moyenne) Bac +3 minimum (informatique de gestion, systèmes d'information, finance ou équivalent) Maîtrise de l'anglais professionnel et un plus si maîtrise de l'espagnol Compétences Requises Maitrise SAGE 100 V10 en tant que consultant, intégrateur ou administrateur, en particulier modules ADV, stock, facturation. Il faut vraiment maitriser l’outil, pour pouvoir mettre les mains dans le moteur (SQL, scripts, workflow, états personnalisés, mise en page de documents, etc.) et faire tous les ajustements / paramètrages nécessaires, et piloter d’éventuels dev. Très bonne connaissance des environnements SQL et des outils d'intégration (ETL, API) Pédagogie et aisance relationnelle pour accompagner les équipes métiers Bonne connaissance des processus ADV, gestion de stock, facturation Bonne compréhension des logiques de contrôle de gestion/Comptabilité / analyse économique (rattaché à la finance et beaucoup de besoins sont directement pilotés par la finance puisque autour de la data) Capacité d'analyse fonctionnelle et technique Aisance dans la gestion de projets SI / IT (recueil besoins, cadrage, suivi, recette, déploiement) Rigueur, autonomie et sens du service utilisateur
Mission freelance
BUSINESS ANALYST DATA MART MUREX
• Participer à l'évolution et à la gestion du cycle de vie du produit (rituels méthodes Agile) • Comprendre et spécifier les besoins et processus métiers pour contribuer à la vision produit jusqu'à la génération des CRE vers le SI comptabilité centrale • Réaliser des prestations d'étude, de conception (spécifications générales et détaillées), de réalisation et de recette des changements • Fournir un support analytique, opérationnel et stratégique • Faciliter la construction et le partage de connaissances en interne en contribuant à la base de connaissances SIGMA • Participer à l'homologation et à la validation des patchs de l'éditeur • Aligner les données Datamart avec les besoins métiers Front Office to Back Office to Comptabilité en collaboration avec les métiers et les équipes SI fonctionnelles • Extraire et améliorer les données de la base financière MX.3 vers le Datamart • Réaliser des prestations d'étude, de conception (spécifications générales et détaillées), de réalisation et de recette des changements • Réaliser les spécifications liées à l'ETL et les recetter • Assurer l'intégrité et la qualité des données • Fournir un support analytique et opérationnel • Gérer le backlog et piloter les travaux de l'équipe en appui au lead technique du client • Contribuer à l'activité de release et de post production • Faciliter la construction et le partage de connaissances en interne en contribuant à la base de connaissances SIGMA • Assurer la coordination des différentes recettes avec les applications abonnées Pour chacune de ces activités, le prestataire produira les livrables attendus, validés dans le cadre du processus de gestion de la plateforme SIGMA. Le prestataire sera plus particulièrement en charge d'assister l'équipe sur les aspects suivants : • Construire et gérer le backlog Datamart • Animer la relation avec les applications abonnées à SIGMA • Contribuer aux projets ayant des adhérences avec le Datamart (tels que le projet de refonte du SI clients externes) Les travaux du prestataire seront réalisés en coopération avec les équipes de la filière SI et métiers, ainsi que l'éditeurMurex. Une bonne coordination constituera un élément essentiel de réussite du projet dans un contexte multi-intervenants.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.