Trouvez votre prochaine offre d’emploi ou de mission freelance Analyse
Votre recherche renvoie 90 résultats.
Mission freelance
Consultant MOA SI – Asset Management (H/F)
Publiée le
Analyse
MOA
Recette
12 mois
400-500 €
Paris, France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Consultant MOA SI – Asset Management pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Dans un contexte d’accroissement des activités SI, vous rejoindrez la ligne métier Asset Management au sein de la DSI. Votre mission consistera à accompagner les équipes métiers sur des projets d’évolution, de transformation, d’intégration et d’optimisation des systèmes d’information liés à la gestion d’actifs. Sous la responsabilité du PM Asset Management, et après une montée en contexte sur les outils existants (Jump / Soliam), vous interviendrez sur l’ensemble du cycle fonctionnel. 🛠️ Vos missions - Accompagner les métiers sur les évolutions et projets de transformation autour des progiciels JUMP et/ou Soliam - Contribuer à la rédaction du cahier de recette fonctionnelle avec les équipes métiers et techniques - Dérouler les scénarios de tests, documenter les résultats et partager l’avancement des campagnes de recette - Garantir la qualité et la conformité des livrables fonctionnels et techniques - Participer à la conduite du changement : communication, support utilisateurs, supports de formation, préparation du déploiement - Collaborer avec les équipes DSI pour gérer les prérequis techniques, les environnements de recette, le déploiement et le support post-livraison - Assurer le suivi opérationnel et contractuel des fournisseurs
Offre d'emploi
Expert Data analytics senior
Publiée le
Pilotage
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Contexte et détails de la mission Définition du besoin Nous cherchons un expert data analytics sénior pour concevoir, maintenir, déployer et recetter la collecte des données de navigation des utilisateurs sur web, app et tv, pour fournir les indicateurs nécessaires au pilotage et la bonne compréhension des usages et la consommation des offres numériques. Cella consistera également à assurer la bonne communication des informations au sein de la cellule, piloter des projets opérationnels et à accompagner les experts dans la gestion de leurs tâches quotidiennes en collaboration étroite avec le responsable analytics. Il a également la charge d’opérer l’outil de monitoring automatisé et de vérifier la pertinence des alertes afin de s’assurer que la collecte s’effectue correctement (en respect avec le plan de marquage) sur ses offres et ses environnements MISSIONS: La prestation consistera à participer à : - Pilotage et gestion de projet : - Cadrage et accompagnement des équipes dans l’implémentation des outils data dans l’univers du client : identification des pré-requis, risques, parties prenantes, facteurs clés de succès du projet et des indicateurs de performance, - Pilotage des projets de fond (déploiement et suivi de l’outil de monitoring automatisé, enrichissement du tracking site centric) en adhérence avec le marquage des environnements. - Suivi des roadmaps projets et les plans de déploiement - Coordination et communication des actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD - Partage des alertes tracking (quali/quanti) et projet aux différentes parties prenantes, - L'avancée des projets et de la qualité des livrables, - La création et l’évolution de la documentation projet en collaboration avec l’équipe - Le suivi et la réalisation des recettes en collaboration avec l’équipe - La diffusion des bonnes pratiques et process de la cellule EAD (Expert Analytics) - Reporting et suivi : - Suivre et communiquer les performances des projets et des outils, - Monitorer les outils - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets Le candidat devra apporter dans sa réponse des propositions pour suivre et améliorer la gestion et les performances du projet et le monitoring des outils.
Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau
Publiée le
Data analysis
Dataiku
Product management
2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Mission freelance
Product Owner SAFe – Domaine recherche textuelle
Publiée le
Analyse financière
Monitoring
Performance testing
3 ans
500-650 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Product Owner – expertise recherche textuelle & optimisation des règles d’identification. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word (avec si possible pour chaque expérience le dimensionnement de l'équipe, et l'impact de vos travaux) Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/PO/4977 dans l’objet de votre message La prestation porte sur un produit interne dédié à l’identification d’œuvres à partir des données d’exploitation issues de plateformes en ligne. Le rapprochement repose sur des identifiants internationaux et du matching texte à texte , avec un objectif permanent d’augmentation du taux d’identification et de réduction de la marge d’erreur. Cette amélioration continue peut impliquer des ajustements de règles et un enrichissement des référentiels. Le Product Owner interviendra sur trois volets : 1) Pilotage de la performance Monitoring quotidien de la performance des identifications Suivi des coûts de l’application Gestion de l’obsolescence 2) Développement du produit Portage de la vision produit auprès des équipes métier et IT Co-construction avec la Dev Team et les experts métier des évolutions de règles ou transformations technologiques Pilotage de la roadmap dans un cadre SAFe Contributions aux améliorations continues visant à maximiser la valeur délivrée 3) Accélération du time-to-market Amélioration de la modularité du produit pour gérer la diversité des déclarations Optimisation des dispositifs de tests : délai, méthode, mesure de l’incrément
Offre d'emploi
Quant Analyst - Stratégie Produit & Développement Business (F/H)
Publiée le
Analyse
Gestion de projet
1 an
55k-65k €
530-600 €
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du déploiement d’une solution innovante d’allocation de portefeuille multi-facteurs développée conjointement par une société de gestion d’actifs et une fintech, nous recherchons un profil pouvant les accompagner sur la phase d’ industrialisation et de mise sur le marché de l’offre. Cette solution combine expertise quantitative avancée et personnalisation à grande échelle , avec une ambition de positionnement comme référence de marché . Objectifs de la mission Vous interviendrez sur deux volets : 🔹 1. Business Development & Go-to-Market Objectif : maximiser la création de valeur et structurer le positionnement stratégique de l’offre. Analyse des leviers de performance (revenus, marges, coûts, mix produit) Identification et modélisation des axes de croissance Construction du business case et modélisation de la contribution P&L consolidée Conception du modèle économique et du pricing Analyse du partage de valeur entre entités Élaboration de la proposition de valeur et du positionnement marché Contribution à la stratégie commerciale : pitchbooks, argumentaires, communications produit Préparation des livrables de gouvernance (comités de pilotage, instances exécutives) Recommandations sur les processus, outils et gouvernance de l’offre 2. Stratégie Produit – Moteur Quantitatif Objectif : formaliser la documentation du moteur quantitatif et piloter son évolution stratégique. Cartographie du moteur quantitatif (inputs, outputs, contraintes, fonctionnement) Formalisation des livrables produit techniques et stratégiques Évaluation des fonctionnalités existantes et priorisation des évolutions Définition du positionnement du moteur quantitatif au sein de l’offre globale Identification des facteurs différenciants et de la valeur ajoutée commerciale Construction de supports de formation / onboarding produit Recommandations pour renforcer la collaboration entre les équipes Quant / Produit / Business
Offre premium
Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)
Publiée le
AWS Cloud
Data analysis
DevOps
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Offre d'emploi
Responsable Programme
Publiée le
Analyse
Product management
1 an
40k-45k €
280-600 €
Paris, France
Télétravail partiel
Objectifs Renforcement du cadre procédural Groupe relatif à la fraude, en précisant les rôles et responsabilités des parties prenantes du Groupe en matière de fraude, ainsi que les exigences minimales à mettre en œuvre dans les cadres anti-fraude locaux des entités. Amélioration du cadre procédural Groupe relatif à la gestion des cas de fraude, qu'ils soient internes ou externes. Renforcement des directives du Groupe concernant la déclaration des fraudes dans EWIB et des incidents agrégés, afin d'assurer une meilleure qualification de ces événements.
Mission freelance
Process & Data Analyst
Publiée le
Data analysis
Gouvernance
Master Data Management (MDM)
1 an
500-570 €
Île-de-France, France
Télétravail partiel
Nous recherchons actuellement un(e) Process & Data Analyst pour accompagner les projets et assurer le lien entre les processus métier et les données nécessaires de notre client grand compte dans la logistique. Vous devrez : - Animer les groupes de travail pour créer les Service Blueprints, identifier les Data Use Cases et comprendre les dépendances fonctionnelles, - Réaliser les gap analyses afin d'identifier les systèmes IT impactés et préparer la création des fonctionnalités nécessaires, - Garantir la production des Data Use Cases basés sur les processus métier et les intégrer dans l'outil de Data Gouvernance du groupe, - Définir, avec les Data Stewards, les Business Rules et le cycle de vie des données transactionnelles et référentielles, - Accompagner les Data Stewards dans l'implémentation des données référentielles dans le Master Data Management, - Soutenir les Business Units dans l'implémentation des flux de données transactionnelles et l'utilisation des données référentielles, - Participer à l'enrichissement du Data Catalog via des définitions claires, - Contribuer aux tests d'intégration, systèmes et UAT, ainsi qu'à la gestion des migrations, stratégies de cut-over et chargements de données, - Analyser les données existantes dans les applications pour garantir la cohérence avec les solutions proposées et identifier des améliorations proactives de qualité de données, Vous travaillerez au sein d'une équipe d'experts Data Gouvernance et MDM, et serez accompagné(e) par nos Data Stewards pour mettre en place les processus conformément aux exigences des data owners des équipes métier.
Offre d'emploi
IT Quant (Trading Risk office)
Publiée le
Analyse financière
Finance
Python
Paris, France
Télétravail partiel
Equipe Trading Risk office – Projet côté Global Market sur la revue du Framework des réserves Intervienne sur le programme de remédiation au sein de la banque >> APOLLO Programme large qui touche à plusieurs axes mais chez eux ils ont besoin d’une personne quantitative dans le cadre des réserves modèles. But d’APOLO : - Faire du calcul de réserve - A chaque transaction il faut définir une réserve - D’où la 20ne de sous projets dans APOLLO (qui correspond à un certain type de calcul de modèles) et dans cette équipe, ils ont environs 80 modèles de réserves Dans ces 80 réserves, beaucoup ne sont pas documentés ou ont des méthodos qui sont relativement obsolètes car date d’il y a longtemps donc travail de rationalisation, de revue sur les Framework des réserves modèles En résumé : Mission de revue de modèles pour remédier à l’ensemble des réserves modèles 1) Supprimer les réserves obsolètes (certaines sont anciennes, d’autres pas documentés) 2) Revue de calcul de réserve 3) Documenter les réserves dans les frameworks pour répondre aux demandes du régulateur
Offre d'emploi
Business Analyst
Publiée le
Analyse
SQL
Test fonctionnel
1 an
40k-55k €
350-500 €
Montpellier, Occitanie
Télétravail partiel
Nous recherchons un Business Analyst pour intervenir sur des parcours digitaux à forte visibilité dans le secteur bancaire. Vous serez responsable de la valeur fonctionnelle du produit et incarnerez le “quoi”, en collaboration avec les parties prenantes métiers et les équipes IT. Vous participerez à la préparation, l’animation et la formalisation des besoins métier à travers des ateliers, story mappings et analyses de processus. Vous rédigerez et raffinerez les récits utilisateurs, accompagnerez le Product Owner dans le cadrage, et contribuerez activement à la priorisation du backlog. Vous assurerez également un rôle de support fonctionnel : diagnostic d'incidents, réponses aux demandes, suivi des maintenances, mise en place des paramétrages, rédaction de la documentation et gestion du périmètre applicatif. La mission comprend également la définition et la réalisation des tests fonctionnels, TNR, validations transverses et homologations, afin de garantir la cohérence et la qualité globale du produit. Le poste nécessite une grande capacité de coordination, une communication claire et une forte aisance dans les environnements complexes et agiles. Compétences techniques Requêtes SQL Tests fonctionnels / TNR Rédaction et affinage de User Stories Analyse de besoins / ateliers / story mapping Paramétrage d’applications Compréhension des processus métier bancaires (souhaité)
Offre d'emploi
Data Analyst orienté Cybersécurité & Reporting (H/F)
Publiée le
Cybersécurité
Data analysis
IAM
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Nous recrutons : Data Analyst orienté Cybersécurité & Reporting Nous recherchons un profil DATA et REPORTING spécialisé dans l’univers Cyber et IAM pour renforcer nos équipes. Missions principales : Production, suivi et automatisation des KPI/KRI Cyber & IAM Industrialisation de dashboards (Power BI / SQL / Python) Contrôles de qualité de données et fiabilisation des référentiels Définition des indicateurs et challenge des besoins métiers Collaboration transverse entre les équipes Data, Cyber et Risques Analyse de données : habilitations, logs, référentiels IAM Profil recherché : Un Data Analyst spécialisé en cybersécurité, capable de comprendre les enjeux Cyber & IAM sans être un expert applicatif IAM. Rigueur, sens de l’analyse et capacité à manipuler la donnée à grande échelle sont essentiels.
Mission freelance
Data Engineer
Publiée le
Data analysis
Dataiku
ELK
3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Offre d'emploi
Data Engineer (spécialisation Snowflake)
Publiée le
Agile Scrum
Azure
Data analysis
12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Mission freelance
Chef de Projet Technique DATA
Publiée le
BI
Coordination
Data analysis
6 mois
Paris, France
Télétravail partiel
Dans le cadre de l’évolution de ses systèmes décisionnels, nous recherchons un Chef de Projet Technique confirmé. Vous rejoindrez une équipe Data engagée dans l’optimisation des flux décisionnels et la maîtrise des impacts transverses. Votre rôle Vous structurez et coordonnez les analyses d’impacts, pilotez les adaptations nécessaires et sécurisez l’avancement opérationnel. Vos responsabilités • Centraliser et analyser les impacts sur les flux, référentiels et composants Data. • Piloter les ateliers techniques et les échanges avec les équipes Data, IT, et Métiers. • Construire une vision consolidée des risques, dépendances et actions à engager. • Maintenir le planning et coordonner les contributeurs internes. • Préparer les livrables de reporting et les comités projet. • Garantir la qualité des analyses produites et la fiabilité des éléments de décision.
Mission freelance
Data analyst - maitrise SQL requise - secteur Assurance - Niort
Publiée le
Data analysis
6 mois
560-600 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un(e) freelance Data Analyst disposant d’une solide expérience en assistance à maîtrise d’ouvrage, pour accompagner notre client du secteur de l’assurance dans ses activités de pilotage et d’analyse de données. Missions principales : • Analyser et comprendre les besoins métiers liés au domaine de l’assurance et plus spécifiquement à l’indemnisation • Explorer les bases de données existantes et concevoir / adapter des requêtes sous SAS V9 • Être le point de contact privilégié pour le suivi du RUN et la gestion quotidienne des indicateurs • Participer à la gestion de projets techniques et à la production de reporting Compétences : • Solide maîtrise du SQL • Bonnes capacités de communication écrite et orale • Aptitude à formaliser les besoins métiers • Connaissance opérationnelle de SAS V9 (un test SAS sera réalisé) Optionnelles : • Connaissance du VBA Profil recherché • Expérience significative dans le domaine de l’actuariat ou de l’assurance (indispensable) • Goût pour l’analyse, la précision et le travail collaboratif
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
90 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois