Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 306 résultats.
Freelance

Mission freelance
Data Analyst / Data Quality

Publiée le
Azure
Data quality
SQL

24 mois
Paris, France
Télétravail partiel
Profils et Métiers : Métiers : Data Management Fonctions : Data Analyst Spécialités technologiques : Reporting MDM (Master Data Management) Cartographie des données Data quality (qualité des données) Type de facturation : Assistance Technique (taux journalier) Compétences techniques : Technologies et outils : Azure (4 ans), SQL (4 ans), Power BI, GCP Méthodes / Normes : KPI Soft skills : Rigueur Secteur d'activité : Énergie Description et livrables de la prestation : Le prestataire intervient dans le cadre du déploiement d’un référentiel centralisé des identités pour garantir la qualité, l’intégrité et la fiabilité des données issues de systèmes variés, support aux processus IAM/IGA. Il couvre : Données RH et organisationnelles, interfaces, flux et pipelines d’ingestion Interactions avec les équipes Data, RH, Sécurité et Métiers Les prestations incluent : Collecte et intégration : cartographie, amélioration des flux, contrôle de conformité, transformation et enrichissement Analyse de la qualité : détection anomalies, rapports, causes racines, actions correctives Mise en qualité et gouvernance : règles de qualité, golden records, dédoublonnage, remédiations Reporting et indicateurs : tableaux de bord KPI, suivi de la qualité, rapports consolidés Contribution au projet IGA : alignement des données, tests, mise en production Livrables attendus : Documentation systèmes sources et flux Catalogue de données et dictionnaire des attributs Règles de qualité et d’unicité Rapports d’analyse (initial et périodiques) Données nettoyées, normalisées et documentées Tableaux de bord Data Quality (Power BI) Documentation technique et fonctionnelle Rapports d’avancement et d’activité
Freelance

Mission freelance
Développeur Service Cloud

Publiée le
Big Data
Data management
Machine Learning

1 an
Lille, Hauts-de-France
Télétravail partiel
L’objectif de la mission est d’effecteur la maintenance corrective et évolutive de l'application Salesforce Service Cloud au sein du SI de notre client. - Gestion des incidents de production - Analyse et correction de problème​s - Développement de correctifs et/ou d'évolutions - Rédaction de spécifications fonctionnelles et techniques - Conception de solution technique Expertises spécifiques : Salesforce Service Cloud Maitrise de l’anglais​ Compétences rédactionnelles Maitrise du SQL​ Bon niveau de communication (orale et écrite)​ Fonctionnement mode proiet (Cycle V et agile : scrum)​ Capacité à gérer des sujets divers en parallèle sur des problématiques fonctionnelles différentes liées aux métiers de la banque.​ Bonne capacité de compréhension des besoins fonctionnels, d’écoute et de communication, bon esprit d’analyse​
Freelance

Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps

Publiée le
Architecture
Azure
Cloud

12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
Freelance
CDI

Offre d'emploi
Business Analyst Data

Publiée le
Business Analyst
SQL

6 mois
35k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Dans le cadre de ses projets Data, notre client cherche à renforcer ses équipes en intégrant 2 Business Analyst Data qui seront en charge de l'analyse et l'étude des besoins avec les métiers. Le rôle est stratégique puisqu'il faudra accompagner plusieurs entités du groupe dans les décisions fonctionnelles. Missions principales : - Analyse de besoins avec les métiers - Rédaction d’EDB (études de besoins) - Conduite d’ateliers de décisions fonctionnelles avec les autres entités du groupe. - Animation de meetings - Manipulation et requêtes SQL pour construction jeux de données
Freelance
CDI

Offre d'emploi
Data Analyst Manager – Qualité des données

Publiée le
Data cleaning
Data quality
SQL

2 ans
40k-59k €
460-550 €
Île-de-France, France
Télétravail partiel
📌 Contexte Dans le cadre d’un programme structurant de transformation digitale , nous recherchons un Data Analyst Manager pour piloter la qualité des données tout au long des phases de conception, migration et mise en production des systèmes cibles. 🎯 Missions principales 1. Définition et structuration de la qualité des données Identifier et anticiper les critères de qualité au niveau des sources Définir les standards et règles de qualité par objet de données Rédiger les spécifications des scripts de contrôle qualité Garantir la cohérence des critères avec les domaines de données 2. Data profiling, remédiation et contrôle qualité Mettre en œuvre les actions de data remédiation avant, pendant et après migration Déployer et exploiter des outils de data profiling Réaliser les tests de qualité sur les données corrigées Suivre et maintenir les KPIs de qualité des données 3. Coordination et collaboration transverse Travailler avec les équipes métiers pour la définition des règles de qualité Collaborer avec les équipes techniques pour l’implémentation Assurer la passation et le suivi auprès des data managers Contribuer au mapping des objets et attributs source → cible
Freelance

Mission freelance
développeur Cloud & IA

Publiée le
Azure
Azure Data Factory
Azure DevOps Services

6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Freelance

Mission freelance
Data Architect / Engineer Senior – Écosystème IoT & Sport

Publiée le
Architecture
Big Data

3 mois
400-550 €
Lille, Hauts-de-France
ANGLAIS COURANT OBLIGATOIRE Acteur majeur du secteur du sport et de l'innovation depuis plus de 40 ans, nous réinventons constamment le marché grâce à des produits accessibles et technologiques. Notre mission est de rendre les bienfaits du sport accessibles au plus grand nombre via un écosystème numérique complet : coaching virtuel, expériences connectées en magasin, services de location et produits intelligents. Vous rejoindrez une équipe technique de plus de 2 500 experts (ingénieurs, product managers, data experts) répartis entre Paris et Lille, dédiée à répondre aux besoins de 500 millions d'utilisateurs. Contexte de la mission Au sein de la division Connected Sports Platform (CSP) , nous accélérons notre transformation digitale via l'implémentation de solutions IoT. L'équipe Data est au cœur de ces enjeux : elle développe les briques nécessaires à l'ingestion, au stockage et à l'exposition des données échangées entre le cloud, les appareils connectés (vélos électriques, machines de fitness, etc.) et les applications mobiles. Objectifs : Optimiser l'exploitation des données pour la BI, la maintenance prédictive, la détection d'incidents et le design intelligent. Vos responsabilités En tant que Data Architect / Engineer (Freelance) , vous accompagnerez les projets dans leurs choix architecturaux et techniques avec les priorités suivantes : Architecture : Concevoir l'architecture d'ingestion et de stockage des données IoT (directes ou via mobile). Pipeline : Construire des pipelines de données structurées et non structurées scalables. Stratégie Tech : Définir la stratégie des stacks techniques et garantir le CI/CD. Optimisation : Maintenir et refondre les datasets existants pour de nouveaux cas d'usage. Qualité & Gouvernance : Assurer la fiabilité, l'accessibilité et la confidentialité des données (Data Privacy). Standardisation : Définir les standards d'architecture et assurer l'alignement entre la vision technique et les besoins utilisateurs. Profil recherché Expérience : +5 ans en tant que Senior Data Engineer dans un environnement microservices avec échanges de données en temps réel. Expertise Technique : Maîtrise de la modélisation de données, des systèmes distribués et de l'optimisation de requêtes. Stack : Maîtrise de Python (Scala ou Java sont un plus) et des technologies Kafka et Spark . Méthodologie : Culture Agile, GIT, Code Review et Peer Programming. Soft Skills : Excellente capacité de synthèse, communication fluide et esprit d'équipe. Langues : Français courant et anglais professionnel. Le "plus" pour cette mission : Expérience sur l'environnement AWS Big Data (Lambda, Redshift, S3). Expérience confirmée sur des produits IoT ou des appareils connectés. Modalités pratiques Durée : Mission longue durée. Lieu : Paris ou Lille (déplacements ponctuels à prévoir sur Lille si basé à Paris). Télétravail : Rythme hybride (environ 2 jours de télétravail par semaine). Matériel : Choix de l'environnement de travail (Mac, Windows). Compétences clés attendues (Récapitulatif) CompétenceNiveau attenduKafka / Spark Avancé AWS (Lambda, Redshift, S3) Confirmé Data Modeling Confirmé Écosystème IoT Confirmé Data Governance Confirmé
Offre premium
Freelance

Mission freelance
Coordinateur technique Infogérance Cloud Privé / AWS Nantes

Publiée le
AWS Cloud
Azure
VMware

3 mois
630-750 €
Nantes, Pays de la Loire
Télétravail partiel
Missions principales : De challenger/vérifier les services des fournisseurs cloud privé/public sur les aspects techniques Appréhender les services proposés par les fournisseurs cloud privé/public, évaluer leurs impacts sur les services IT de l'entreprise pour améliorer la qualité du service délivrée à nos clients Accompagner les utilisateurs IT dans l’usage des catalogues de services des fournisseurs D’assurer le rôle de backup du service manager Coordonner les activités du fournisseur avec les différents services de l’entreprise pour les demandes hors catalogue de services Suivre, établir des reporting et donner de la visibilité sur les consommations de nos Cloud Public (AWS et Azure) S’assurer que les demandes de contrôle et reporting (niveau d’obsolescence, la conformité, la sécurité, les audits, …) sur les infrastructures cloud Privé/public soient bien réalisées
Freelance

Mission freelance
DevOps & Oracle Engineer

Publiée le
DevOps
Oracle

12 mois
Niort, Nouvelle-Aquitaine
Télétravail partiel
DevOps & Oracle Engineer, freelance, 12 mois de contrat initial, Niort, 3 jours de télé travail par semaine Attractive opportunité pour un(e) Consultant(e) DevOps & Oracle de rejoindre notre client final basé à Niort et qui accompagne quotidiennement des millions de particuliers et de professionnels. Contexte : Dans le cadre du maintien en conditions opérationnelles (MCO) et de l’amélioration continue de son système d’information, le Service Delivery du client souhaite renforcer son équipe Production / Exploitation par une prestation d'ingénierie/ Ops. La prestation consistera à une intervention en support du centre de service (N1/N2) afin d’assurer la prise en charge du niveau 3, la résolution des incidents complexes, et la fiabilisation des environnements de production. Objectifs de la prestation : Au sein de l’équipe opérations du service delivery (8 personnes + 1 manager) et plus précisément d’un pôle de gestion des incidents/demandes/problèmes de 6 personnes (4 profils métiers + 2 profils ops), nous avons besoin d’une prestation ops supplémentaire pour : · Assurer le support niveau 3 sur le périmètre production · Garantir la résolution et la prévention des incidents critiques; · Participer à la fiabilisation, à l’automatisation et à l’industrialisation des process · Accompagner le centre de service Exploitation (N1/N2) dans la montée en compétence et la formalisation des procédures · Assurer un rôle d’expert DBA Oracle, capable de traiter en autonomie les incidents et demandes de services autour des bases de données (compétence manquante au sein de l’équipe) · Gestion opérationnelle : o Prendre en charge les incidents techniques de niveau 3 et coordonner leur résolution o Effectuer les analyses post-incidents et proposer des actions correctives et préventives o Suivre et piloter les actions de fiabilisation et d’amélioration continue o Gérer les changements en production selon les bonnes pratiques ITIL · Mettre à jour la documentation technique et les procédures d’exploitation · Amélioration continue / Automatisation : o Identifier les points de fragilité du SI et proposer des quick win o Industrialiser les opérations récurrentes à fort ROI o Contribuer à l’amélioration continue des chaînes d’exploitation et du monitoring · Compétences DBA / Oracle o Diagnostiquer et résoudre les incidents N1/N2 sur les bases Oracle (performances, verrous, espace, corruption) o Effectuer des analyses de performance à partir de rapports awr et de la supervision oem o Proposer des scripts SQL/PL-SQL permettant de fiabiliser/optimiser le SI o Diffuser les compétences / bonnes pratiques au sein du service delivery mais également auprès des équipes de développement Profil recherché : o Compétences techniques : Expérience confirmée en environnement de production o Solide maîtrise du support niveau 3 et des processus ITIL o Expertise DBA Oracle (administration, optimisation, dépannage) o Connaissances techniques : Linux, scripts Shell, supervision (Dynatrace, OEM, Grafana…)
Freelance

Mission freelance
Data Engineer Hadoop – Secteur Assurance

Publiée le
Big Data
Hadoop
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Freelance

Mission freelance
Ingénieur Test et Validation Cloud / Data maitrisant Snowflake (H/F)

Publiée le
Snowflake

12 mois
380-420 €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur(e) Test et Validation Cloud & Data pour intervenir chez un de nos clients dans le secteur industriel sur La Ciotat Contexte : Pour renforcer l’équipe, nous recherchons un(e) Ingénieur(e) Test et Validation Cloud & Data capable de sécuriser les fonctionnalités et les flux de données, de la conception jusqu’à la production. Vos principales missions : - Vous concevez, planifiez et exécutez les campagnes de validation et de vérification tout au long des itérations. - Vous développez et faites évoluer des tests automatisés adaptés à des volumes de données importants. - Vous mettez en place des scénarios de test pour vérifier la qualité, la cohérence et l’intégrité des données, y compris en production. - Vous analysez les résultats, identifiez les anomalies, les qualifiez et les remontez de manière structurée. - Vous travaillez en étroite collaboration avec les équipes développement, produit et exploitation pour optimiser la couverture de tests. - Vous utilisez des outils d’investigation et de monitoring pour comprendre le comportement du système en conditions réelles. ⚙ Environnement technique du projet : - Maitrise indispensable de Snowflake - Tests unitaires et fonctionnels avec Mocha et Cypress - Bonnes connaissances Cloud AWS, voire Azure ou GCP
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Freelance

Mission freelance
EXPERT IAM / CLOUD / DATA

Publiée le
Cloud
Cryptographie
IAM

6 mois
490-700 €
Paris, France
🎯 Missions principales : - Capacité à travailler sur les orientations et directions stratégiques du programme cyber, à comprendre les enjeux et la structure du programme, et à proposer des améliorations continues - Rédaction et/ou révision de thématiques opérationnelles du Group Cyber Framework (exigences cyber sur 25 thématiques applicables à toutes les entités du groupe) - Identification des risques cyber, les objectifs et les preuves associées aux exigences cyber sécurité (les preuves à collecter parles entités afin de vérifier qu'elles ont bien implémentées ces exigences - Expertise sur les thématiques typées "Cryptography" "network security" "Data Security" , "AM" and « secure configuration » - Animation des workshops avec les experts de ces sujets cyber, les équipes de productions et les entités afin d'identifier la faisabilité des exigences et les aspects opérationnels associés - Animation des espaces de partage des livrables et des forums mis en place à cet effet.
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance
CDI

Offre d'emploi
Responsable Data

Publiée le
Big Data
Data governance

2 ans
66k-74k €
400-750 €
92200, Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Responsable Opérationnel·le Data Governance — Organisation Nationale du Secteur Culturel & Numérique Objectif de la mission Piloter et structurer la gouvernance des données au sein d’une organisation disposant d’un patrimoine data riche et sensible. Garantir la qualité, la cohérence et la conformité des référentiels et des flux utilisés par les métiers et la DSI. 🛠️ Missions principales1. Animation et structuration de la Gouvernance des Données Assurer le rôle de référent opérationnel sur l’ensemble des sujets Data Governance. Préparer et animer les instances liées à la gouvernance des données et à la qualité. Contribuer à la définition, au suivi et à l’actualisation de la feuille de route data. Harmoniser les pratiques et garantir la cohérence des actions entre équipes métiers, IT et rôles data. 2. Pilotage des responsabilités et rôles Data Maintenir la cartographie des rôles (Data Owners, Stewards, référents IT). Coordonner les différents acteurs pour assurer une gouvernance fluide et continue. 3. Gestion et valorisation du Catalogue de Données Superviser l’enrichissement, la mise à jour et la validation du catalogue de données. Garantir la cohérence des métadonnées et l’accessibilité de l’information pour les utilisateurs internes. 4. Qualité, conformité et contrôle des données Participer à la validation des tableaux de bord liés à la qualité. Identifier les écarts entre modèles logiques et implémentations physiques. Contribuer aux audits internes de conformité des référentiels et au suivi des plans de remédiation. Sensibiliser les équipes aux bonnes pratiques de qualité et de protection des données. 5. Contribution à l’architecture et à l’urbanisation Data Apporter une vision data lors des cadrages fonctionnels de projets. Contribuer à l’alignement des architectures applicatives/fonctionnelles avec les principes de gouvernance. Participer aux travaux de modélisation des flux et des objets métiers. Favoriser la simplification et la rationalisation du système d’information.
Freelance

Mission freelance
Business analyst data / BI- N

Publiée le
Business Analysis
SAS
SQL

18 mois
100-350 €
Nantes, Pays de la Loire
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5306 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous