L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 656 résultats.
Mission freelance
SAP Master data
RED Commerce - The Global SAP Solutions Provider
Publiée le
Master Data Management (MDM)
Migration
SAP
3 mois
400-720 €
Auvergne-Rhône-Alpes, France
Nous recherchons pour l’un de nos clients à Lyon un(e) Consultant(e) SAP MM/SD – Master Data / MDM Expert , pour intervenir sur un projet stratégique de conversion ECC → S/4HANA , avec un fort accent sur les tests de non-régression et la validation des Master Data (BP & Articles) . 🔍 Responsabilités principales : ✅ Réaliser les tests de non-régression sur les Business Partners (clients/fournisseurs) ✅ Vérifier la fusion des partenaires , l’intégrité des données et le respect des tranches de numéros ✅ Tester la visualisation, modification et création des BP , en s’assurant que toutes les classifications, pièces jointes, autorisations et contrôles (doublons SIRET/SIREN/TVA) fonctionnent correctement ✅ Réaliser les tests sur les articles (création, modification, visualisation) et valider la continuité des classifications, pièces jointes et contrôles spécifiques ✅ Participer à la validation des interfaces entrantes et sortantes ✅ Contribuer à l’élaboration et au fonctionnement des outils de reprise en masse pour BP et articles ✅ S’assurer que les reportings et requêtes spécifiques fonctionnent correctement après migration ✅ Documenter tous les tests dans un cahier de tests et suivre les anomalies dans ITop jusqu’à leur résolution
Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Offre d'emploi
Urbaniste SI H/F
FED SAS
Publiée le
55k-60k €
Versailles, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Versailles un Urbaniste SI H/F dans le cadre d'un CDI. Sous la responsabilité du DSI, l'urbaniste SI propose, gouverne et optimise le système d'information à travers une vision technologique, d'interopérabilité, d'urbanisation et d'engagement de service du système d'information. Son ambition primaire est de garantir l'agilité, la maintenabilité, la disponibilité, la performance, la sécurité et la scalabilité du SI en fonction des enjeux du Groupe. Il aura cette capacité à fournir ces différentes visions sous différents angles (court terme, long terme, cout de possession, obsolescence, valeur métier…) Il travaillera en étroite collaboration avec l'architecte fonctionnelle et l'ensemble des équipes SI pour fournir les différentes trajectoires attendues, accompagner les projets (SI et métier) et mener à bien son activité. L'urbaniste SI aura les missions et les responsabilités suivantes : Architecture technique : Concevoir et maintenir l'architecture technique globale du SI. Définir les standards et les référentiels technologiques à utiliser dans l'entreprise. Assurer la cohérence et l'interopérabilité des différentes composantes techniques du SI. - Optimisation du SI : Analyser et optimiser les performances du SI. Proposer des solutions pour améliorer la scalabilité et la résilience du système (yc obsolescence). Évaluer et intégrer de nouvelles technologies pour renforcer les capacités du SI . Optimiser le cout de possession du SI en gouvernant et en challengeant les différents contrats. S'assurer de posséder un SI autonome et indépendant (dépendances, compétences et technologies - Gestion des évolutions technologiques : Effectuer une veille technologique constante pour identifier les innovations pertinentes. Proposer des scénarios d'évolution technologiques. Évaluer l'impact des nouvelles technologies sur l'architecture existante. Gérer les risques liés aux technologies et applications techniques. - Collaboration et communication : Travailler en étroite collaboration avec les équipes d'exploitation et de développement. Être le garant des choix technologiques en animant une démarche de douane. Communiquer efficacement sur les choix d'architecture technique auprès des parties prenante. Communiquer et porter l'éveil de la DSI sur les technologies émergentes - Sécurité et conformité : Collaborer avec les équipes de sécurité pour garantir la robustesse de l'architecture. Veiller à la conformité de l'infrastructure avec les normes et réglementations en vigueur. Mettre en place des mécanismes de protection des données et de continuité d'activité. Piloter l'engagement du système d'information - Environnement Microsoft: Windows 2016 à 2022, Windows 11, Active Directory, DNS, DHCP, WSUS, DFS, SFTP, Office 365 - AzureAD, Exchange, Sharepoint, Teams etc. - Environnement Linux : RedHat Infrastructure : Virtualisation (VMWare, VSAN, Dell VxRail), Supervision (Centreon), Ordonnancement (VTOM), Sauvegarde (Dell IDPA/Avamar), Technologies applicatives : PHP, Oracle, Azure Data Factory, PowerBI, Drupal Progiciels majeurs : SalesForce, SAP, FCC
Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP
TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO
12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
Mission freelance
Master Data Management Specialist
Codezys
Publiée le
CRM
Gouvernance
Migration
12 mois
Grand Londres, Royaume-Uni
Objet de l'appel d'offres : Ce projet vise à soutenir la consolidation, le nettoyage et la standardisation des données relatives aux comptes clients provenant de sources legacy multiples. L'objectif ultime est de créer un ensemble de données maître précis et uni, destiné à être migré vers une nouvelle plateforme CRM Salesforce. Cette initiative s'inscrit dans la stratégie du groupe Veolia, alignée sur la vision de devenir une organization largement prête pour l'intelligence artificielle d'ici 2027, dans le cadre du plan GreenUp. Objectifs et livrables Analyse et Profilage des Données : Examiner l'ensemble des données clients existantes, identifier les problématiques de qualité de données, duplications, incohérences et lacunes. Stratégie de Nettoyage des Données : Mettre en œuvre une méthodologie exhaustive de nettoyage, incluant la déduplication, la standardisation, et la validation selon des règles métier prédéfinies. Consolidation des Données : Assister à la fusion des enregistrements clients issus de diverses sources à l'aide d'algorithmes de correspondance et de règles métier pour générer des enregistrements "golden". Préparation à la Migration Salesforce : Structurer les données nettoyées conformément au modèle de données Salesforce et préparer des jeux de données prêts pour la migration. Assurance Qualité : Mettre en place des contrôles de validation, réaliser des audits de qualité de données, et garantir leur exactitude avant la migration. Documentation : Élaborer, suivre et ajuster une documentation détaillée incluant des dictionnaires de données, des règles de transformation, des systèmes de gestion de la qualité et des manuels de migration. Collaboration avec les Parties Prenantes : Collaborer étroitement avec les équipes internes pour résoudre les conflits de données, valider les règles métier, et assurer l'alignement avec les besoins opérationnels. Formation et Transfert de Connaissances : Accompagner les ressources internes concernant les bonnes pratiques de gouvernance de données et la maintenance continue des données. Profil des candidats Les soumissionnaires doivent présenter une expertise avérée dans la gestion de projets de consolidation et de migration de données, avec une expérience significative en environnement CRM, notamment Salesforce, ainsi qu'une forte compréhension des enjeux de gouvernance des données. La capacité à travailler en équipe, à documenter avec précision les processus, et à transférer ses connaissances est également essentielle.
Offre d'emploi
Business Analyst Open API/ DSP2 H/F
CELAD
Publiée le
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Business Analyst Open API/ DSP2 H/F pour intervenir chez un de nos clients. Contexte : Dans le cadre de la mise en conformité et de l’optimisation de services digitaux, vous intervenez sur des sujets liés à l’Open Banking et aux APIs, avec des enjeux réglementaires forts (DSP2) et de modernisation des parcours. Vous évoluez dans un environnement en transformation, en lien étroit avec les équipes métiers et techniques. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Recueillir et analyser les besoins métiers liés aux APIs et parcours digitaux - Rédiger les spécifications fonctionnelles et techniques ainsi que les user stories - Accompagner les équipes de développement dans la compréhension des besoins - Définir et exécuter les cas de tests (API, parcours) - Assurer le suivi des anomalies et proposer des actions correctives - Produire et maintenir la documentation fonctionnelle et technique
Mission freelance
Chef de projet / Lead Sécurité Data & Cloud (GCP)
Inventiv IT
Publiée le
BigQuery
Data governance
DBT
6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Suite à un audit interne (septembre 2024), le Data Office doit : • Structurer une roadmap sécurité Data • Renforcer la protection des données • Améliorer le maintien en condition opérationnelle (PRA/PRI) • Sécuriser la trajectoire de migration Cloud (GCP) • Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission 1. Structurer et piloter la sécurisation du patrimoine Data 2. Mettre en œuvre les exigences PCI / PRI Data 3. Revoir et fiabiliser les habilitations On Prem & Cloud 4. Renforcer la gouvernance des données sensibles 5. Sécuriser les outils Data / BI / Data Science 6. Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Expérience • 8 à 15+ ans en sécurité SI / sécurité Data • Expérience environnement Cloud GCP impérative • Expérience PRA/PCA Data • Expérience gouvernance Data / RGPD • Capacité de pilotage transverse Compétences clés • Architecture sécurité Cloud (GCP) • BigQuery security & Data masking • IAM avancé • PRA / PRI • Data Governance • Sécurité applicative Data • Environnements Hadoop / Oracle Soft skills • Leadership transverse • Capacité à dialoguer avec RSSI & CoDir • Structuration roadmap • Vision stratégique + opérationnelle
Mission freelance
Lead Developer / Expert technique (h/f)
emagine Consulting SARL
Publiée le
API
3 ans
Île-de-France, France
Nous souhaitons bénéficier de l'expertise du Prestataire en termes d'expertise sur le delivery de solutions digitales. La Prestation consiste à délivrer des solutions socles utiles à toute la DSI et à accompagner les équipes pour délivrer efficacement : • Conception et Développement de solutions • Contribution aux instructions projets : Sur le socle (techno, archi), sur l’applicatif (revue de code, perf), sur la supervision (outils, métriques, alertes), ce qui permettra identifier des nouveaux points d’amélioration • Accompagnement des équipes sur les bonnes pratiques liées à l’usage des socles : cela peut être sur les bonnes pratiques du dev/devops, les bonnes pratiques de supervision, les bonnes pratiques également de gestion d’une entité qui fait du suivi de run • Révision de la documentation : architecture technique, les descriptions des services et des flux, des chaînes de liaison
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Mission freelance
Business Analyst Open API/ DSP2 H/F
CELAD
Publiée le
1 an
450-480 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Business Analyst Open API/ DSP2 H/F pour intervenir chez un de nos clients. Contexte : Dans le cadre de la mise en conformité et de l’optimisation de services digitaux, vous intervenez sur des sujets liés à l’Open Banking et aux APIs, avec des enjeux réglementaires forts (DSP2) et de modernisation des parcours. Vous évoluez dans un environnement en transformation, en lien étroit avec les équipes métiers et techniques. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Recueillir et analyser les besoins métiers liés aux APIs et parcours digitaux - Rédiger les spécifications fonctionnelles et techniques ainsi que les user stories - Accompagner les équipes de développement dans la compréhension des besoins - Définir et exécuter les cas de tests (API, parcours) - Assurer le suivi des anomalies et proposer des actions correctives - Produire et maintenir la documentation fonctionnelle et technique
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Mission freelance
Consultant Gouvernance Data
Codezys
Publiée le
Gouvernance
12 mois
350-450 €
Paris, France
Sécurité et conformité réglementaire : Garantir la conformité des données aux normes internes et externes, notamment en matière de RGPD et de législation en vigueur. Gestion des rôles et animation de la communauté Data : Identifier et mobiliser les relais de la gouvernance Data dans un contexte de responsabilités fédérées. Animer des séminaires, assurer la communication et favoriser l’engagement des acteurs concernés. Gestion des habilitations : Définir la granularité des habilitations pour les rôles et utilisateurs afin d’assurer une sécurité optimale et une gestion fine des accès. Accompagnement à la montée en compétence : Soutenir le développement des compétences des membres de l'équipe sur les sujets fondamentaux indispensables à la réalisation des missions liées à la gouvernance des données. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables : Chapitres thématiques de la politique de gouvernance des données : Rôles et responsabilités Gestion du Glossaire et du Dictionnaire des données Gestion du Data Lineage Sécurité et droits d’accès, conformité juridique Suivi de la qualité des données Processus d’évolution de la plateforme Data Environnement technique : La sélection du fournisseur pour la plateforme Data d’entreprise est en cours. La solution cible intégrera notamment : Couche de stockage : Teradata, Hadoop Cloudera, PostgreSQL Transformation des données : DataStage, Spark Business Intelligence : Power BI, SAS Sécurité : 2 jours de télétravail possible par semaine à Paris 12, avec un démarrage prévu à la mi-mars 2026. La mission se clôturera en janvier 2027, avec une option jusqu’en janvier 2028. La date limite de réponse est fixée au 19/02/2026. Type de contrat : salarié ou freelance. TJM cible : 450 € .
Offre d'emploi
Développeur Data & IA (Python & Dataviz) - Lyon
STHREE SAS pour COMPUTER FUTURES
Publiée le
API
Confluence
DevOps
6 mois
36k-40k €
360-390 €
Lyon, Auvergne-Rhône-Alpes
Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz destinées aux équipes de développement et DevSecOps. Le consultant contribuera également à : l’intégration d’usages IA dans les outils du développeur augmenté , l'accompagnement et la montée en compétences des équipes internes Responsabilités principales 1. Développement & Industrialisation Data / IA (activité dominante) Développer des composants logiciels Python : scripts, services, APIs, traitements batch. Construire et optimiser des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Concevoir, industrialiser et maintenir des solutions Data & IA au service des équipes de développement Contribuer à l’intégration d’usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, observabilité, analyse). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations destinées au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation & qualité Rédiger et maintenir la documentation technique. Alimenter les référentiels de connaissances (Confluence). Contribuer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement & formation des équipes internes Appuyer les équipes internes lors de la prise en main des solutions développées. Animer des formations, démonstrations et sessions d’acculturation (ex. : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité Data/IA. 5. Pilotage & coordination opérationnelle Suivre le backlog et collaborer avec les équipes projets, produits et outillage. Produire un reporting régulier d’avancement, d’activité et de difficultés éventuelles.
Mission freelance
Data Analyst (1 ETP)
Signe +
Publiée le
Business Analyst
8 mois
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique ---- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique --- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2656 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois