L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 874 résultats.
Offre d'emploi
Service Delivery Manager
VISIAN
Publiée le
ITIL
Microsoft Power BI
1 an
40k-45k €
340-400 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de Service Delivery Management. Mission principale Contribution à l'amélioration de l'efficacité opérationnelle des équipes et des processus en identifiant des leviers d'optimisation, en pilotant leur mise en œuvre et en favorisant une culture d'amélioration continue au sein de l'organisation. Responsabilités clés Analyse des processus & identification des axes d'amélioration Cartographier les processus existants et identifier les dysfonctionnements, doublons ou pertes de valeur (aligné avec les constats d'organisation et de productivité présents dans les rapports d'étonnement). Analyser les causes racines des incidents, problèmes récurrents ou écarts de performance pour proposer des actions correctives. Vérifier l'alignement des processus avec les standards internes (ITIL, modes opératoires, gouvernance). Pilotage de l'amélioration continue Prioriser les chantiers d'amélioration : automatisation, standardisation, simplification, prévention (en cohérence avec les missions « prévention, automatisation, optimisation » de l'activité Amélioration Continue). Suivre les KPIs, mesurer les gains et assurer un reporting régulier. Promouvoir les bonnes pratiques et les intégrer dans l'opérationnel. Mise en œuvre et déploiement des processus Rédiger, mettre à jour et déployer les processus, procédures, modes opératoires et guides (aligné avec les missions de Process Manager : définition, mise en œuvre et évolution des processus). Suivre la formation et la sensibilisation des équipes à l'utilisation des processus et outils. Accompagner le changement auprès des équipes (communication, onboarding, support, ateliers). Performance opérationnelle & pilotage Suivre les indicateurs clés d'activité (SLA, KPI, volumes, qualité de service) (références multiples : suivi de performance dans les documents de gouvernance Control Tower). Proposer des plans d'action pour renforcer la performance globale et la réactivité. Coordonner les parties prenantes : équipes techniques, partenaires, prestataires, management. Coordination transverse & communication Animer les ateliers, comités, points d'avancement, sessions d'alignement inter-équipes. Préparer les supports de communication opérationnelle (flash info, synthèses, plans d'actions). Incident & Problem Management Coordonner la gestion des incidents majeurs et animer les cellules de crise. Assurer la communication interne et externe (clients, end-users, équipes, sécurité, management). Produire les Post Incident Reports et respecter les processus Groupe pour la gestion des problèmes (qualification, résolution). Organiser et piloter les Problem Steerings et les comités. Participer activement aux comités Major Incident Review Board, Major Problem Review Board (revue, information, communication, réponses aux questions). Garantir le respect des processus Groupe pour la gestion des problèmes et incidents – Périmètre : P1 – P5.
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Mission freelance
Business Analyst BI
DEVIK CONSULTING
Publiée le
Business Intelligence
Microsoft Power BI
Microstrategy
1 an
500-650 €
Île-de-France, France
Description Pour le compte de notre client grand compte, Nous recherchons un Business Analyst BI confirmé ou senior pour accompagner les métiers dans la formalisation de leurs besoins et la mise en place de solutions BI. Le consultant interviendra au sein d’une équipe dynamique et jouera un rôle clé dans l’adoption du Self-BI par les métiers, notamment autour de Power BI. Tâches principales Recueil et analyse des besoins métiers Rédaction des spécifications fonctionnelles Réalisation de maquettes Power BI / MicroStrategy Collaboration avec les équipes de développement Accompagnement des utilisateurs et formation au Self-BI (Power BI Profil Recherché Expérience significative en Business Analysis BI Expertise Power BI indispensable Connaissance de MicroStrategy appréciée Bon communicant, pédagogue et esprit d’équipe Lieu : Ile-de-france Présence ponctuelle sur Bondoufles et Chatillon
Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance
VISIAN
Publiée le
Architecture
Data management
3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Offre d'emploi
Consultant Data Engineer Informatica
VISIAN
Publiée le
AWS Cloud
Informatica
1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Offre d'emploi
Data Engineer / Data Scientist
ONSPARK
Publiée le
Cloudera
Hadoop
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Engineer / Data Scientist pour accompagner nos clients grands comptes. Vous interviendrez au sein d'un Pôle Data mature, exploitant une plateforme Big Data on-premise (Cloudera Data Platform Private Cloud) et un environnement de Data Science (Cloudera Machine Learning). Vos missions s'articulent autour de l'ingestion de données massives issues de multiples partenaires institutionnels, de l'accompagnement des équipes métier et de la mise en œuvre de cas d'usage data avancés (data science, IA, machine learning, NLP, dataviz). Responsabilités Collecte des données Développer, industrialiser et maintenir des pipelines d'ingestion de sources de données internes et externes Participer à la préparation et au suivi de la qualité des données Identifier des opportunités d'utilisation de nouvelles données Expertise & accompagnement métier Accompagner les chargés d'études dans leur utilisation de la plateforme de données (POC/POV, support, expertise, formation) Contribuer et maintenir en condition opérationnelle les cas d'usage sur la plateforme (simulateurs, prévisions, indicateurs, data science, IA) Valoriser et exposer les résultats via des outils de visualisation ou de micro-services Sécuriser & MCO Comprendre les contraintes des équipes supports (sécurité, infrastructure, RGPD) Contribuer aux bonnes pratiques de développement, standardisation des livrables, amélioration continue
Offre d'emploi
Data Engineer GenAI / Databricks
UCASE CONSULTING
Publiée le
AWS Cloud
Databricks
GenAI
1 an
40k-45k €
400-710 €
Île-de-France, France
Bonjour à tous 😀 🎯 Contexte : Dans le cadre du développement de ses capacités en Intelligence Artificielle Générative , nous recherchons un Data Engineer spécialisé sur Databricks pour intervenir sur des cas d’usage innovants à forte valeur ajoutée. Le poste combine des enjeux de data engineering, machine learning et mise en production dans un environnement moderne. 🛠️ Missions principales Concevoir et développer des modèles de Machine Learning (GenAI) Collecter, préparer et exploiter les données Développer des pipelines d’ingestion et de transformation Assurer la mise en production et le monitoring des modèles (MLOps) Intervenir sur des sujets d’architecture RAG et fine-tuning Conseiller sur les choix techniques et les cas d’usage 🧩 Environnement technique Python / SQL / Pandas Databricks Machine Learning / Deep Learning (LLM, Transformers) Architectures GenAI (RAG, fine-tuning) Cloud AWS MLOps
Mission freelance
Data ingénieur / Software ingénieur
SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark
1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Offre d'emploi
Consultant(e) DATA OFFICER SENIOR (DATA GOVERNANCE / DATA MANAGEMENT / RGPD)
CELAD
Publiée le
Data governance
IA
RGPD
1 an
70k-90k €
600-700 €
Paris, France
1. CONTEXTE Au sein du Data Office rattaché à la Direction Data , vous intervenez dans un environnement structuré en tribus et squads sur des enjeux stratégiques liés à la gouvernance, la qualité et la protection des données . L’objectif est d’ industrialiser la gestion de la donnée dans la fabrication des cas d’usage (data, analytics, IA), tout en garantissant leur conformité réglementaire et leur performance business. Vous travaillez en étroite collaboration avec le Référent Data, les équipes métiers, IT, juridiques (DPO) ainsi que les différentes squads contributrices. 2. OBJECTIFS DU POSTE Structurer et déployer le cadre de gouvernance data à l’échelle de l’entreprise Garantir la qualité, la traçabilité et la protection des données critiques Accompagner les squads dans la mise en conformité RGPD et IA Act Assurer une vision transverse et pilotée des enjeux data (KPI, risques, qualité) Contribuer à la réussite des initiatives stratégiques data (Data Platform, projets IA, etc.) 3. MISSIONS PRINCIPALES3.1 Cadrage des initiatives data Accompagner les projets métiers et IT dans la phase de cadrage Identifier les données critiques (business / réglementaires) Définir les exigences en matière de : qualité des données gouvernance protection (RGPD, IA) 3.2 Gouvernance & Data Management Déployer et faire appliquer le framework de Data Governance Structurer les éléments suivants : Data catalog (Nectarine / AB Initio) dictionnaire de données glossaire métier data lineage Définir et suivre les rôles : Data Owners Data Stewards Garantir la cohérence du modèle data entre les différentes squads 3.3 Qualité des données Définir les règles de Data Quality (complétude, cohérence, unicité, etc.) Mettre en place les indicateurs de suivi Piloter les plans de remédiation avec les équipes IT et métiers Évaluer l’impact de la qualité des données sur la performance business 3.4 Data Protection & conformité Accompagner les équipes dans les analyses de risques RGPD (DPIA) Garantir le respect des principes de protection des données (privacy by design) Contribuer aux sujets liés à l’ IA Act Collaborer avec les équipes juridiques / DPO 3.5 Pilotage transverse & hypervision Mettre en place et suivre des KPI de gouvernance data Assurer une vision consolidée : des risques de la qualité de l’avancement des travaux Préparer et présenter les éléments dans les instances : comités de suivi comités data COMEX Produits 3.6 Accompagnement des équipes Former et accompagner les équipes : Data Stewards Data Designers équipes produit Diffuser les bonnes pratiques de gouvernance data Faciliter l’adoption des outils et processus 3.7 Contribution aux initiatives stratégiques Participation aux projets structurants (Data Platform, HALO…) Contribution aux ARM sur les volets data Support à la transformation data globale de l’entreprise
Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Offre d'emploi
Ingénieur Systèmes Data
VISIAN
Publiée le
Ansible
SQL
1 an
Île-de-France, France
Missions Contrôle quotidien de la production (morning check) : En cas d’incident et/ou de retard sur les traitements et/ou les flux, s’assurer que les bonnes équipes prennent en charge le problème et que les entités sont informées dans les meilleurs délais. D’autres environnements peuvent être inclus dans cette supervision, mais la priorité reste la production. Suivi du cycle de vie des incidents de production avec les filiales, avec déclenchement d’escalade si nécessaire : Communication régulière auprès des entités pour assurer une bonne visibilité sur l’évolution des incidents. Support aux différentes équipes dans le diagnostic et la résolution des problèmes liés aux données. Préparation de rapports : incidents, événements majeurs, et propositions d’amélioration des tableaux de bord de supervision. Gestion des demandes d’infrastructure (bases de données, stockage, flux, ordonnancement, supervision, etc.) sur les différents environnements : Responsable du suivi des changements (monitoring, reporting, communication). Coordination des livraisons (toolchain CI/CD) pour les environnements de pré-production et de production, après validation des phases de test par les entités. Analyse des changements à effectuer en production et formulation de recommandations. Analyse et évaluation des incidents opérationnels afin d’optimiser les actions correctives et préventives des équipes filiales. Promotion d’une culture d’apprentissage continu et d’amélioration au sein de l’équipe. Outils IT Bonne connaissance de : Gestion des processus ITIL ServiceNow JIRA Maîtrise des éléments suivants : Logiciel Dremio (SQL) Monitoring & alerting : Dynatrace, ELK (Kibana, Grafana) Cycle de vie de développement logiciel (SDLC) Principes et rituels Agile Toolchain CI/CD (Gitlab, Jenkins, DBT…) Orchestrateurs : Autosys, Airflow, Reflections Unix (Shell) En option / appréciés : Réseaux de production (VIP, proxies, firewalls, micro-segmentation…) Outils de DataViz : Tableau, Power BI Stockage : HDFS, S3, Iceberg, Parquet
Offre d'emploi
Expert Data Engineer / DevOps
R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes
6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Mission freelance
Consultant AMOA / Business Analyst SI
TEOLIA CONSULTING
Publiée le
AMOA
Business Object
Microsoft Power BI
18 mois
400-600 €
Paris, France
Dans le cadre de la refonte d’un système d’information décisionnel et de reporting , nous recherchons pour notre client un consultant AMOA / Business Analyst SI senior pour accompagner la transformation du SI existant et assurer le suivi de la maintenance évolutive. Le consultant interviendra en interface entre métiers, MOA et MOE , avec un rôle clé dans la formalisation des besoins, la production des livrables fonctionnels et la coordination des phases de recette. L’environnement applicatif repose notamment sur des outils BI et data tels que Business Objects, Power BI, Talend et des bases de données relationnelles. Missions : Projet de refonte SI : Analyse de l’existant et recueil des besoins métiers Rédaction des spécifications fonctionnelles (SFG / SFD) Participation à la planification et au suivi projet Élaboration et exécution des cahiers de recette Suivi des anomalies et évolutions via un outil de ticketing Coordination avec les équipes MOE, MOA et métiers Reporting d’avancement et suivi des risques Maintenance évolutive : Spécification des demandes d’évolution Mise à jour et exécution des campagnes de tests Suivi des tickets et corrections Participation au pilotage et aux comités projet Environnement technique : Business Objects Power BI Talend Oracle / SQL Server / MySQL Applications web Outil de ticketing type Mantis
Mission freelance
🔷 Mission de DSI à temps partagé — 2 jours / semaine
Tenth Revolution Group
Publiée le
Data Lake
Microsoft Fabric
12 mois
Lyon, Auvergne-Rhône-Alpes
Groupe industriel en croissance cherche un DSI à temps partagé. Lyon / multi-sites France + Pays-Bas — 8 entités — 50 M€ de CA — Contexte LBO. Les fondations SI sont posées : ✅ Sage X3 en production depuis 2024 ✅ OroCommerce déployé début 2025 ✅ Power BI avec Fabric et data lake en cours de structuration Le chantier reste ouvert : ▶ Migration M365 ▶ Réseau WAN groupe ▶ Consolidation des filiales encore sous Sage 100 / Cegid ▶ Facture électronique avant fin 2026 ▶ Cybersécurité ▶ Plan de continuité d'activité Le tout dans un contexte de build-up actif. Ce groupe a besoin d'un DSI qui sait travailler sans armée, qui parle aux DG comme aux équipes terrain, qui pilote des prestataires sans en dépendre, et qui rend l'IT lisible pour des décideurs non techniques.
Mission freelance
Consultant fonctionnel & support Microsoft 365 – Migration licences M365
INSYCO
Publiée le
Active Directory
Copilot
Microsoft Excel
36 mois
480-580 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Consultant fonctionnel & support Microsoft 365 – Migration licences M365 Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/M365/5223 dans l'objet de votre message Contexte de la prestation Le client, grand compte media, déploie la suite Microsoft 365 (Outlook, Teams, Copilot, OneDrive, SharePoint, Stream, Loop…) ainsi que d'autres outils collaboratifs auprès de ses utilisateurs internes. Ces solutions nécessitent un accompagnement fonctionnel et un support technique de qualité pour assister les directions métiers dans leurs usages. Le consultant intégrera une équipe de deux personnes. La prestation s'inscrit dans le cadre d'un projet de migration consistant au downgrade d'une partie des licences M365. Activités principales / Livrables attendus Pilotage de projets transverses liés aux outils Microsoft 365 et à l'environnement de travail des utilisateurs (salles de réunion, postes de travail…) : définition de plans d'action, suivi d'activité, coordination avec les équipes techniques, planification, mise en place d'indicateurs et de reporting Accompagnement des utilisateurs dans le cadre d'évolutions technologiques (ex : systèmes de visioconférences, outils Microsoft 365, authentification forte, migration Windows 10 vers Windows 11…) : animation de webinaires, coaching individuel et ateliers collectifs, création de contenus pédagogiques (présentations PowerPoint, articles, vidéos, infographies…) Organisation et accompagnement des directions métiers pour les événements hybrides (réunions Top managers, plénières, conférences de presse, salons internes…) : gestion du planning et des statistiques de participation, mise en place et vérification du matériel, création de la réunion sur Teams et vérification des paramètres, coordination logistique et technique, conseil aux utilisateurs sur les bonnes pratiques des réunions Dans le cadre du projet de migration des licences M365 : prise en charge du chantier technique comprenant notamment la migration de données des répertoires communs vers Teams/SharePoint, et la gestion des quotas de données sur les boîtes aux lettres et OneDrive Gestion de portails SharePoint : analyse de l'existant, conseil sur la conception et la création de sites de communication ou d'équipes, proposition d'arborescences, rédaction et mise à jour des contenus (pages, actualités, vidéos…)
Mission freelance
Ingénieur Data (RIM / IDMP)
CS Group Solutions
Publiée le
Data analysis
6 mois
Île-de-France, France
Nous recherchons un Ingénieur Data (RIM / IDMP) Objectif global :Accompagner l’équipe Data Entry (RIM / IDMP) Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. __________ Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : - planification des changements globaux/locaux - planification et suivi des soumissions - planification et suivi des enregistrements - gestion des CCDS et de l’étiquetage local - reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Excellentes compétences en communication en anglais. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3874 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois