L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 557 résultats.
Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT
OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT
3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
PROPULSE IT
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Team leader IA
Templeton and Partners Limited
Publiée le
IA
6 mois
370-400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Piloter une squad technique dédiée à l’industrialisation de l’IA dans le SDLC Encadrer l’équipe (développeurs, experts IA) et organiser le delivery en mode Agile Définir et piloter la roadmap , prioriser les travaux en fonction de l’impact Garantir la qualité des livrables, le respect des délais et des standards techniques Déployer des solutions IA utiles au quotidien des équipes de développement et s’assurer de leur adoption Suivre l’usage, la performance et les gains apportés par les solutions déployées Mettre en place une gouvernance des usages IA et maîtriser les coûts associés Garantir la fiabilité, la sécurité et la disponibilité des solutions Travailler en coordination avec les équipes techniques et transverses
Mission freelance
Administrateur ElasticSearch Paris - administrer une base de données NOSQL - exp de 7 à 10 ans
WorldWide People
Publiée le
Elasticsearch
3 mois
Paris, France
Administrateur ElasticSearch Paris - administrer une base de données NOSQL - expérience de 7 à 10 ans Quelqu'un qui serait capable d'administrer une base de données NOSQL pour pouvoir gérer correctement les performances d'une base de données ElasticSearch et qui serait capable de réviser/gérer des index. Administrateur ElasticSearch et Gestion des PerformanceTunique ELK Description du Poste Nous recherchons un Expert ELK confirmé, spécialisé dans l'administration avancée d'une plateforme ElasticSearch et la gestion de ses performances (sujet critique dû à l’absorption quotidienne de données d' APM (Application Performance Monitoring) . Ce poste exige une expertise approfondie dans la configuration, la gestion des performances au quotidien , et l'optimisation des bases de données NoSQL. Vous serez un pilier essentiel de notre équipe dédiée au système de management, à l'observabilité et à l'automatisation. Responsabilités Administration de Plateforme ElasticSearch : Assurer la gestion quotidienne d'une plateforme ElasticSearch, incluant la configuration, le monitoring et l'optimisation des performances. Gestion de Performance via APM : Intégrer et analyser les données d'APM pour identifier les goulots d'étranglement et optimiser les performances des applications. Configuration et Tuning Avancé : Mettre en place des configurations optimales pour garantir la scalabilité, la haute disponibilité et des performances maximales et automatiser les tâches répétitives. Gestion des Performances : Identifier et résoudre les problèmes de performance, optimiser les requêtes et ajuster les paramètres pour une utilisation efficace des ressources. Déploiement et Maintenance de la Stack ELK : Installer, configurer et maintenir Elasticsearch, Logstash et Kibana, avec un focus sur la robustesse et la fiabilité. Optimisation des Bases de Données NoSQL : Analyser et optimiser les performances des bases de données NoSQL pour garantir une efficacité maximale. Configuration des ILM (Index Lifecycle Management) : Mettre en place et gérer les politiques ILM pour optimiser la gestion des index et leur cycle de vie. Gestion des Shards : Configurer et optimiser la répartition des shards pour garantir des performances élevées et une utilisation efficace des ressources. Interrogation des API via Logstash : Configurer et utiliser Logstash pour interroger des API externes et intégrer les données collectées dans Elasticsearch. Documentation et Support : Rédiger et maintenir la documentation des configurations et des processus, et assurer le support technique et la résolution des problèmes liés à la stack ELK. Compétences Requises Expérience : Minimum 5 ans d'expérience en administration de plateforme ElasticSearch , avec une expertise démontrée dans la gestion quotidienne des performances et des configurations avancées. Connaissances Techniques : Maîtrise des concepts d’ingestion, de transformation et de visualisation des données, avec des compétences avancées en tuning de performances. Gestion de Performance via APM : Expérience dans l'intégration et l'analyse des données d'APM pour optimiser les performances des applications. Interrogation des API : Expérience dans la configuration de Logstash pour interroger des API externes et intégrer les données dans Elasticsearch. ILM et Shards : Expertise dans la configuration des politiques ILM et la gestion des shards pour optimiser les performances et la scalabilité. Machine Learning : Expérience dans l'utilisation des fonctionnalités de Machine Learning d'Elasticsearch. Monitoring et Observabilité : Expérience approfondie dans la surveillance et la gestion de l'infrastructure IT avec un accent sur l'observabilité avancée. Interopérabilité : Expérience dans l'intégration d'ELK avec ServiceNow ou des systèmes similaires. Communication et Résolution de Problèmes : Excellentes compétences en communication écrite et orale, et capacité à diagnostiquer et résoudre des problèmes complexes de manière efficace et autonome. Atouts Connaissance d'autres outils de monitoring : Prometheus, Grafana, etc. Certification Elastic : Un atout majeur. Expérience avec des bases de données NoSQL et SQL : Expertise en optimisation et tuning. Connaissance des pratiques DevOps et des outils CI/CD : Expérience souhaitée. Expérience avec ServiceNow et son écosystème : Un plus. Scripting et Automatisation : Compétence en scripting (Python, Bash, etc.) et expérience avec des outils d'automatisation (Ansible, Puppet, etc.)
Mission freelance
Chef de projet / Business Analyst IA Générative Manager / Senior Manager
Mon Consultant Indépendant
Publiée le
Gestion de projet
IA
9 mois
670-700 €
Paris, France
Pour un client dans le secteur Bancaire nous recherchons, un profil pour piloter le déploiement du Chat Entreprise Mistral auprès des métiers, coordonner les parties prenantes, cadrer et prioriser les cas d’usage, et sécuriser la livraison de valeur dans un environnement bancaire exigeant. Principales responsabilités : Piloter le déploiement fonctionnel et organisationnel de la solution. Coordonner la ventilation des licences avec les directions métiers. Structurer, animer et faire monter en puissance un réseau de Champions . Recueillir, challenger et formaliser les besoins métiers. Définir la méthode de priorisation des cas d’usage (impact, faisabilité, ROI, risques). Alimenter et piloter le backlog IA Générative en lien avec la Data & IA Factory. Assurer l’interface entre métiers, DSI, sécurité, conduite du changement et éditeur. Mettre en place les indicateurs de suivi : adoption, usage, satisfaction, valeur créée. Préparer les comités, reportings et arbitrages programme. Sécuriser la continuité entre l’expérimentation existante et la bascule vers Le Chat.
Offre d'emploi
Expert SailPoint Senior
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Île-de-France, France
Contexte de la mission : En tant qu'expert SailPoint vous intégrez une équipe en charge du développement et la mise en place de la solution SailPoint IndentityIQ Tâches à réaliser : Sur la solution IdentityIQ Intégration Configuration Déploiement Maintenance Compétences recherchées : Obligatoires : Maîtrise des API SailPoint (REST, SOAP, etc) Développement de connecteurs personnalisés Automatisation des processus d'intégration et de gestion des identités Compétences en configuration : Paramétrage des workflows et des règles de gestion Mise en place de politiques de sécurité et d'accès Expérience en déploiement DevOps : Automatisation des déploiements (CI/CD) Gestion des environnements (test, pré-production, production) Compétences en scripting et automatisation : Scripting Automatisation des tests et des recettes Rédaction de documentation : Procédures d'installation Procédures d'exploitation Procédures de recette Optionnelles : Certification SailPoint IIQ ou équivalent Expérience nécessaire : Profil senior, 7 à 9 années d’expérience et a minima la gestion de 3/4 projets d'intégration SailPoint IdentityIQ Méthodologie : Agile, SAFe Langues : Français et Anglais
Mission freelance
développeur fullstack java Angular
Freelance.com
Publiée le
Agent IA
Angular
Apache Kafka
1 an
460-500 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe IT stratégique, nous recherchons un Développeur Java Confirmé pour intervenir sur un système d’information dédié à des solutions d’assurance et de financement à l’international. Vous intégrerez une organisation Agile à l’échelle (SAFe) , au sein d’une équipe produit dynamique, encadrée par un Scrum Master et évoluant dans un environnement structuré autour de l’excellence opérationnelle, de l’automatisation et du DevSecOps. La mission s’inscrit dans un contexte de transformation continue, avec des enjeux forts autour de la qualité logicielle, de la performance et de l’innovation (notamment via l’IA générative). Au sein de l’équipe projet, vous serez amené(e) à : Garantir la bonne couverture des besoins fonctionnels dans les engagements de delivery Développer des solutions robustes dans le respect des standards techniques Contribuer activement à une démarche DevSecOps (mise en place, amélioration et promotion) Participer à la conception et au développement des fonctionnalités (Back & Front) Assurer les tests unitaires, automatisés et End-to-End Corriger les anomalies et assurer le suivi en production Mettre en place et maintenir les pipelines CI/CD (Jenkins, Maven) Automatiser les processus de tests et de déploiement Participer aux rituels Agile (Scrum / SAFe) et aux revues de User Stories Contribuer à l’amélioration continue et aux indicateurs d’excellence opérationnelle Exploiter les outils modernes, incluant les solutions d’ IA générative
Offre d'emploi
Data Analyst Senior H/F
SMARTPOINT
Publiée le
Git
PySpark
Python
12 mois
50k-60k €
400-500 €
Nantes, Pays de la Loire
Analyse et compréhension des besoins Comprendre et modéliser les problématiques métiers et celles du pôle. Définir le périmètre des données nécessaires à la mise en œuvre des solutions analytiques. Élaborer un plan d’analyse des données adapté aux besoins métiers. Data science et modélisation Concevoir et développer des modèles de machine learning . Mettre en œuvre des techniques statistiques et de data mining . Optimiser les modèles de données des projets data. Développer et maintenir des scripts Python optimisés . Exploitation et valorisation des données Analyser les données et interpréter les résultats pour les métiers . Conceptualiser des solutions autour de problématiques opérationnelles. Formaliser les résultats d’analyse et les présenter aux équipes métiers. Mettre en évidence la valeur des actions proposées. Visualisation et restitution Concevoir des visualisations de données adaptées aux besoins métiers . Produire éventuellement des visualisations cartographiques . Rendre les résultats lisibles, exploitables et actionnables. Collaboration et industrialisation Créer les tables et vues nécessaires aux projets data . Collaborer avec les équipes Data Ops pour l’industrialisation : collecte de données traitements supervision restitution Estimer la charge des traitements techniques et des développements. Recommandations et amélioration Être force de proposition sur les actions à mettre en œuvre. Formuler des préconisations opérationnelles basées sur les analyses.
Mission freelance
DevSecOps Cloud AWS (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
DevOps
IA
2 ans
450-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte : Fonctionnement : 2 jours sur site non consécutifs par semaine Les missions attendues par le DevSecOps Cloud AWS (H/F) : En tant qu’ Ingénieur DevSecOps , vous serez un acteur clé pour : Automatiser et sécuriser les livraisons logicielles : Concevoir, déployer et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour garantir des déploiements fluides et sécurisés. Intégrer des tests automatisés (unitaires, d’intégration, de non-régression) et des scans de sécurité (Checkmarx SAST/SCA, AWS Inspector) dans le processus de développement. Garantir la robustesse des infrastructures : Gérer l’ Infrastructure as Code (Terraform) pour des environnements reproductibles et scalables. Superviser la performance et la sécurité des applications en production (CloudWatch, Grafana, AWS Security Hub). Collaborer avec les équipes produit et sécurité : Travailler en étroite collaboration avec les développeurs, Product Owners et experts cybersécurité pour intégrer les bonnes pratiques DevSecOps dès la conception. Participer aux rituels agiles (daily, rétrospectives) et aux Gamedays pour tester la résilience des solutions. Documenter et former : Rédiger des procédures techniques et des guides de bonnes pratiques pour capitaliser sur les retours d’expérience. Accompagner les équipes dans la montée en compétences sur les outils DevSecOps.
Offre d'emploi
DATA MANAGER EXPERT SNOWFLAKE
BEEZEN
Publiée le
Snowflake
3 mois
40k-76k €
510-600 €
Île-de-France, France
SQL & data analysis (expert) Data quality rules, controls & reconciliation (expert) Snowflake (expert) Technical data documentation & lineage (expert) 1) Cadrage & design des Data Products (Customer) Contribuer au cadrage et à la conception des data products alignés aux besoins métiers. Apporter une compréhension fonctionnelle des processus Customer . Challenger les choix de modélisation (complexité, faisabilité, impacts cross-domain). Assurer l’alignement avec la target data architecture et les standards dès la phase de design. 2) Standards & gouvernance Data Définir / maintenir / promouvoir les standards de data management (modélisation, conventions, documentation). Produire et faire appliquer des guidelines/patterns réutilisables. Garantir l’adoption des standards sur le domaine Customer . Être garant(e) de la qualité de la documentation et des pratiques de gouvernance. 3) Urbanisation transverse & qualité long terme Assurer la cohérence et l’ interopérabilité entre domaines data. Identifier et réduire doublons / recouvrements / fragmentation autour des concepts Customer. Proposer des recommandations transverses favorisant harmonisation, réutilisation et robustesse.
Mission freelance
Architecte solution GMAO - DATA - H/F - 93
Mindquest
Publiée le
Gestion de maintenance assistée par ordinateur (GMAO)
Microsoft Power BI
3 mois
Seine-Saint-Denis, France
Analyse & cadrage: - Contribuer au cadrage des besoins métiers - Participer à la définition de l’expérience utilisateur et des fonctionnalités à intégrer - Réaliser des analyses de données métier, notamment dans le domaine de la maintenance Développement & reporting: - Développer des rapports automatisés et performants sur Power BI - Optimiser les performances des rapports et traitements existants - Assurer la fiabilité et la pertinence des indicateurs produits Suivi & performance: - Assurer un reporting régulier de l’activité et des projets - Garantir la qualité des livrables et le respect des délais - Remonter les sujets critiques ou points d’attention au manager hiérarchique Gouvernance & architecture: - Être garant du respect des processus de gouvernance de la donnée - Veiller au bon usage des données dans les projets - Définir et maintenir l’architecture data autour de la GMAO et de la Data Platform - Piloter la mise en œuvre des standards et méthodes de conduite de projet Documentation & capitalisation: - Maintenir et enrichir la documentation technique et fonctionnelle des projets - Assurer la traçabilité et la capitalisation des travaux réalisés Accompagnement des métiers: - Accompagner les utilisateurs dans la prise en main des outils - Participer aux phases de recette et de validation Méthodologie agile: - Participer aux cérémonies agiles : sprint planning, daily, rétrospectives Livrables attendus: - Architecture et modèles de données GMAO - Tableaux de bord et rapports Power BI - Reporting d’activité et suivi de projets - Documentation technique et fonctionnelle à jour - Comptes rendus d’ateliers et supports utilisateurs
Mission freelance
Directeur de projet GMAO - DATA - H/F - 93
Mindquest
Publiée le
AWS Cloud
Azure
Gestion de projet
3 mois
Seine-Saint-Denis, France
Objectifs de la mission: - Piloter et coordonner les projets GMAO et Data - Garantir la livraison des projets dans le respect des coûts, délais et qualité - Structurer et optimiser le pilotage des équipes et des activités - Assurer l’alignement entre besoins métiers et solutions IT - Mettre en œuvre et faire respecter la gouvernance Data Périmètre d’intervention: Pilotage de projets: - Définition et suivi de la roadmap projets - Planification et pilotage des activités - Suivi des jalons, gestion des risques et arbitrages Coordination des parties prenantes (métiers, IT, prestataires) AMOA & cadrage: - Animation d’ateliers de cadrage - Formalisation des expressions de besoins - Accompagnement des métiers et de la MOA SI - Supervision des recettes fonctionnelles Management & coordination: - Pilotage d’équipes (développeurs, testeurs, AMOA) - Gestion des plans de charge - Organisation et animation des comités projets - Reporting régulier et remontée des alertes Expertise technique & Data: - Supervision des architectures applicatives et data - Environnements Cloud : AWS, Azure - Suivi des outils analytiques et valorisation des données - Recommandations sur les évolutions techniques Gouvernance & qualité: - Mise en œuvre des standards de gouvernance des données - Contrôle de la qualité des livrables - Respect des méthodologies projets - Maintien de la documentation projet Livrables attendus: - Roadmap et planning détaillé des projets - Reporting opérationnel et tableaux de bord - Expressions de besoins et cadrage fonctionnel - Comptes rendus d’ateliers et comités - Suivi budgétaire et indicateurs de performance - Suivi des jalons et qualité des livraisons Documentation projet à jour
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Mission freelance
Chef de projet système industriel et télécom
SKILL EXPERT
Publiée le
Adressage IP
CLM
MPLS (MultiProtocol Label Switching)
1 an
580-600 €
Noisy-le-Grand, Île-de-France
Contexte de la mission : La demande de prestation s’inscrit dans le cadre du programme de Maintien en Conditions Opérationnelles des Infrastructures et Systèmes du WAN RTHD et de la Vidéoprotection des Espaces. L'entreprise a refondu l’ensemble de ses infrastructures télécom de transmission et de vidéo au travers du projet RTHD G Vidéo. En quelques chiffres : • Déploiement de plus de 600 équipements d’accès réseau (Backbone, Drainage, Accès WAN) • Développement et Adaptation d’une dizaine d’applications métier majeures, à l’attention des acteurs d’exploitation, de sûreté et de maintenance • Mise en service d’une infrastructure d’hébergement virtualisé – au sein de ses bâtiments technologiques – pour l’enregistrement et le traitement des flux vidéo des caméras espaces (~14 500 flux à date) Cette consultation s’inscrit dans le cadre des opérations du programme de Maintien en Conditions Opérationnelles RTHD G Vidéo : • Update/Upgrade/Evolutions des Infrastructures de Transport Télécom (routeurs, switches, …) • Update/Upgrade/Evolutions des Applicatifs du Système d’Information WAN RTHD et VIDEO • Portage des Applicatifs du SI WAN RTHD et VIDEO dans les environnements de la Fabrique Digitale • Refonte des Infrastructures d’Enregistrement Vidéo Centralisé • Opérations de Mise en Conformité Réglementaire des Systèmes Vidéo La présente consultation a pour objet le pilotage des opérations de Mise en Conformité Réglementaire des Systèmes Vidéo, sous la responsabilité du chef de programme de MCO RTHD et Vidéo Cette prestation se décompose en trois missions : • Mission 1 : Piloter le projet de mise en conformité au décret vidéo • Mission 2 : Piloter le projet de mise en conformité à l’arrêté technique vidéo • Mission 3 : Préparer les dossiers technico-financiers Les missions se dérouleront durant toute la durée du projet, le titulaire éditera les livrables selon les procédures qualité de l'entreprise • Objectifs/Descriptif de mission : Mission 1 : Piloter le projet de mise en conformité au décret vidéo Sous la responsabilité du responsable du programme, cette mission consiste à assister structurer, piloter et coordonner l’opérations de mise en conformité réglementaire au décret vidéo de 11/2023. Le déroulement de cette mission se décompose en : • Structurer l’opération de traitement d’obsolescences des routeurs du cœur WAN, en s’appuyant sur les référentiels projet (WBS, OBS, PBS, Planning, …) • Piloter les phases d’études (architecture maquette, déploiement maquette, déploiement production, FMES), la phase de qualification (planning, …) et la phase de réalisation (planning, approvisionnements, …) • Elaborer, Suivre et Mettre à jour les tableaux de bord projet : états d'avancement (technique, financier), indicateurs, planning, Gestion des risques… • Assurer la coordination opérationnelle des acteurs des projets (MOE réseau, MOE vidéo, MOEs Infrastructures, AMOE Cyber, Mainteneurs, …) • Réaliser des documents de présentation/communication dans le cadre des missions déléguées • Animer des réunions Mission 2 : Piloter le projet de mise en conformité à l’arrêté technique vidéo Sous la responsabilité du responsable du programme, cette mission consiste à assister structurer, piloter et coordonner l’opérations de mise en conformité réglementaire au décret vidéo de 11/2023. Le déroulement de cette mission se décompose en : • Structurer l’opération de traitement d’obsolescences des routeurs du cœur WAN, en s’appuyant sur les référentiels projet (WBS, OBS, PBS, Planning, …) • Piloter les phases d’études (architecture maquette, déploiement maquette, déploiement production, FMES), la phase de qualification (planning, …) et la phase de réalisation (planning, approvisionnements, …) • Elaborer, Suivre et Mettre à jour les tableaux de bord projet : états d'avancement (technique, financier), indicateurs, planning, Gestion des risques … • Assurer la coordination opérationnelle des acteurs des projets (MOE réseau, MOE vidéo, MOEs Infrastructures, AMOE Cyber, Mainteneurs, …) • Réaliser des documents de présentation/communication dans le cadre des missions déléguées • Animer des réunions Mission 3 : Préparer les dossiers technico-financiers Cette mission consiste à assister le chef du programme de MCO ou le suppléée au périmètre des opérations de mise en conformité réglementaire dans la préparation et l’animation des dossiers technico-financiers en vue des instances de pilotage du MCO RTHD (COPIL, Revue Semestrielle, COMOP). Le déroulement de cette mission comprend : • Consolidation des éléments financier avec les Maîtres d’œuvre (Avancement technique valorisé, trajectoire, risques, …) • Rédiger des documents de présentation/communication (COPIL, COMOP, Revue Semestrielle, Comité d’Engagement, …) • Animer les réunions (niveau direction) • Compétences demandées : Compétences et expériences obligatoires : Les compétences techniques obligatoires attendues sont les suivantes : • Références en gestion de projets techniques • Expérience confirmée en gestion de projets complexes, de la phase d'étude à la mise en service (planification, coordination des intervenants, suivi financier et reporting) • Expérience confirmée en gestion des risques projet (identification, évaluation, plans d’action et suivi) • Expériences et Connaissance des techniques réseau IP MPLS • Expériences et Connaissance des systèmes de cybersécurité (bastion, NAC, CLM) • Expériences et Connaissance des techniques des systèmes Vidéo (VMS, Caméra, SI, hébergement) • Expériences et Connaissance des techniques d’hébergement IT (serveurs, virtualisation, OS, BDD …) • Maîtriser des outils de pilotage et de reporting (MS-Project, Visio, Word, Power Point, Excel, …) • Capacité à gérer plusieurs projets simultanément dans un contexte à fortes contraintes de délai Les compétences fonctionnelles obligatoires attendues sont les suivantes : • Expérience de travail en équipe • Expérience à mobiliser et fédérer les équipes dans le cadre d’une organisation matricielle, en coordonnant efficacement plusieurs pôles et métiers (ingénierie, maintenance, déploiement, MOA, prestataires) • Expérience en pilotage et animation de réunions ou d'ateliers • Expérience en animation de réunions de niveau direction • Capacités d’analyse et de synthèse • Connaissance du contexte (télécom, ferroviaire) • Connaissances des bonnes pratiques ITIL D’autre part, la mission nécessite, adaptation, méthode, rigueur et une bonne aptitude relationnelle. Elle suppose aussi d’être force de proposition et d’avoir une approche globale des sujets. Enfin, la rédaction de documents étant requise, des facultés rédactionnelles et de communication sont également nécessaires
Mission freelance
Data Model Architect
Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality
6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Offre d'emploi
Consultant MSBI
adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD
4 mois
40k-48k €
500 €
Île-de-France, France
Le groupe, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet MDM Marketing ou RFE. La mission doit débuter dès que possible pour une durée de 3-4 mois . ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4557 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois