L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 843 résultats.
Offre d'emploi
Ingénieur Cyber NetSec F/H (pré-embauche client final)
Publiée le
Bash
DNS
IDS/IPS
2 ans
Ivry-sur-Seine, Île-de-France
Nous sommes à la recherche d'un Ingénieur Cyber NetSec pour l'un de nos clients finaux. Le poste propose une pré-embauche, avec un contrat initial de 4 à 6 mois de mission chez RIDCHADATA, avant une intégration directe chez le client. Sous la responsabilité du Responsable du COSC, l'ingénieur Sécurité NetSec occupe un rôle essentiel dans la stratégie de protection périmétrique des infrastructures de notre contre les menaces Cyber. En tant qu'expert sécurité, vous assurez la conception, mise en place et gestion des solutions de sécurité réseaux WAF, IPS, anti-DDOS. Doté d'une passion pour les nouvelles technologies et d'un appétit pour comprendre « comment ça marche », vos principales missions s'articulent sur : •Définition et mise en œuvre des stratégies de protection périmétrique autour des solutions WAF, IPS, Anti-DDOS, protection DNS •Veille technologique autour des solutions et nouvelles menaces •Gestion des solutions (administrer, MCO/MCS, proposer des évolutions et améliorations continues autour des plateformes et services) •Mener des analyses approfondies des incidents, comprenant les techniques, tactiques et procédures des attaquants •Utiliser des outils de sécurité avancés pour une surveillance proactive des systèmes •Accompagner les équipes de détection et réponse sur l'implémentation de nouvelles solutions de sécurité •Gestion des demandes clients et projets (industrialisation et automatisation des processus autour des solutions •Analyser et répondre de manière proactive aux demandes des clients internes et externes •Implémentation de nouvelles infrastructures •Reporting et Présentation des KPI •Participation aux Audits SSI Dans l'exercice de vos missions, vous serez amené à utiliser des technologies de pointe telles que : •Solutions IDS/IPS Cisco FirePower •Protection DDOS Arbor •WAF F5 / WAF Radware •Cisco Umbrella
Mission freelance
Expert IA / CP Cybersécurité (Sénior)
Publiée le
Cybersécurité
Data governance
Data Lake
12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Contexte du poste Dans un contexte d’accélération des usages de l’IA et d’exigences croissantes en cybersécurité et conformité réglementaire (NIS2, RGPD, AI Act, bonnes pratiques ISO/IEC 42001, 27001/27005…), l’organisation souhaite structurer et formaliser sa politique de cybersécurité appliquée à l’IA. Le Chef de projet IA / Cybersécurité jouera un rôle clé dans la définition du cadre, sa mise en œuvre opérationnelle, et l’accompagnement des équipes techniques et métiers. Missions principales 1. Élaboration de la politique de cybersécurité appliquée à l’IA Construire une politique cybersécurité dédiée aux projets IA (purs ou intégrant des briques IA). Définir les exigences de sécurité adaptées aux différents types d’IA (ML, LLM, modèles embarqués, services cloud, etc.). Intégrer les enjeux liés aux données (qualité, confidentialité, gouvernance, gestion des jeux d’entraînement). 2. Définition du processus de prise en compte de la cybersécurité dans le cycle de vie des projets IA Conception d’un processus de sécurité couvrant tout le cycle : idéation, cadrage, conception, entraînement, validation, déploiement, exploitation. Coordination avec les métiers, les équipes d’ingénierie, les architectes, le juridique, la data gouvernance et le RSSI. Intégration du processus dans la gouvernance projet et dans les instances existantes. 3. Rédaction du livrable de référence : “Politique de prise en compte de la cybersécurité dans les projets et produits IA” Le livrable inclura notamment : L’organisation cible et les rôles/responsabilités (Métiers, Data, RSSI, Architectes, Juridique, Achats…). Les jalons de validation et exigences à contrôler à chaque étape. Les points de contrôle cyber spécifiques aux projets IA (robustesse des modèles, attaques adversariales, données sensibles, dérives de modèle, dépendances cloud…). Les grilles d’évaluation et matrices de risques cyber appliquées à l’IA (risques modèles, risques données, risques d’exploitation). Les clauses contractuelles types pour appels d’offres et contrats incluant de l’IA : obligations de sécurité, exigences de gestion et protection des données, auditabilité et monitoring, obligations de conformité (AI Act, RGPD…), obligations en matière de gestion de vulnérabilités IA. 4. Préparation de la phase opérationnelle Préparer le passage de la politique à l’opérationnel. Former et sensibiliser les équipes (ingénierie, métiers, achats, juridique). Participer à la structuration du dispositif opérationnel et soutenir l’Expert IA / Cybersécurité. Contribuer à la mise en place des outils de suivi, audit, monitoring sécurité des modèles.
Mission freelance
Data Analyst - Power BI Montpellier
Publiée le
Microsoft Power BI
12 mois
450 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst - Power BI" pour un client dans le secteur de l'Energie Description 🎯 Contexte de la mission Dans le cadre de la consolidation et du développement des outils de pilotage métiers , l’entreprise recherche un Data Analyst Power BI confirmé afin de garantir la performance, la fiabilité et l’évolution de ses tableaux de bord stratégiques. L’objectif : assurer la maintenance en condition opérationnelle (MCO) des rapports critiques, développer de nouveaux tableaux Power BI et contribuer à l’amélioration de la qualité des données. ⚙️ Rôle et responsabilités Intégré(e) à l’équipe Data et en lien direct avec les directions métiers, le Data Analyst aura un rôle clé dans la valorisation des données et la fiabilité des indicateurs . Vos missions principales : Assurer le MCO des tableaux Power BI critiques : supervision, rafraîchissement, vérification des sources et résolution d’anomalies. Concevoir et déployer de nouveaux tableaux de bord Power BI répondant aux besoins métiers (performance, ergonomie, fiabilité). Analyser et comprendre les besoins métiers variés, formaliser les règles de gestion et traduire les demandes en solutions concrètes. Identifier les anomalies de données et sensibiliser les métiers à la qualité et à la cohérence des informations. Collaborer avec les équipes techniques (AWS, Dataiku, Power Platform) pour améliorer les flux de données et la gouvernance . Documenter les processus, les évolutions et les incidents afin d’assurer la traçabilité et la continuité des projets. Produire les reportings d’avancement et suivre les demandes dans Jira.
Mission freelance
Chef de projet géomarketing
Publiée le
CRM
Data analysis
Data governance
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses. Profil recherché : Expérience confirmée en géomarketing et gestion de projets data / BI. Maîtrise des outils SIG (QGIS, ArcGIS…) et des solutions de data visualisation (Power BI, Tableau…). Bonne compréhension des enjeux commerciaux et logistiques dans un contexte multi-pays. Capacité à industrialiser des processus et à créer des reportings automatisés. Esprit analytique, rigueur et sens de la communication. Livrables attendus : Outils géomarketing industrialisés et documentés. Tableaux de bord KPI opérationnels et automatisés. Processus standardisés pour le suivi de la performance géomarketing.
Mission freelance
Data Product Manager (Business Analyst / Solution Architect)
Publiée le
Data management
1 an
400-600 €
Île-de-France, France
Le consultant interviendra au sein de l’équipe Data-as-a-Service et aura pour mission de structurer et piloter une étude stratégique Data couvrant plusieurs régions et métiers. Ses responsabilités incluront : Organisation et pilotage de l’étude : définition du cadrage, identification des parties prenantes et animation des ateliers avec les directions métiers et IT dans un contexte international. Analyse des besoins et des processus : collecte et formalisation des exigences business & IT (globaux et régionaux), compréhension des ambitions stratégiques du segment Construction Chemicals , identification des enjeux majeurs et priorisation. Documentation et modélisation : formalisation de l’architecture fonctionnelle cible, préparation des plans de communication et restitution claire et visuelle des livrables. Planification des travaux : séquencement des différents lots, définition des jalons, intégration des meilleures pratiques issues de la Data & Analytics Factory. Coordination des acteurs Data : organisation et suivi des contributions des équipes internes (Architecte Technique, Data Engineers, BI Engineers), gestion des interfaces avec les métiers et autres départements IT. Évaluation de la valeur métier : identification et documentation des bénéfices attendus, évaluation des impacts business, estimation du ROI. Préparation du projet de mise en œuvre : construction du budget Build/Run, élaboration du planning de déploiement, et rédaction de la proposition finale “Go to Project” à présenter au management. L’objectif final est de fournir une vision claire, structurée et orientée valeur permettant de sécuriser la décision de lancement du projet et de garantir l’alignement entre les ambitions business et les capacités Data & Analytics.
Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)
Publiée le
Data Lake
DevOps
Master Data Management (MDM)
12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Offre d'emploi
Data Engineer
Publiée le
DevOps
Python
6 mois
Paris, France
Description de la mission: Au sein d’un centre de services de cybersécurité vous rejoindrez une équipe internationale DevSecOps et vous serez responsable de la conception, du développement et la mise en œuvre d’applications. Missions : Cette équipe a pour principales missions de : • Faire la conceptualisation de la solution, le « proof of concept », l'estimation des efforts, le développement, la mise en œuvre, le déploiement et les phases de support. • Développer un code sécurisé, propre, réutilisable et bien documenté en suivant une méthode AGILE. • Configurer les environnements de développement, de test et de production en local et/ou dans le cloud • Maintenir la qualité du code, la documentation relative au développement, le déploiement en production, et le transfert de connaissances (KT).
Mission freelance
Data Designer
Publiée le
AWS Cloud
6 mois
Paris, France
Télétravail partiel
Contexte de la mission: Dans le cadre d’un programme de transformation data au sein d’un grand acteur du secteur bancaire, nous recherchons un Data Designer afin de renforcer les équipes en charge de la modélisation et de la structuration des données. Le poste s’inscrit dans un contexte de refonte des processus data et de standardisation des pratiques au sein des équipes métiers et IT. L’objectif principal est d’assurer la cohérence, la qualité et la lisibilité du modèle de données tout en accompagnant les utilisateurs dans la définition et la mise en œuvre des bonnes pratiques de gestion et de gouvernance. Responsabilités principales: · Concevoir et maintenir les modèles de données conceptuels et logiques . · Rédiger la documentation fonctionnelle et technique liée à la modélisation des données. · Définir et formaliser les processus de gestion, de configuration et de paramétrage liés à la donnée. · Contribuer à la mise en place des règles de gouvernance , de qualité et de sécurité des données. · Participer à la coordination fonctionnelle entre les équipes techniques et les utilisateurs métiers. · Identifier les améliorations possibles des flux et processus existants afin d’optimiser la circulation et la valorisation de la donnée. Stack et environnement technique: · Outils de modélisation : PowerDesigner, Erwin Data Modeler, UML, Merise · Gouvernance & documentation : DataGalaxy, Collibra, Alation (ou équivalent) · Bases de données : SQL, Oracle, Snowflake (souhaité) · Cloud : AWS · BI / Data Tools : Tableau, Dataiku (en support) Profil recherché: · Minimum 4 à 6 ans d’expérience dans la conception et la modélisation de données (Data Designer, Data Architect, Data Modeler ou équivalent). · Excellente compréhension des modèles de données relationnels et dimensionnels . · Capacité à traduire les besoins métiers en structures de données claires et exploitables. · Expérience dans la définition de processus fonctionnels et la coordination inter-équipes . · Sens du détail, rigueur documentaire et bonne compréhension des enjeux de gouvernance data. · Une première expérience dans le secteur bancaire ou financier est un atout significatif. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Architecte Data
Publiée le
Javascript
6 mois
580-700 €
Élancourt, Île-de-France
Télétravail partiel
1. Contexte du projet Le projet concerne une application de gestion prédictive des risques fournisseurs impactant la supply chain. Cette solution vise à : Naviguer parmi les données produits et fournisseurs pour identifier les éléments à risque. Détecter et alerter en cas d’événements susceptibles d’augmenter le niveau de risque. Simuler différents scénarios (rupture fournisseur, hausse de charge, etc.) afin d’en mesurer les impacts et de proposer des actions correctives. L’application, hébergée on-premise , s’appuie sur un logiciel COTS et un modèle de facturation basé sur les VCPU/h alloués . Les données intégrées proviennent de : ERP (SAP ECC : modules MM, PP, CO, SAP BW, Oracle E-Business Suite) Applications internes (achats, procurement, BI) Sources externes (fournisseurs de rang N, données marchés, etc.) Ces chargements nécessitent un travail approfondi de préparation, transformation, contrôle qualité et corrections manuelles avant intégration. Certaines données sont sensibles (C3 business sensitive – Export Control France non restreint) . 2. Compétences techniques et fonctionnelles requises Expertise en modélisation de données , particulièrement sur les domaines achats et industrie . Connaissance approfondie de : SAP ECC (MM, PP, CO), SAP BW , Oracle E-Business Suite Ivalua , Power BI , Excel Power Query Python (notebook) , JavaScript (console Web) , VS Code , SSMS , Shell Unix , PowerShell Plateforme C3AI (console et exploration de données) Capacité à analyser, fiabiliser et enrichir la donnée , avec une approche orientée qualité et amélioration continue. Prise en main et évaluation d’outils de Data Analysis . Compétences en architecture fonctionnelle et technique . Bon niveau d’anglais (oral et écrit). 3. Missions principales Intégration et préparation de nouvelles données Identifier les nouvelles sources de données et les besoins associés. Définir et piloter les extractions à réaliser depuis les systèmes sources. Préparer, transformer et contrôler la qualité des données avant intégration. Vérifier la cohérence du modèle de données choisi. Automatiser autant que possible les traitements d’intégration et de mise à jour. Mise à jour et supervision des environnements Assurer la mise à jour récurrente des données internes et externes. Surveiller le bon déroulement des simulations et recalculer les KPIs pour vérification. Identifier et corriger les anomalies de chargement ou de qualité. Maintenir la documentation complète des flux et traitements de données. Tests, qualité et support applicatif Contrôler la qualité des livraisons logicielles. Participer aux tests de non-régression et au maintien du jeu de données de référence . Analyser les erreurs d’exécution (UI, scripts JavaScript/C3). Vérifier la cohérence des KPIs et des résultats de simulation. Pilotage et coordination technique Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures et sources de données. Maintenir et intégrer le référentiel des fournisseurs de rang N. Suivre les déploiements applicatifs, upgrades, incidents et performance du run. Optimisation du runtime Suivre la consommation CPU/h via les dashboards internes. Comparer les mesures internes et éditeur, analyser les écarts. Optimiser l’allocation des ressources CPU/h en fonction de l’usage réel de la plateforme. 4. Profil recherché Expérience confirmée en architecture data , gestion de flux complexes et intégration de données hétérogènes . Aisance dans les environnements ERP et BI. Capacité à structurer, documenter et fiabiliser des processus data de bout en bout. Bon sens analytique, rigueur technique, autonomie et communication fluide avec des équipes pluridisciplinaires.
Offre d'emploi
Expert Symfony / Performance & Recherche Avancée (Elasticsearch) - Sophia Antipolis (H/F)
Publiée le
Apache Kafka
CI/CD
Docker
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte Nous recherchons un Expert Symfony disposant d’une solide expérience sur les problématiques de performance , de traitement de données à grande échelle et de recherche avancée avec Elasticsearch . Le poste s’inscrit dans un contexte de projets stratégiques liés à la Gestion Électronique de Documents (GED) et à l’identité numérique , avec un fort accent sur l’optimisation des flux et la robustesse des architectures logicielles. L’expert participera à la conception d’API REST sécurisées , à la mise en place de pipelines de traitement haute performance , et contribuera activement aux choix d’architecture (microservices, scalabilité, observabilité). 🎯 Missions principalesDéveloppement & architecture Concevoir et implémenter des API REST robustes et sécurisées (JWT, OAuth2). Intégrer et optimiser des systèmes de GED (indexation, recherche, archivage, workflows). Mettre en place et améliorer des pipelines de traitement de données massives (import/export volumineux, RabbitMQ/Kafka). Travailler sur la performance applicative (optimisation SQL, caching, profiling, monitoring). Participer aux décisions d’architecture (microservices, découplage, scalabilité, haute disponibilité). Garantir la qualité du code (clean code, design patterns, DDD). Qualité & industrialisation Écrire et maintenir les tests unitaires, fonctionnels et end-to-end (PHPUnit, Behat, Postman). Participer à l’ industrialisation via CI/CD , Docker, Kubernetes, GitLab ou Jenkins. Assurer le monitoring, logging et tuning de performance de la stack technique. Documenter les choix techniques et les architectures mises en œuvre. Collaboration & leadership technique Accompagner les développeurs juniors (revues de code, pair programming, mentorat). Collaborer avec les équipes Produit, QA, DevOps et Frontend. Participer à la veille technologique sur les architectures cloud-native, la sécurité et la performance. 📦 Livrables attendus Code conforme aux standards et aux spécifications techniques Documentation technique et fonctionnelle à jour Jeux de tests unitaires et fonctionnels validés Contributions actives aux choix d’architecture et d’industrialisation 🛠️ Compétences techniques recherchées PHP 8.x / Symfony 6.4 ou 7.x – niveau expert, indispensable Elasticsearch / OpenSearch – maîtrise confirmée, fort atout SQL / PostgreSQL – confirmé, impératif Systèmes de messagerie : RabbitMQ, Kafka, Symfony Messenger Caching : Redis, Varnish, APCu CI/CD, Docker, Kubernetes – confirmé Tests : PHPUnit, Behat, Postman/Newman Architecture : DDD, Clean Architecture, Design Patterns Bonus : connaissance des standards de dématérialisation et d’archivage légal
Mission freelance
Scrum Master SAFe Data h/f
Publiée le
Agile Scrum
Safe
3 ans
400-620 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Pour notre client dans le secteur privé, nous recherchons un Scrum master SAFe confirmé (à minima 8/10 ans d'expérience). Le Scrum Master a pour mission d’accompagner et de faciliter le travail de son (ses) Agile Team(s) dans la structuration et la réalisation de ses (leurs) activités. Cette prestation d’assistance technique sera supervisée par le RTE et le coach du train SAFe Une certification est obligatoire: Scrum Master SAFE Scaled Agile + éventuellement RTE Scaled Agile ou SPC Scaled Agile.
Mission freelance
FREELANCE - Data Modeler (H/F)
Publiée le
Modélisation
3 mois
450-500 €
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Télétravail 100%
Notre client est à la recherche d’un Data Modeler (H/F) freelance pour l’accompagner dans le cadre d’un projet de transformation et de modernisation de leur système d’information décisionnel. MISSIONS En collaboration avec les équipes data, les experts métiers et les data engineers, vos missions sont les suivantes : · Analyser les besoins métiers et les cas d’usage pour en extraire les objets métiers et leurs relations dans le but de concevoir des modèles de données adaptés aux environnements décisionnels · Documenter les modèles de données de manière claire et structurée · Garantir la cohérence et la pérennité du modèle de données dans le temps · Participer à l’intégration des modèles dans les outils connexes de l’entrepôt de données : processus d’alimentation ETL et restitutions (Semarchy, Sportfire) · Assurer la qualité, la traçabilité et la gouvernance des données modélisées · Collaborer avec les équipes métiers pour valider les choix de modélisation et s’assurer de leur bonne compréhension
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Offre d'emploi
Directeur de Projets Data/Digital H/F
Publiée le
65k-75k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons activement un Directeur de Projets pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion globale de plusieurs projets à engagements, en supervisant l'exécution, la planification, le budget et la livraison de bout en bout. Ce rôle implique de travailler en étroite collaboration avec les équipes de réalisation, nos partenaires technologiques et nos clients pour assurer le succès des projets et la satisfaction des clients. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Développer une vision stratégique pour chaque projet et aligner les objectifs avec la stratégie globale de notre entreprise • Établir et maintenir des relations solides avec les clients, comprendre leurs besoins et leurs attentes, et garantir leur satisfaction • Gérer les communications et assurer la résolution proactive des problèmes, en agissant comme le point de contact principal • Prendre des décisions clés pour garantir l'atteinte des résultats attendus et la rentabilité des projets, en accord avec notre centre d'excellence Delivery • Superviser simultanément plusieurs projets au forfait, en assurant une gestion efficace des ressources, des délais et des budgets • Gérer le plan de charge des dispositifs tout en assurant l'atteinte des objectifs fixés • Diriger et encadrer les équipes de chefs de projet, en fournissant des orientations, un mentorat et des opportunités de développement • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Animer des comités stratégiques ou de pilotage Référence de l'offre : h9m199bzf6
Mission freelance
Architecte Data
Publiée le
Apache Kafka
API
6 mois
500 €
Paris, France
Télétravail partiel
Mission : les sujets à traiter sont Modélisation des données (Objets Métiers et référentiel d’architecture …) Gouvernance des données : rôles, responsabilités, règles de gestion, sécurité, conformité, … Comprendre et challenger les architectures d’intégration (API, Kafka, …) Qualité des données Données de références (identification et échanges des données de références) Cycle de vie de la donnée Attendus : Animation des ateliers métiers Sollicitation des parties prenantes (SAE, Service Data) pour compléments d’information Support au Service Data à la rédaction des livrables Livrables Dictionnaire de données métiers Lexique fonctionnel et technique CR ateliers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1843 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois