L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 199 résultats.
Offre d'emploi
DATA ENGINEER MICROSFT BI / POWER BI
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI / Power BI. Contexte : La poursuite de la mise en place de la plateforme décisionnelle au sein du SI de Covéa Finance, nous recherchons un développeur MS BI confirmé . Le consultant interviendra sur le développement, la maintenance évolutive et corrective du système décisionnel. Il sera rattaché hiérarchiquement au Responsable MOE E&D et intégré à l’équipe DWH pour répondre aux demandes tactiques de la plateforme décisionnelle du directeur de projet. Missions principales : Formaliser les spécifications fonctionnelles et analyser les besoins. Identifier les impacts sur l’existant et proposer des solutions techniques. Participer à la modélisation des données et aux choix d’architecture technique. Contribuer au plan de charge et à la définition du planning. Rédiger les spécifications techniques et documents d’exploitation. Développer les nouvelles demandes : intégration de données, création de cubes tabulaires , rapports et dashboards. Assurer le déploiement en homologation et production. Accompagner la MOA et les métiers lors des phases de recette. Support et maintenance corrective (niveau 3). Remonter les informations et indicateurs à son responsable hiérarchique. Compétences techniques indispensables : Expertise sur Microsoft Fabric / MS BI . Maîtrise SQL et T-SQL . Développement et maintenance de SSRS et cubes tabulaires . Expérience en Power BI : dashboards, modélisation, DAX. Bonne compréhension des processus décisionnels et reporting métier . Compétences transverses : Esprit d’analyse et rigueur. Capacité à travailler en équipe et à collaborer avec les équipes métier et infrastructure. Autonomie et force de proposition. Bon relationnel et sens du service client interne. Localisation :
Mission freelance
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis/ko
Publiée le
ETL (Extract-transform-load)
6 mois
400-420 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis Date de début : 05/01/2026 Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple. Objectif de la mission Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : → sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky (ENEDIS) et Gaspar (GRDF) → fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Offre d'emploi
DATA ANALYSTE Communication Digitale
Publiée le
Transformation digitale
18 mois
40k-45k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE La prestation se déroulera pour le compte de la direction de la communication digitale pour conduire les analyses quantitatives et qualitatives relatives à la réputation sur les réseaux sociaux et le web. MISSIONS : Cette prestation aura pour objectif de : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée -Assurer une veille à hauteur de 1 à 2 week-ends par mois (9h30 – 18h30) – A discuter en fonction de vos disponibilités - Effectuer des études réputationnelles dans le cadre d’opérations de marketing d’influence - Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées pour la réalisation de la prestation : - Une expérience d’au moins un an dans le secteur des médias et/ou dans le secteur public sont un prérequis. - Au moins 5 ans d’expériences similaires, en social listening. Une maîtrise préalable avancée d’outils de social listening est attendue. La maîtrise de Talkwalker sera très appréciée. Une expérience extensive avec X Pro (Tweetdeck) constitue un avantage pour la prestation, de même que des connaissances dans l’utilisation de Gephi et d’outils d’IA générative. - Des expériences en matière d’études réputationnelles et de marketing d’influence, ainsi que la maîtrise d’outils de recherche et d’analyse de profils d’influenceurs, constituent un avantage fort pour la prestation. - Une excellente aisance rédactionnelle est nécessaire. - Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Mission freelance
Ingénieur DevOps Cloud Azure – Confirmé / Expert (Data & BI)
Publiée le
Architecture ARM
Azure
Azure DevOps
6 mois
Île-de-France, France
Description du poste : Intégré au Data Lab de la Direction Digital & Data d'un grand groupe Retail, vous pilotez l'architecture et l'industrialisation des projets BI et Data sur le Cloud Microsoft Azure. Au sein d'une équipe Agile d'une dizaine de personnes, vous assurez la liaison entre les équipes techniques (Dev, Sécurité, Ops) et projets. Vos missions s’articulent autour de trois axes majeurs : Construction et Déploiement : Vous concevez et dimensionnez les infrastructures Cloud Public (Azure). Vous déployez les architectures cibles pour les projets Big Data (DataLake, EventHub, Databricks). Industrialisation (DevOps) : Vous garantissez l'approche "Infrastructure as Code" (IaC) via ARM et YAML. Vous configurez et maintenez les pipelines CI/CD (Azure DevOps, Git) pour automatiser les déploiements. Exploitation et Sécurité : Vous mettez en place la supervision et assurez la haute disponibilité des services. Vous gérez le Maintien en Condition Opérationnelle (MCO), les sauvegardes, les accès et la sécurité, tout en participant aux validations techniques et aux audits.
Mission freelance
Data Scientist / GenAI /LLM
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Télétravail 100%
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Offre d'emploi
Data Analyst
Publiée le
Google Cloud Platform (GCP)
PL/SQL
Python
1 an
Paris, France
Télétravail partiel
OBJECTIF Le projet est actuellement lancé avec une mise sous contrôle qualité des données critiques et des plans d’action de remédiation avec les systèmes informatiques de gestion. Le département nécessite l’expertise d’un Data Analyst afin d’améliorer l’analyse des données au sein de l’entreprise. Ce poste est essentiel pour interpréter et analyser la qualité des données clés du business et du métier, tout en collaborant étroitement avec les équipes métiers et IT. Le Data Analyst sera en charge de la mise en oeuvre des analyses pour élaborer les contrôles de qualité de données et les KPIs, d’assurer le maintien et les évolutions du Data Quality Dashboard, de participer aux plans d’action de remédiation, en collaboration avec l’équipe Data du département, et avec les responsables informatiques / métiers des applications.
Offre d'emploi
Data Engineer Expérimenté
Publiée le
Microsoft Power BI
18 mois
40k-45k €
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions :Data Management Data Engineer Spécialités technologiques : ETL, Gouvernance des données, Intégration de données MISSIONS Notre client est engagé dans une transformation en profondeur et la modernisation de son Système d’Information. Les équipes Data, intégrées à la DSI, jouent un rôle central dans la réussite de ces projets de modernisation, tant sur le plan technologique que métier. Vous interviendrez sur plusieurs axes clés : - Conception et développement d’outils et de processus de gouvernance des données. - Mise en place d’outils de pilotage de la qualité, de la sécurité et de la traçabilité des données. - Développement de solutions et de processus visant l’amélioration continue de la qualité de service. - Participation au suivi de la production en tant que lead de l’équipe Data sur les projets de run. - Analyse des incidents de production et des tickets utilisateurs de niveau 1. - Développement et maintenance des traitements ETL Batch Data sous Semarchy xDI. - Rédaction et publication de rapports et indicateurs flash sur la qualité de service du SI Data. Vos missions : - Développer des traitements de contrôle de la qualité des données, notamment industrialisés - Assurer le suivi de production et l’analyse des incidents de premier niveau. - Traiter et résoudre les incidents liés à la qualité des données : analyser les causes, identifier et solliciter les bons interlocuteurs pour leur résolution. - Contribuer à l’amélioration continue et au renforcement de la qualité de service, en collaboration avec les équipes de Gouvernance des Données.
Mission freelance
Data ingénieur (H/F)
Publiée le
Microsoft Fabric
Python
12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Mission freelance
POT8789 - Consultant(e)s Senior MOA SI / Product Owner Data sur Saint Denis
Publiée le
MOA
6 mois
400-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, des Consultant(e)s Senior MOA SI / Product Owner Data sur Saint Denis Expérience : Confirmée en maîtrise d’ouvrage SI, idéalement dans des environnements complexes ou en Asset Management. Missions principales : Analyse et rédaction des besoins métier Identifier les données impliquées et leurs typologies. Définir les indicateurs de qualité et prioriser les enjeux. Élaboration des spécifications fonctionnelles Formaliser les besoins en spécifications générales et détaillées. Pilotage et exécution des recettes Définir la stratégie, les cas de test, constituer les jeux de données et suivre les résultats. Assurer les tests fonctionnels et de non-régression. Maintien en condition opérationnelle (MCO) Garantir la continuité et l’actualisation des offres SI existantes. Product Owner / Backlog Management Identifier et prioriser les besoins fonctionnels et les évolutions de données. Rédiger users stories et spécifications détaillées. Suivi du portefeuille et comitologie Produire la météo projet, suivre le budget, la feuille de route et la commande de production annuelle. Communication et conduite du changement Diffuser l’information, rédiger articles ou supports de démonstration, et accompagner les utilisateurs. Outils collaboratifs Maintenir SharePoint et produire des indicateurs via Power BI. Profils recherchés : Consultant(e) senior MOA SI, autonome et proactif, capable de gérer des sujets complexes. Expérience confirmée en environnement complexe, idéalement en Asset Management ou gestion de portefeuille SI. Capacités d’analyse, de synthèse, d’organisation et d’animation de réunions. Maîtrise des outils collaboratifs (SharePoint, Teams), Power BI et méthodologies Agile/Product Owner. Capacité à vulgariser les sujets techniques et à produire des livrables clairs et rigoureux.
Offre d'emploi
Consultant·e Data Analyst / Splunk ITSI – Dashboards & Data Infrastructure
Publiée le
Splunk
2 ans
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil spécialisé dans les transformations technologiques et organisationnelles. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour de la Data, du Cloud, du DevOps et du numérique responsable , dans des secteurs tels que la finance, l’énergie, l’IT et les télécommunications . Nous recherchons un(e) Consultant·e Data Analyst / Splunk ITSI pour accompagner les équipes dans la construction de dashboards et la mise en place d’une structure de données dédiée à la supervision des infrastructures. Vous interviendrez au cœur d’un projet long terme visant à renforcer la visibilité, la performance et la fiabilité des environnements techniques via Splunk et ITSI. Vos missions principales Concevoir et développer des dashboards Splunk ITSI pour le suivi et la supervision des infrastructures. Construire et structurer la donnée d’observation (logs, métriques) afin d’alimenter les tableaux de bord analytiques. Configurer et administrer Splunk et ses composants ITSI pour répondre aux besoins de reporting et d’exploitation. Analyser les données et traduire les résultats en indicateurs clairs et exploitables . Participer à l’ industrialisation des traitements de données et à la standardisation des processus analytiques. Collaborer avec les équipes techniques et métiers pour assurer la cohérence et la qualité des données. Fournir un appui analytique aux équipes de pilotage et de décision.
Mission freelance
POT8726 - Un Expert Qualité des Données sur Paris
Publiée le
Data quality
Gouvernance
ITIL
6 mois
260-390 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Expert Qualité des Données sur Paris. Descriptif: En tant qu'expert Qualité des Données ServiceNow en SI, vous jouerez un rôle clé dans l'amélioration et la maintenance de l'intégrité des données au sein de notre plateforme ServiceNow. Votre ewpertise sera cruciale pour établir une fondation solide pour une meilleure gouvernance des données, essentielle à la performance et la fiabilité de nos opérations IT et R&I. Vous rejoindrez une équipe internationale existante, tout en collaborant étroitement avec diverses équipes IT et métiers de la R&I. Votre Mission & Responsabilités Clés : Identification et Cartographie des Objets ServiceNow : - Procéder à une identification exhaustive de tous les types d'objets et enregistrements critiques sur la plateforme ServiceNow impactant nos processus R&I et IT. Cela inclut, sans s'y limiter : les Groupes, les Applications, les Projets, les EPICs, les Enhancements, les Stories, les Releases, les CI (Configuration Items), les Connaissances (Knowledge Bases). - Comprendre et documenter la manière dont ces objets sont utilisés et interdépendants. Formalisation des Règles de Conformité des Données : - Définir et formaliser des règles claires et précises de conformité et de qualité des données pour chaque type d'objet identifié. Ces règles devront couvrir des aspects tels que l'exhaustivité, la cohérence, la validité et la précision des informations. Inventaire et Analyse de la Qualité des Données : - Mener un inventaire détaillé de l'état actuel des données sur ServiceNow, évaluant leur conformité par rapport aux règles établies. - Identifier les lacunes, les doublons, les incohérences et toutes les données obsolètes ou non conformes. Création d'un Dashboard de Suivi de la Qualité des Données : - Développer et mettre en œuvre dashboard dynamique au sein de ServiceNow ou via des outils de reporting. Ce dashboard devra permettre de visualiser l'état de la qualité des données, de suivre l'avancement du nettoyage et d'identifier les zones nécessitant une attention continue. - Intégrer des indicateurs clés (KPIs) de qualité des données pour une visibilité constante. - Pilotage et Suivi du Plan de Nettoyage (Clean-up) : - Élaboration d'une feuille de route pour le nettoyage des données identifiées comme non conformes ou de mauvaise qualité. - Coordonner et suivre les actions de correction avec les équipes opérationnelles et les propriétaires de données. - Assurer le reporting régulier de l'avancement du clean-up et l'efficacité des actions menées. Recommandations pour la Gouvernance et l'Amélioration Continue : - Proposer des recommandations concrètes pour l'amélioration des processus de saisie et de maintenance des données, afin de prévenir la dégradation future de la qualité. - Contribuer à l'établissement de bonnes pratiques de gouvernance des données sur ServiceNow.
Offre d'emploi
Data Engineer (H/F)
Publiée le
Big Data
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Mission freelance
Chef de Projet Data Science (H/F)
Publiée le
BigQuery
Data science
Gestion de projet
210 jours
610-800 €
Île-de-France, France
Télétravail partiel
Un grand groupe français du secteur des médias et du numérique recherche un Chef de Projet Data Science senior pour coordonner les initiatives data entre équipes techniques et directions métiers, afin de maximiser l'exploitation de la donnée comme levier de croissance. Missions principales : Assurer la cohérence entre les pôles Data (Technique, Intelligence, Management, Gouvernance) Être le point d'entrée pour les directions métiers (Produit, Editorial, Marketing, Publicité) Recueillir et formaliser les besoins data Animer ateliers et instances projets Produire le reporting et suivre les avancées
Mission freelance
Responsable Strategie Data / IA senior
Publiée le
IA
1 an
400-600 €
Île-de-France, France
Localisation : Hauts-de-Seine Expérience : 7 an et plus Mission : 1 an renouvelable Spécialités technologiques : Intelligence artificielle Big Data Description et livrables de la prestation : Contexte : Un grand groupe français souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement. Expertise souhaitée : - Expérience avérée en accompagnement de programmes de transformation Data & IA - Compétences en marketing stratégique, gouvernance et pilotage d’écosystèmes complexes - Capacité à travailler en contexte multi-entités et à animer la coopération interfiliales - Qualité méthodologique et lisibilité de la proposition - Dynamique, leadership - Expérience en grands groupes Mobilité : Mission Full Time hybride : 2 à 3 jours sur site
Offre d'emploi
Lead DevOps Expert Jenkins et Gitlab
Publiée le
Ansible
Apache Kafka
Atlassian
24 mois
45k-54k €
450-500 €
Montreuil, Île-de-France
Télétravail partiel
Localisation : Montreuil Télétravail : 50 % Durée de la mission : longue Intitulé du poste : Lead DevOps Expert Jenkins et Gitlab Descriptif du poste : Expert sur les 3 produits, pour gérer le produit et pas la production (géré par une autre équipe) : Volume : 12k users sur les services bots compris, architecture Gitlab Enterprise 10k, migration vers 25k à prévoir. Gestion / Administration Monté en version Relation éditeur Les missions sont: Expertise technique sur les produits Gitlab (incluant Gitlab-CI), Jenkins et les pratiques associées afin de gérer les montées de version, les changements d'architecture, Maitrise des socles Linux, Windows, Docker et Openshift. Documentation les solutions (How to, maintenance fonctionnelle et technique). En support du déploiement de la solution auprès des clients.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
3199 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois