L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 888 résultats.
Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC
Publiée le
Apache Kafka
CI/CD
Cloud
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Mission freelance
Architecte Solution Cloud Financials
Publiée le
Oracle
6 mois
Paris, France
Télétravail 100%
Notre client, un grand groupe international, lance un vaste programme de transformation couvrant plusieurs entités et systèmes financiers. Nous recherchons un Architecte Solution Cloud Financials avec une forte expertise Oracle NetSuite pour piloter la conception du futur paysage Finance. Compétences clés : Solide expérience en Oracle NetSuite (architecture & implémentation). Connaissance d'autres ERP tels que SAP , Oracle ERP Cloud , Infor ou Dynamics . Excellente compréhension des processus financiers (P2P, O2C, R2R). Expérience dans des environnements complexes et multi-entités Capacité à définir l’architecture cible, les intégrations et les flux de données. Si vous êtes un architecte senior capable de contribuer à une stratégie Cloud Financials à l’échelle d’un groupe, nous serions ravis d’échanger avec vous. Mission principalement en remote avec quelques déplacements à prévoir sur Paris.
Offre d'emploi
Product OWNER DATA / BI (Compétence Salesforce Obligatoire)
Publiée le
Salesforce CPQ
3 ans
40k-55k €
380-530 €
Boulogne-Billancourt, Île-de-France
La Direction des Technologies d’un grand groupe média français conçoit, opère et fait évoluer les systèmes techniques (IT et diffusion) qui soutiennent l’ensemble de ses activités. Elle travaille en étroite collaboration avec les différents métiers du groupe (publicité, contenus, antennes, production, entertainment…) et intervient sur des enjeux clés de support et de transformation digitale . Avec plusieurs centaines de collaborateurs, cette direction accompagne chaque année de nombreux projets stratégiques, innovants et à fort impact business . Le Pôle Produits Publicitaires est en charge de la conception, du développement et de la maintenance des outils de la régie publicitaire, organisés autour de 7 grands produits structurants : Commercialisation : prospection, négociation, contractualisation Offre : catalogue, tarification, inventaire, optimisation Achat : commande, valorisation, arbitrage, programmation Diffusion : gestion des créations, panachage, conducteur Gestion financière : valorisation, prévisions de chiffre d’affaires, facturation Portail client : digitalisation de la relation client BI / Data : entrepôt, consolidation et diffusion des données Dans ce contexte de forte transformation digitale , le pôle recherche un Product Owner CRM – Data Client BtoB & Prospection pour piloter des produits au cœur de la stratégie commerciale et data. Vous êtes animé(e) par les enjeux CRM BtoB , la valorisation de la donnée client et l’optimisation des process de prospection ? Vous aimez faire le lien entre vision business, besoins métiers et delivery produit dans un environnement agile et exigeant ?
Offre d'emploi
Client Master Data Lead
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Dans le cadre d'un projet de transformation des données piloté par un Data Office central, nous avons développé un Référentiel Client partagé pour garantir la cohérence, l'interopérabilité et la fiabilité des informations clients à travers toutes les entités. Dans un contexte de forte croissance par fusions-acquisitions, chaque ligne métier exploite actuellement ses propres systèmes d'information et bases de données clients. L'étape stratégique suivante consiste à déployer et intégrer ce Référentiel Client à l'échelle de l'organisation, permettant une gestion unifiée des données clients et soutenant les processus et analyses transversaux. Pour y parvenir, nous recherchons un professionnel en Master Data Management qui pilotera la stratégie de déploiement, la coordination et l'intégration du Référentiel Client avec l'ensemble des lignes métiers. Objectifs et livrables Le Client Master Data Lead sera responsable de : Définir et exécuter la stratégie de déploiement du Référentiel Client à travers toutes les entités. Agir en tant que coordinateur central entre l'équipe Data Office, l'IT et les lignes métiers pour assurer une intégration et une adoption réussies. Impulser l'alignement sur les modèles de données clients, les règles de gouvernance des données et les interfaces techniques. Gérer le planning du programme, les priorités et la communication avec les parties prenantes. Mettre en place et maintenir un reporting structuré pour suivre les avancées, identifier les risques et fournir une visibilité claire à la direction Data Office et au Comité Exécutif sur l'évolution de l'initiative. Responsabilités principales # Stratégie et Gouvernance : - Définir la feuille de route de déploiement et l'approche (par phases, incrémentale, par entité ou par domaine métier). - Accompagner la définition du modèle opérationnel cible pour la gestion des données clients (rôles, responsabilités, processus). - Identifier et gérer les risques, dépendances et besoins en gestion du changement. - Concevoir et maintenir un cadre de reporting au niveau programme, incluant KPIs, tableaux de bord et indicateurs d'avancement alignés sur les priorités du Data Office. #Coordination et Gestion de Projet : - Servir de point de contact unique entre l'équipe centrale du référentiel et les équipes IS/métiers locales. - Coordonner les projets d'intégration avec chaque entité : onboarding technique, mapping, migration et synchronisation des données clients. - Suivre les avancées, produire des rapports réguliers et des synthèses exécutives, et assurer la qualité de livraison et le respect des délais. - Animer les comités de pilotage et groupes de travail, en consolidant les mises à jour d'avancement et les prochaines étapes. - Garantir la traçabilité des décisions, actions et avancées à travers l'ensemble des flux de projet. # Expertise Technique et Fonctionnelle : - Contribuer à la définition des modèles de données, règles de matching & déduplication, et mécanismes d'intégration (APIs, ETL, etc.). - Accompagner les équipes techniques dans la mise en œuvre des interfaces et flux de données entre les systèmes locaux et le Référentiel Client. - Contribuer à la définition et au suivi des règles de mapping des données, Nettoyage des Données et Migration. # Gestion du Changement et Adoption : - Promouvoir la valeur et les bénéfices du Référentiel Client au sein de l'organisation. - Accompagner les équipes métiers dans l'adaptation de leurs processus et outils pour consommer et maintenir les données maîtres clients. - Contribuer à la conception de supports de formation, communication et reporting adaptés aux différents publics (exécutif, métiers, technique).
Mission freelance
Archite Technique Cloud (Rouen)
Publiée le
Cloud
6 mois
400-700 €
Rouen, Normandie
Télétravail partiel
Hello, Pour le compte de l'un de mes clients dans le secteur de l'assurance, je suis à la recherche d'un profil architecte qui serait en mesure de reprendre les travaux menés en interne du CCM OpenText Exstream. Pas forcément besoin de connaître Exstream mais à minima les dernières architectures Cloud. Un profil expérimenté, très technique n’ayant pas peur de découvrir de nouvelles technos pourrait convenir. Il devra être force de proposition & convainquant par rapport à toutes les demandes fonctionnelles.
Mission freelance
Software Asset Manager (Oracle, IBM, Microsoft)
Publiée le
IBM Cloud
microsoft
Oracle
6 mois
700-820 €
Paris, France
Télétravail partiel
Gouvernance & acculturation SAM Définition KPI, cadre de référence Formation / sensibilisation des prescripteurs Support du SAM manager en place Anticipation du risque logiciel Analyse de risques éditeurs Contrôles en lien avec Achats / Juridique / DSI Outillage SAM & Inventory Mise en œuvre d’outils type BigFix / ILMT / SCCM / USU / ServiceNow Étude d’amélioration de l’outillage SAM Maîtrise des licences IBM, Microsoft, Oracle, VMware, SAP… Optimisation amont/aval des achats Base licences, métriques coûts & risques
Offre d'emploi
MOA – Application ATHENES Bilingue sur Paris
Publiée le
CSS
Data Lake
Java
3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un MOA – Application ATHENES sur Paris Pour l’application ATHENES le périmètre couvre : application est dédiée à l'activité de gestion des participations o La prise en charge des éléments du backlog d’ATHENES : Backlog éditeur Interfaçage CDC (flux) DataLake / Tableau Développement de Proximité Bureautique, etc. au travers de la maintenance corrective et évolutive : expression des besoins, analyse, configuration, recette o Le support utilisateur o La gestion des incidents de production, en relation avec les équipes métiers o La documentation des points ci-dessus o Suivi de KPI éditeurs o Relation avec l’éditeur, comitologie en interne et avec l’éditeur Compétences • Forte expérience en maîtrise d’ouvrage et en support sur les métiers liés au franchissement de seuil (seuils, types, déclarations, etc.) et OPA. • Connaissance approfondie de l’outil Signal de CSS/Confluence (paramétrages, configuration des règles d’alertes, ETL Studio, etc.) • Connaissance approfondie sur l’implémentation de Signal chez d’autres clients • Connaissance des règles de franchissements de seuils règlementaires et statutaires sur plusieurs juridictions (EU, USA, G20), OPA, règles sur l’actionnariat (loi Florange) • Connaissance approfondie de l’anglais (éditeur anglophone) • Connaissance approfondie du langage SQL. • Connaissance approfondie d’Excel (VBA, TCD, etc.) et la programmation (Python). • Connaissance des marchés et des instruments financiers • Connaissance des plateformes (Refinitiv) Démarrage: ASAP Durée Longue
Offre d'emploi
Talend data engineer senior H/F
Publiée le
55k-63k €
Neuilly-sur-Seine, Île-de-France
Au sein de la DSI, l'équipe Data (10 personnes) joue un rôle central dans la valorisation des données de l'entreprise. Vous rejoignez le pôle Solutions Data, pour contribuer à la mise en œuvre et à la maintenance du Système d'Information décisionnel. Vos missions sont les suivantes : Participer à la conception et au développement de projets data innovants Assurer le maintien en conditions opérationnelles (MCO) des bases, applications et flux de données existants Collaborer avec les équipes Métiers pour analyser et traduire les besoins fonctionnels en solutions techniques Contribuer à l'amélioration continue de la plateforme data (processus, outils, qualité des données) Documenter les développements et assurer un transfert de compétences auprès de l'équipe Data
Mission freelance
Business Analyst Applicatif Finance Confirmé
Publiée le
Business Analyst
ERP
SQL
1 an
Paris, France
Télétravail partiel
Contexte de la mission La mission s’inscrit au sein d’une direction IT Finance , rattachée à une entité spécialisée dans la gestion de l’énergie. L’équipe intervient sur les systèmes de facturation, comptabilité et paiements , dans un contexte européen. Le consultant intégrera une équipe FinOps IT composée de Business Analysts et de développeurs, travaillant en cycle de delivery rapide, en lien étroit avec les équipes métiers (Back Office, Comptabilité, Trésorerie). Les utilisateurs finaux sont répartis entre plusieurs pays européens (France, Belgique, Espagne, Italie). Objectifs de la mission Représenter les besoins fonctionnels des utilisateurs métiers Garantir la traduction fidèle des besoins business en solutions applicatives Accompagner les équipes IT dans la conception, la validation et le déploiement des évolutions Assurer un haut niveau de qualité fonctionnelle et opérationnelle des solutions livrées Missions principales Recueillir, analyser et formaliser les besoins métiers Définir les périmètres fonctionnels et les règles de gestion Modéliser les processus métier (cartographie, flux, schémas fonctionnels) Rédiger les spécifications fonctionnelles détaillées et le cahier des charges Collaborer avec les chefs de projet et les équipes de développement Piloter et coordonner les phases de tests, y compris les UAT Contrôler l’intégration des solutions et leur conformité fonctionnelle Assurer le support fonctionnel aux utilisateurs européens Analyser les incidents de production et proposer des solutions correctives Missions complémentaires Définir la cible du système d’information Accompagner la conduite du changement Animer des ateliers et réunions métiers Produire la documentation fonctionnelle et les supports de formation Former les utilisateurs finaux aux outils Back Office Livrables attendus Analyses fonctionnelles Spécifications fonctionnelles détaillées Documentation des processus métiers Stratégie et plans de tests Comptes rendus d’ateliers Supports de formation utilisateurs Reporting et time-tracking mensuel Profil recherchéExpérience Business Analyst applicatif confirmé Expérience en environnement finance / ERP Travail dans des contextes internationaux apprécié Compétences fonctionnelles requises Comptabilité et processus financiers Cycle de vie des produits financiers Facturation, accounting, paiements Standards du développement logiciel Rédaction de spécifications fonctionnelles Compétences techniques requises ERP Finance (SAP ou équivalent) Outils de booking type Orchestrade ou similaires SQL confirmé pour analyse et validation des données Langues Français courant Anglais professionnel indispensable (documentation et échanges)
Mission freelance
Data Automation Engineer Confirmé
Publiée le
CI/CD
Dataiku
DevOps
6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Offre d'emploi
SRE – Migration Cloud & MCO (H/F)
Publiée le
Cloud
Datadog
DevOps
3 ans
40k-70k €
500-700 €
Lille, Hauts-de-France
Pour notre client dans le secteur des services informatiques, spécialisé dans les infrastructures critiques, le cloud et les services managés, nous recherchons un SRE senior pour accompagner une migration d’envergure ainsi que la mise en place du MCO et de l’observabilité. Contexte de la mission : Dans le cadre d’un programme stratégique de migration de l’infrastructure actuelle VMware → Microsoft Azure (AVS) , le consultant SRE accompagnera la transition, sécurisera les environnements et mettra en place une observabilité avancée. Le périmètre inclut l’industrialisation du MCO pour environ 335 VMs , ainsi que la mise en œuvre d’un PRA simplifié . Responsabilités principales : 1. Migration & Architecture Participer à la migration des workloads VMware vers Azure / AVS. Contribuer à la définition et la sécurisation des patterns de migration. Garantir la cohérence et la performance des environnements Windows/Linux post-migration. 2. Mise en place et optimisation du MCO Structurer et industrialiser les processus de MCO sur le parc (335 VMs). Définir des standards d’exploitation robustes et automatisés. Proposer et implémenter des améliorations continues selon le mindset SRE. 3. Observabilité & Monitoring Profil recherché très solide sur l’observabilité. Construire et optimiser dashboards, alertes, métriques et logs via : Datadog , Grafana , Azure Monitor , outils non natifs Azure, etc. Améliorer la visibilité applicative, infrastructure et réseau. Définir SLO/SLI et KPIs de santé des services. Standardiser et industrialiser la stack observabilité. 4. Automatisation & Infrastructure as Code Industrialiser les déploiements via : Terraform , Puppet , GitHub (Actions, Repos). Participer à la mise en œuvre et au maintien du PRA via Zerto / Veeam. Mettre en place des pipelines robustes pour la continuité opérationnelle. 5. Fiabilité & Performance Identifier proactivement risques et points faibles. Améliorer la résilience, la stabilité et les performances globales. Réduire les incidents et le MTTR via bonnes pratiques SRE. Environnement technique OS / Infra : Windows Server, Linux (RHEL/Ubuntu), VMware Cloud : Azure, Azure VMware Solution (AVS) PRA / Backup : Zerto, Veeam IaC / Automatisation : Terraform, Puppet, GitHub Observabilité : Datadog, Grafana, Azure Monitor, outils non natifs AZR Autres : Git, GitHub, approche DevOps (un plus)
Offre d'emploi
ServiceNow HRSD Business Analyst
Publiée le
Business Analyst
ServiceNow
12 ans
74k €
500-700 €
Paris, France
Télétravail partiel
Notre client lance un projet stratégique de transformation digitale RH : l'implémentation d'un portail employé et de services RH dans ServiceNow HRSD & Employee Center Pro. Ce projet permettra de remplacer plus les applications existantes et de moderniser l'expérience employé. Nous recherchons un Business Analyst expert ServiceNow HRSD pour mener des études fonctionnelles, proposer des solutions et interagir avec les équipes projet et parties prenantes métier. Ce poste est a pourvoir pour une duree de 12 mois, a Paris. Le poste requiert une presence de 3 jours sur site. Vos missions Conduire des études fonctionnelles et techniques sur les modules ServiceNow HRSD & ECPRO Proposer des solutions innovantes adaptées aux besoins métier Travailler sur le portail employé, microsites de communication, campagnes et analytics Collaborer avec les équipes projet et stakeholders métier Travailler en mode Agile avec forte autonomie Livrer rapidement dans un contexte exigeant nécessitant focus et exécution rapide
Offre d'emploi
Data Engineer Expert Elastic Stack - F/H
Publiée le
Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Data Engineer Expert Elastic Stack au sein de nos équipes pour l'un de nos clients. Le contexte ? La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l'essor de nos infrastructures et l'évolution des technologies associées, ou encore l'automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l'organisation de la société et de ses Clients (équipes applicatives et socles multiples et dispersées). Au sein de la société, dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l'équipe « Data4Ops », au sein du Domaine d'Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » à savoir les données utiles à l'ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data de l'entreprise (basée sur les principes/concepts Data Mesh) et en relation avec le PM (Product Manager) Observabilité Vos missions ? - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d'automatiser les pipelines d'ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, ...) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l'entreprise (flux : collecte, traitement, stockage et leur cycle de vie) -Rédiger les documents fonctionnels et techniques, d'exploitation, en veillant au respect des normes existantes - Mettre en oeuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l'entreprise pour prise en compte des flux de données - Développer les cas d'usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Stack Elastic OpenSource
Offre d'emploi
Data Analyst - Microstrategy - Nantes
Publiée le
Microstrategy
Méthode Agile
SQL
1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Consultant(e) Data Analyst MicroStrategy pour rejoindre notre équipe et accompagner notre client et les utilisateurs dans la mise en production, la supervision et l’optimisation de leurs solutions décisionnelles. Vous serez garant(e) de la qualité, de la performance et de la conformité des livrables, tout en apportant une expertise technique et un support opérationnel. 🚀 Vos missions Contrôler les livrables MicroStrategy (performances, respect des bonnes pratiques...) avant leur mise en production. Valider le passage en production des éléments conformes. Apporter assistance et conseil aux développeurs dans leurs réalisations. Assurer la supervision de la plateforme MicroStrategy (exécutions, performances, consommation, etc.). Contribuer à l’amélioration continue des services dans un environnement AGILE . Suivi et traitement des demandes utilisateurs (analyse, avancement, résolution). Documentation et mise à jour des récits du Backlog (tableaux de bord, procédures, guides utilisateurs, etc.). Contribution active à l’évolution et à l’optimisation des produits et service
Mission freelance
Ingénieur Cloud GCP - Habilitable & Certifié GCP & K8s
Publiée le
CI/CD
Cloud
Docker
6 mois
Paris, France
Télétravail partiel
Ingénieur Cloud GCP intervenant au sein d’un programme de migration on-premise vers Google Cloud dans un environnement Défense. Vous concevez et déployez des architectures GCP, administrez et optimisez des clusters GKE, développez des modules Terraform et contribuez à l’automatisation CI/CD. Vous collaborez avec les architectes pour définir les standards, sécuriser les environnements et documenter les bonnes pratiques. Le poste exige rigueur, autonomie et une habilitation en raison du contexte sensible.
Mission freelance
Ingénieur expert diffusion Broadcast IP – Automation & serveurs ST2110
Publiée le
Rédaction technique
3 mois
400-550 €
Hauts-de-Seine, France
Télétravail partiel
Dans le cadre du renforcement d’équipes techniques intervenant sur des environnements de diffusion audiovisuelle critique , nous recherchons un Ingénieur expert en diffusion Broadcast IP pour accompagner la conception, le déploiement et la mise en production d’infrastructures de diffusion reposant sur des technologies IP modernes. La mission s’inscrit dans un contexte 24h/24 – 7j/7 , nécessitant un haut niveau d’exigence en matière de fiabilité, de rigueur opérationnelle et de coordination avec de multiples parties prenantes (équipes internes, éditeurs, intégrateurs).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
4888 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois